JP6148154B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP6148154B2
JP6148154B2 JP2013224354A JP2013224354A JP6148154B2 JP 6148154 B2 JP6148154 B2 JP 6148154B2 JP 2013224354 A JP2013224354 A JP 2013224354A JP 2013224354 A JP2013224354 A JP 2013224354A JP 6148154 B2 JP6148154 B2 JP 6148154B2
Authority
JP
Japan
Prior art keywords
image
depth
arbitrary viewpoint
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013224354A
Other languages
Japanese (ja)
Other versions
JP2015087851A (en
Inventor
広太 竹内
広太 竹内
明 小島
明 小島
豊 國田
豊 國田
信哉 志水
信哉 志水
志織 杉本
志織 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013224354A priority Critical patent/JP6148154B2/en
Publication of JP2015087851A publication Critical patent/JP2015087851A/en
Application granted granted Critical
Publication of JP6148154B2 publication Critical patent/JP6148154B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Description

本発明は、多視点の映像と奥行き情報からシーンの奥行きを推定する画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for estimating the depth of a scene from multi-viewpoint images and depth information.

映像メディアの分野では、近年、高臨場化とパーソナライズ化の流れが急速に進んでいる。映像を立体的に視ることで高臨場な映像体験が可能な3D映像は映画・テレビ・ゲーム機等幅広く普及が進んできている。それに加え、解像度がフルHDの4倍ある4K映像や、現在開発を進めているスーパーハイビジョン映像など、映像の大画面化も高臨場化の流れを加速させる要因のひとつとして挙げられる。また、ネットワークを介したビデオオンデマンドサービスの普及は著しく、テレビやスマートフォンなどユーザが好みのデバイスで好みのコンテンツを視聴する映像のパーソナライズが進んでいることがわかる。   In the field of video media, in recent years, the flow of high reality and personalization has been rapidly progressing. 3D video that enables a highly realistic video experience by viewing the video three-dimensionally has been widely used in movies, televisions, game machines, and the like. In addition, one of the factors that accelerate the trend toward higher realization is the increase in screen size, such as 4K video with 4 times the resolution of full HD and Super Hi-Vision video that is currently being developed. In addition, the spread of video-on-demand services via a network is remarkable, and it can be seen that personalization of video for viewing a favorite content on a favorite device by a user such as a television or a smartphone is progressing.

このような背景の中、高臨場化とパーソナライズ化を更に加速させる新しい映像メディアのひとつに、ユーザが見たい視点を動かしながら映像を楽しむことができる自由視点映像が挙げられる。自由視点映像は、多視点から撮影された映像を用いて、シーンの奥行きを推定することで、ユーザが見たい視点である任意の視点からの映像を合成するものである。多くの手法では、多視点映像の視差を利用したステレオマッチング等の画像処理や、レーザレンジセンサによる三次元形状計測等により、シーンの奥行きを求める。   In such a background, one of the new video media that further accelerates the realization and personalization is a free viewpoint video that allows the user to enjoy the video while moving the viewpoint that the user wants to see. A free viewpoint video is a video that is synthesized from an arbitrary viewpoint, which is the viewpoint that the user wants to see, by estimating the depth of the scene using videos taken from multiple viewpoints. In many methods, the depth of a scene is obtained by image processing such as stereo matching using parallax of a multi-viewpoint video, or three-dimensional shape measurement by a laser range sensor.

しかし、欠損の無い奥行き画像を得ることは困難である。例えば、ステレオマッチングで推定される奥行き画像は高解像ではあるが、推定エラーを完全に防ぐことは難しい。一方で、レーザレンジセンサを用いた計測では、推定エラーは低く高精度な計測が可能ではあるが、低解像度であることが課題となる。高解像度で計測できるものは機器が大変高価である上に、大きな設備が必要となってしまうため、現実的な運用は厳しい。また、奥行き画像を符号化することによる符号化エラーも、奥行き画像の欠損原因の一つとなる。以上に加えて、任意視点から見たときに、どの観測カメラからも撮影されていない遮蔽された領域においても、奥行き画像を復元することは困難であり、奥行き画像の欠損の一つであるといえる。   However, it is difficult to obtain a depth image without a defect. For example, a depth image estimated by stereo matching has a high resolution, but it is difficult to completely prevent an estimation error. On the other hand, in the measurement using the laser range sensor, although the estimation error is low and the measurement can be performed with high accuracy, the problem is that the resolution is low. Equipment that can be measured with high resolution is very expensive and requires large equipment, so realistic operation is difficult. In addition, an encoding error caused by encoding a depth image is one of the causes of loss of the depth image. In addition to the above, when viewed from an arbitrary viewpoint, it is difficult to restore a depth image even in a shielded area that is not captured by any observation camera, and this is one of the missing depth images. I can say that.

奥行き画像の欠損を修繕する方法の一つとして、奥行き画像にフィルタリングを施す手法が挙げられる(例えば、非特許文献1参照)。奥行き画像における本来のエッジは残しつつノイズだけを取り除くためにバイラテラルフィルタ等が用いられるが、現実シーンの形状は複雑であるため、奥行き境界が混ざりあうことも発生し、二次元的なフィルタリングだけでは対処できない欠損が残されてしまう。また、カメラの色情報を用いて奥行き画像を修繕する手法も提案されている(例えば、非特許文献2参照)。   One method for repairing a defect in a depth image is a method of filtering the depth image (see, for example, Non-Patent Document 1). Bilateral filters are used to remove only noise while leaving the original edges in the depth image. However, since the shape of the real scene is complex, depth boundaries may be mixed and only two-dimensional filtering is performed. Then, there is a defect that cannot be dealt with. In addition, a method for repairing a depth image using color information of a camera has been proposed (see, for example, Non-Patent Document 2).

しかし各カメラの奥行き画像ごとに独立して行われるため、任意視点位置には依存しておらず、視点毎に互いに矛盾した奥行き画像を出力する可能性があり、現実シーンにおける自由視点映像への応用は困難である。   However, since it is performed independently for each camera depth image, it does not depend on the arbitrary viewpoint position, and there is a possibility of outputting inconsistent depth images for each viewpoint. Application is difficult.

T. Matsuo, N. Fukushima, Y. Ishibashi, "Weighted Joint Bilateral Filter with Slope Depth Compensation Filter for Depth Map Refinement," Proc. International Conference on Computer Vision Theory and Applications (VISAPP 2013), Feb. 2013T. Matsuo, N. Fukushima, Y. Ishibashi, "Weighted Joint Bilateral Filter with Slope Depth Compensation Filter for Depth Map Refinement," Proc. International Conference on Computer Vision Theory and Applications (VISAPP 2013), Feb. 2013 Color based depth up-sampling for depth compression M.O. Wildeboer, T. Yendo, M.P. Tehrani, T. Fujii, M. Tanimoto Proceeding of Picture Coding Symposium 2010(PCS)Color based depth up-sampling for depth compression M.O.Wildeboeer, T. Yendo, M.P.Tehrani, T. Fujii, M. Tanimoto Proceeding of Picture Coding Symposium 2010 (PCS)

任意視点画像の映像品質は、奥行き画像の映像品質に大きく依存する。しかし実際にはステレオ視による奥行き推定誤り、レーザレンジセンサによる低解像な奥行き画像、奥行き画像符号化による符号化エラーなどにより奥行画像に欠損が生じるため、奥行き画像を正確に取得することは困難であり、奥行き画像の欠損により任意視点映像は劣化してしまうという問題がある。   The video quality of an arbitrary viewpoint image largely depends on the video quality of a depth image. However, it is difficult to obtain the depth image accurately because the depth image is actually lost due to a depth estimation error due to stereo vision, a low resolution depth image due to the laser range sensor, or an encoding error due to the depth image encoding. In addition, there is a problem that the arbitrary viewpoint video deteriorates due to the loss of the depth image.

本発明は、このような事情に鑑みてなされたもので、多視点画像と奥行き画像から任意視点画像を生成する際に、奥行き画像の欠損箇所を検知・修繕しながら、任意視点を中心とする任意視点画像を生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances. When generating an arbitrary viewpoint image from a multi-viewpoint image and a depth image, the present invention focuses on the arbitrary viewpoint while detecting and repairing a missing portion of the depth image. An object is to provide an image processing apparatus, an image processing method, and an image processing program capable of generating an arbitrary viewpoint image.

本発明は、複数の視点における撮像画像それぞれを小領域に分割する領域分割手段と、前記撮像画像の画素を、それぞれの奥行き画像の奥行き値に従い、任意視点画像平面へと投影し、投影画像を生成するとともに、前記奥行き画像の画素を、前記任意視点画像平面へと投影し、奥行投影画像を生成する画素投影手段と、前記任意視点画像上の画素ごとに、前記投影画像または前記奥行投影画像を用いて、前記任意視点画像の画素の輝度値の適合性を算出する信頼性測定手段と、前記信頼性測定手段によって算出した前記適合性を用いて、前記任意視点画像上の画素の信頼性を判定する判定手段と、前記判定手段によって、信頼に足ると判定された画素については、所定の複数の前記投影画像の画素の輝度値から前記任意視点画像の画素の輝度値と、該画素の奥行き値を決定したレイヤ画像を記憶しておくレイヤ画像群記憶手段と、前記判定手段によって、信頼に足らないと判定された画素については、前記任意視点画像上の画素が所属する前記小領域内の他画素の信頼性と奥行き値を用いて、前記奥行き値の修正を行って、前記画素投影手段、前記信頼性測定手段、前記判定手段による処理を前記撮像画像のすべての領域が十分に投影されるまで繰り返す領域修正手段と、複数の前記任意視点画像平面に対し、前記レイヤ画像群を投影した際に発生しうる遮蔽領域による隠れた領域や、信頼性が足らず埋めきれなかった領域に対し、既に合成されているレイヤ画素を用いた穴埋めを行って、前記レイヤ画像上の合成領域を拡張するレイヤ修正手段と、1つの前記任意視点画像平面に対して前記レイヤ画像それぞれを投影した後、奥行きが不連続な箇所にはマッチング処理を行って、画像を合成することにより前記任意視点画像を出力する画像合成手段とを備えたことを特徴とする。   According to the present invention, an area dividing unit that divides each captured image at a plurality of viewpoints into small areas, and the pixels of the captured image are projected onto an arbitrary viewpoint image plane according to the depth value of each depth image, and the projected image is Generating and projecting the pixels of the depth image onto the arbitrary viewpoint image plane to generate a depth projection image; and for each pixel on the arbitrary viewpoint image, the projection image or the depth projection image Using the reliability measurement means for calculating the suitability of the luminance value of the pixel of the arbitrary viewpoint image, and the reliability of the pixel on the arbitrary viewpoint image using the suitability calculated by the reliability measurement means A pixel that is determined to be reliable by the determination unit and the luminance value of the pixel of the arbitrary viewpoint image from the luminance values of the plurality of pixels of the projection image. A layer image group storage unit that stores a value and a layer image in which the depth value of the pixel is determined; and a pixel that is determined to be unreliable by the determination unit is a pixel on the arbitrary viewpoint image The depth value is corrected using the reliability and depth value of other pixels in the small region to which the image belongs, and the processing by the pixel projecting unit, the reliability measuring unit, and the determining unit is all performed on the captured image. Area correction means that repeats until a sufficient area is projected, and a plurality of the arbitrary viewpoint image planes are filled with a hidden area due to a shielding area that may be generated when the layer image group is projected, or insufficiently reliable Layer correction means for expanding a composite region on the layer image by filling a region that has not been completed using already synthesized layer pixels, and one arbitrary viewpoint image plane On the other hand, after projecting each of the layer images, a matching process is performed on a portion where the depth is discontinuous, and an image synthesis means for outputting the arbitrary viewpoint image by synthesizing the images is provided. .

本発明は、前記信頼性測定手段は、前記投影画像どうしの前記任意視点画像上の画素における近傍の画素及び前記任意視点画像上の既知の画素と比べて大きく異なる奥行きでないかを示す奥行き連結性を算出することにより前記適合性を算出することを特徴とする。   According to the present invention, the reliability measurement means indicates depth connectivity indicating whether or not the projected images are not significantly different in depth from the neighboring pixels in the pixels on the arbitrary viewpoint image and the known pixels on the arbitrary viewpoint image. The suitability is calculated by calculating.

本発明は、前記信頼性測定手段は、前記投影画像どうしの前記任意視点画像上の画素における近傍の画素及び前記任意視点画像上の既知の画素と比べて大きく異なる輝度でないかを示す輝度親和性を算出することにより前記適合性を算出することを特徴とする。   In the present invention, the reliability measurement unit may indicate luminance affinity indicating whether the projected images are not significantly different from the neighboring pixels in the pixels on the arbitrary viewpoint image and the known pixels on the arbitrary viewpoint image. The suitability is calculated by calculating.

本発明は、前記信頼性測定手段は、前記撮像画像が時間的に連続した映像である際は、直前フレームに比べ前記任意視点画像上の画素と前記投影画像どうしの前記任意視点画像上の画素における輝度値と、前記任意視点画像上の画素の近傍画素との輝度値が大きく異なっていないかに基づいて前記適合性を算出することを特徴とする。   In the present invention, when the captured image is a temporally continuous image, the reliability measuring unit may compare the pixel on the arbitrary viewpoint image and the pixel on the arbitrary viewpoint image between the projected images as compared to the immediately preceding frame. The suitability is calculated based on whether or not the luminance value of the pixel in the arbitrary viewpoint image is not significantly different from the luminance value of the pixel on the arbitrary viewpoint image.

本発明は、コンピュータを、前記画像処理装置として機能させるための画像処理プログラムである。   The present invention is an image processing program for causing a computer to function as the image processing apparatus.

本発明によれば、多視点画像と奥行き画像から任意視点画像を生成する際に、奥行き画像の欠損箇所を検知・修繕しながら、任意視点を中心とする任意視点画像を生成することができるという効果が得られる。   According to the present invention, when generating an arbitrary viewpoint image from a multi-viewpoint image and a depth image, it is possible to generate an arbitrary viewpoint image centered on an arbitrary viewpoint while detecting and repairing a missing portion of the depth image. An effect is obtained.

本発明の第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment of this invention. 領域分割を行った結果を示す図である。It is a figure which shows the result of having performed area division. 図1に示す画素投影部8が行う処理動作を示す説明図である。It is explanatory drawing which shows the processing operation which the pixel projection part 8 shown in FIG. 1 performs. 図1に示す信頼性測定部11の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the reliability measurement part 11 shown in FIG. 本発明の第2実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of this invention.

<第1実施形態>
以下、図面を参照して、本発明の第1実施形態による画像処理装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、多視点画像を記憶する多視点画像記憶部である。符号2は、多視点奥行き画像を記憶する多視点奥行き画像記憶部である。符号3は、カメラパラメータを記憶するカメラパラメータ記憶部である。符号4は、任意の視点パラメータを記憶する任意視点パラメータ記憶部である。符号5は、レイヤ画像群を記憶するレイヤ画像群記憶部である。符号6は、任意の視点の画像を記憶する任意視点画像記憶部である。符号7は、画像に対して領域分割を行う領域分割部である。符号8は、画素の投影を行う画素投影部である。符号9は、奥行きの連結性を測定する奥行き連結性測定部である。符号10は、輝度の親和性を測定する輝度親和性測定部である。奥行き連結性測定部9と輝度親和性測定部10は、信頼性測定部11を構成する。符号12は、適合性を判定する適合性判定部である。符号13は、領域の修正を行う領域修正部である、符号14は、レイヤの修正を行うレイヤ修正部である。符号15は、画像の合成を行う画像合成部である。
<First Embodiment>
Hereinafter, an image processing apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a multi-viewpoint image storage unit that stores multi-viewpoint images. Reference numeral 2 denotes a multi-view depth image storage unit that stores multi-view depth images. Reference numeral 3 denotes a camera parameter storage unit that stores camera parameters. Reference numeral 4 denotes an arbitrary viewpoint parameter storage unit that stores arbitrary viewpoint parameters. Reference numeral 5 denotes a layer image group storage unit that stores a layer image group. Reference numeral 6 denotes an arbitrary viewpoint image storage unit that stores an image of an arbitrary viewpoint. Reference numeral 7 denotes an area dividing unit that performs area division on an image. Reference numeral 8 denotes a pixel projection unit that projects pixels. Reference numeral 9 denotes a depth connectivity measuring unit that measures depth connectivity. Reference numeral 10 denotes a luminance affinity measuring unit that measures luminance affinity. The depth connectivity measurement unit 9 and the luminance affinity measurement unit 10 constitute a reliability measurement unit 11. Reference numeral 12 denotes a suitability determination unit that determines suitability. Reference numeral 13 denotes an area correction unit that corrects an area, and reference numeral 14 denotes a layer correction part that corrects a layer. Reference numeral 15 denotes an image composition unit that performs image composition.

次に、図1に示す画像処理装置の動作を説明する。まず、入力要素は、それぞれの記憶部に記憶されたN枚の画像(多視点画像)I、多視点画像Iのそれぞれと同じ視点位置における奥行き画像、多視点画像を撮像した各カメラのカメラパラメータ(内部パラメータと外部パラメータ)、任意視点パラメータである。 Next, the operation of the image processing apparatus shown in FIG. 1 will be described. First, the input elements, each memory unit in the stored N images (multi-view image) I n, the depth image at the same viewpoint position and each of the multi-view image I n, each camera capturing the multi-view image These are camera parameters (internal parameters and external parameters) and arbitrary viewpoint parameters.

はじめに、領域分割部7は、入力した各画像Iにおいて領域分割を行う。領域分割の手法は例えばK−meansによる輝度のクラスタリングを用いるが、他の領域分割手法を用いてもよい。領域分割を行った結果を図2に示す。図2は、領域分割を行った結果を示す図である(実際にはカラー画像)。分割時に用いるパラメータとして、輝度(色情報)(R,G,B)のみに依存したパラメータを用いているが、奥行き情報と色情報を合わせた(R,G,B,D)に依存したパラメータによる分割を行ってもよい。ここで、Dは、奥行き情報である。また、領域分割は、図2に示すように分割するのではなく、単なる矩形に分割するのでもよい。 First, the area dividing unit 7 performs area division in each image I n input. For example, luminance clustering by K-means is used as the region division method, but other region division methods may be used. The result of area division is shown in FIG. FIG. 2 is a diagram showing the result of area division (actually a color image). As a parameter used at the time of division, a parameter depending only on luminance (color information) (R, G, B) is used, but a parameter depending on (R, G, B, D) combining depth information and color information. You may divide by. Here, D is depth information. In addition, the area division may not be divided as shown in FIG. 2, but may be divided into simple rectangles.

輝度と奥行きの両方を用いた領域分割を用いた場合、各領域内に含まれる画素はすべて同一のオブジェクトで構成されている可能性が高くなるため、以降の処理動作において、より自然な映像合成を行うことができる。輝度のみを用いた領域分割の場合、似た色で構成される奥行きの異なる物体間の境界を跨ぐように領域が分割されている箇所が増えるため、前者よりも合成映像の精度は低下する。矩形を用いた場合は、領域形状が一切考慮されていないため、隣接領域からの影響を受けにくくなるため、さらに合成映像の精度は悪化する。しかし、領域分割にかかる処理時間が短縮できるため、高速な処理が可能になる。分割領域、矩形のサイズはシーンにより変化するが、できるだけ細かく分割し、1領域内が1種類のオブジェクトにより構成されていることが望ましい。実験による確認では被写体のフルHDサイズの画像に対して、約20×20画素程度の領域に分割した。   When region segmentation using both luminance and depth is used, it is highly possible that all the pixels included in each region are composed of the same object. Therefore, more natural video composition in subsequent processing operations It can be performed. In the case of region division using only luminance, the number of locations where the region is divided so as to straddle the boundary between objects of different depths that are configured with similar colors increases, and the accuracy of the synthesized video is lower than the former. When a rectangle is used, since the area shape is not considered at all, it is difficult to be affected by the adjacent area, and the accuracy of the synthesized video is further deteriorated. However, since the processing time required for area division can be shortened, high-speed processing is possible. The size of the divided area and the rectangle varies depending on the scene, but it is desirable that the divided area is divided as finely as possible and one area is constituted by one type of object. In the confirmation by experiment, the full HD size image of the subject was divided into areas of about 20 × 20 pixels.

次に、画素投影部8は、多視点画像の各画像Iの各画素を、奥行き画像Dの同画素の奥行き値及びカメラn(nはカメラの識別番号)のカメラパラメータに従い三次元点へと変換し、任意視点パラメータにより任意視点画像平面に投影することで、投影画像I’を得る。同時に、画素投影部8は、各奥行き画像Dも任意視点へと投影し、任意視点からの奥行き値へと変換した後、投影後の奥行き画像D’としてを得る。図3に示すように、Dの値(奥行き)に対応するレイヤdに各カメラの画素を投影する。すなわち、任意視点がなすレイヤ空間に対し、各画素を各視点の奥行き値にしたがって投影していく。図3は、図1に示す画素投影部8が行う処理動作を示す説明図である。処理が完了しているか否かを画素毎に示すためのマスク画像に従い、上記の処理を行う。以下に示す処理が既にマスク画像の更新は適合性判定部12の判定結果に基づいて行われる。 Next, pixel projection portion 8, each pixel of each image I n of the multi-view image, the three-dimensional point in accordance with the camera parameters of the depth image D n same pixel depth value and the camera n the (n is the identification number of the camera) And the projected image I ′ n is obtained by projecting onto the arbitrary viewpoint image plane according to the arbitrary viewpoint parameters. At the same time, the pixel projection unit 8 also projects each depth image D n to an arbitrary viewpoint, converts the depth image D n into a depth value from the arbitrary viewpoint, and obtains a depth image D ′ n after projection. As shown in FIG. 3, the pixels of each camera are projected onto the layer d corresponding to the value of D (depth). In other words, each pixel is projected according to the depth value of each viewpoint on the layer space formed by the arbitrary viewpoint. FIG. 3 is an explanatory diagram showing processing operations performed by the pixel projection unit 8 shown in FIG. The above processing is performed according to a mask image for indicating whether or not the processing is completed for each pixel. The update of the mask image is already performed based on the determination result of the suitability determination unit 12 in the following processing.

信頼性測定部11は、任意視点画像平面に投影されたI’どうしの輝度及び奥行き値を比較することで、画素ごとの信頼性を測定する(図4参照)。図4は、図1に示す信頼性測定部11の動作を示す説明図である。図4に示すように、測定に用いるのは、図1に示す奥行き連結性測定部9、輝度親和性測定部10にて測定される2つの指標とする。これらの指標に基づいて、対象範囲Wにおける対象画素pと投影画素に基づいて決定画素を決定する。なお、1つの指標のみを用いて処理することも可能である。1つの指標のみを用いる場合では、欠損のある奥行き画像に対して、どのような欠損が抑制されるかが変わってくることになる。 The reliability measurement unit 11 measures the reliability of each pixel by comparing the luminance and depth values of I ′ n projected on the arbitrary viewpoint image plane (see FIG. 4). FIG. 4 is an explanatory diagram showing the operation of the reliability measuring unit 11 shown in FIG. As shown in FIG. 4, two indices measured by the depth connectivity measuring unit 9 and the luminance affinity measuring unit 10 shown in FIG. 1 are used for the measurement. Based on these indices, the determined pixel is determined based on the target pixel p and the projection pixel in the target range W. It is also possible to perform processing using only one index. In the case where only one index is used, what kind of defect is suppressed with respect to a depth image having a defect changes.

奥行き連結性測定部9は、撮影視点どうしの間に設置され、合成を行おうとする始点である任意視点の中心位置からの奥行きdの位置に設定されたレイヤL上のカメラnから投影されてきた画素pにおける奥行き連結性Edepth(n,d,p)を以下のように定義する。対象画素pの前後δの複数レイヤ内のうち、画像平面上での近傍範囲Wに含まれている複数の画素qの中でも、既にレイヤとして採用されている画素qの奥行き値と、対象画素pの奥行き値を用いる。f(p,q)は、画像上の画素位置を示す2つのベクトルp,q間の距離の逆数に比例する関数であり、pから離れる程、関数gによる影響を受けにくくしている。g(q,d,l)はレイヤLの画素qが既に決定されている場合にのみ、対象画素pの任意視点における奥行きであるdとの奥行き値としての距離の逆数を返す関数である。関数f(p,q),g(q,d,l)共に、ゼロ割を防ぐために、微小値εを導入している。今回はこのような1、2次元ユークリッド距離を用いているが、別次元のユークリッド距離等の指標に置き換えても用いても良い。
Depth connectivity measurement unit 9, shooting viewpoint to each other is installed between, projected from the camera n on the layer L d that is set to the position of the depth d from the center position of the arbitrary viewpoint is the starting point for attempting to synthesize Depth connectivity E depth (n, d, p) at pixel p has been defined as follows. Of the plurality of pixels q included in the neighborhood range W on the image plane among the plurality of layers before and after δ of the target pixel p, the depth value of the pixel q that has already been adopted as the layer, and the target pixel p The depth value of is used. f (p, q) is a function that is proportional to the reciprocal of the distance between two vectors p and q indicating the pixel position on the image, and the further away from p, the less affected by the function g. g (q, d, l) is a function that returns the reciprocal of the distance as a depth value with d, which is the depth at an arbitrary viewpoint of the target pixel p, only when the pixel q of the layer L l has already been determined. . In both functions f (p, q) and g (q, d, l), a minute value ε is introduced to prevent zero division. This time, such a one-dimensional and two-dimensional Euclidean distance is used, but it may be used by replacing it with an index such as another-dimensional Euclidean distance.

輝度親和性測定部10は、任意視点中心からの奥行きdの位置に設定されたレイヤL上のカメラnから投影されてきた画素pにおける輝度親和性Ecolor(n,d,p)を以下のように定義する。対象画素pの前後δの複数レイヤ内のうちの画像平面上での近傍範囲Wに含まれている複数の画素を比較画素qとする。f(p,q)は対象画素pと比較画素qとの間の画像平面上での2次ユークリッド距離の逆数に比例する関数で、pからqが遠い程、他の関数値の影響を受けにくくしている。h(S(p),T(q))は画像Sにおける画素pのRGB輝度値S(p)と、画像Tにおける画素qのRGB輝度値T(q)との輝度値の差分の逆数に比例する値を返す関数である、ゼロ割を防ぐために微小値εを導入している。h(I’(p),L(q))は、投影画像上の画素の輝度値I’(p)と、レイヤ画像中の既に採用されている画素の輝度値L(q)との差分の逆数に比例し、Σmh(I’(p),I’(q))は投影画像上の画素の輝度値I’(p)と、自身以外の投影画像上の画素の輝度値I’(q)との差分の逆数に比例する値をすべてのカメラに対して総和した値であり、重みづけのためにγを導入している。
The luminance affinity measuring unit 10 calculates the luminance affinity Ecolor (n, d, p) at the pixel p projected from the camera n on the layer L d set at the position of the depth d from the center of the arbitrary viewpoint as follows. Define as follows. A plurality of pixels included in the vicinity range W on the image plane in a plurality of layers before and after δ of the target pixel p are set as comparison pixels q. f (p, q) is a function that is proportional to the reciprocal of the secondary Euclidean distance on the image plane between the target pixel p and the comparison pixel q, and is affected by other function values as q is far from p. It is difficult. h (S (p), T (q)) is the reciprocal of the difference in luminance value between the RGB luminance value S (p) of the pixel p in the image S and the RGB luminance value T (q) of the pixel q in the image T. A small value ε is introduced to prevent zero division, which is a function that returns a proportional value. h (I ′ n (p), L l (q)) is the luminance value I n ′ (p) of the pixel on the projection image and the luminance value L l (q of the pixel already employed in the layer image. ) Mh (I ′ n (p), I ′ m (q)) is proportional to the luminance value I ′ n (p) of the pixel on the projection image and on the projection image other than itself. A value that is proportional to the reciprocal of the difference from the luminance value I ′ m (q) of the pixel is summed for all cameras, and γ is introduced for weighting.

適合性判定部12は、各画素において、以下のE(n,d,p)に対して閾値処理を施し、閾値以上であればレイヤ上の画素を決定する、そして、閾値以下の画素は領域修正部13にて処理が行われる。
奥行きdにおけるレイヤL上の画素pにおける輝度値L(p)は以下の式により、輝度値を決定する。ここでδは奥行き画像間のサンプリング間隔が異なることにより生じる誤差を低減するための係数であり、一般的な奥行き画像の階調数として用いられる256階調であれば、δは2程度である。今回は定数を用いているが、関数値を用いてもよい。その際は、レイヤ間隔が等間隔でない場合には、奥行き方向に遠方に行くにしたがってδが小さくなるようにする必要がある。
The suitability determination unit 12 performs threshold processing on the following E (n, d, p) in each pixel, and determines a pixel on the layer if it is equal to or greater than the threshold. Processing is performed by the correction unit 13.
The luminance value L d (p) at the pixel p on the layer L d at the depth d is determined by the following equation. Here, δ is a coefficient for reducing an error caused by a difference in sampling interval between depth images. For 256 gradations used as the number of gradations of a general depth image, δ is about 2. . This time constants are used, but function values may be used. In that case, if the layer interval is not equal, it is necessary to make δ smaller as it goes farther in the depth direction.

領域修正部13は、適合性判定部にて、レイヤ上に採用されなかった画素の奥行きを、画素の所属する領域やその近接領域の自画素以外のメンバ画素の奥行き値を用いて変更する。各領域内のメンバ画素のうち、まだレイヤに採用されていない画素の奥行き値の集合の中間値を算出し、この中間値を新たな奥行き値として、未だレイヤに採用されていない画素に付与する。中間値の他、中間値の近傍奥行き値、平均値を用いてもよい。事前に設定した任意の閾値数以下の画素しか、メンバ画素として残っていない場合には、奥行き値不明の画素としてレイヤ修正部にて奥行き値を決定するため、処理を保留する。   The region correction unit 13 changes the depth of the pixels that have not been adopted on the layer by using the depth values of the member pixels other than the own pixel in the region to which the pixel belongs and in the adjacent region. Among the member pixels in each region, an intermediate value of a set of depth values of pixels not yet adopted in the layer is calculated, and this intermediate value is assigned as a new depth value to the pixels that are not yet adopted in the layer. . In addition to the intermediate value, a neighborhood depth value and an average value of the intermediate value may be used. If only pixels equal to or less than the preset threshold number remain as member pixels, the layer correction unit determines the depth value as a pixel whose depth value is unknown, and the process is suspended.

レイヤ修正部14は、遮蔽や奥行き画像の欠損により、任意視点画像上に欠損が生じることがある為、レイヤ画像上での補間を行うことで、三次元的に整合性のとれた任意視点画像を合成する。物体どうしの遮蔽により、各画像I’のいずれからも投影されて来ていない画素、及び、奥行き値不明のまま処理が保留されている画素のうち、レイヤを任意視点に投影した際になにも投影されないままの画素となってしまう画素に対して、輝度値の補間を行うため、レイヤの修正を行う。任意視点画像上で輝度値不明となっている画素pの近傍画素のうちで、既に輝度が決定している画素の中から、投影前の領域分割画像において境界領域に接していない画素であり、かつ、最も遠方の奥行き値を持つ画素qを選択し、画素qと同じ奥行きを画素pに与える。近傍画素のうち、すべての画素が投影前の領域分割画像において境界領域に接していた場合は、任意視点画像中で最も遠方にある画素の奥行き値を画素pの奥行きとして与える。画素pの輝度値は、画素qと同じ輝度を与える。今回は同じ輝度を与えているが、画素qが含まれる分割領域を用いたテクスチャ合成を行っても良い。また、Joint Birateral Upsampling等補間処理を用いてもよい。 Since the layer correction unit 14 may cause a defect on the arbitrary viewpoint image due to occlusion or a defect in the depth image, the layer correction unit 14 performs an interpolation on the layer image, so that the arbitrary viewpoint image that is three-dimensionally consistent can be obtained. Is synthesized. Among the pixels that have not been projected from any of the images I ′ n due to occlusion of the objects and the pixels whose processing is suspended while the depth value is unknown, when the layer is projected to an arbitrary viewpoint In order to interpolate the luminance value for the pixels that remain unprojected, the layer is corrected. Among the neighboring pixels of the pixel p whose luminance value is unknown on the arbitrary viewpoint image, among the pixels whose luminance has already been determined, the pixels that are not in contact with the boundary region in the region divided image before projection, In addition, the pixel q having the farthest depth value is selected, and the same depth as the pixel q is given to the pixel p. If all of the neighboring pixels are in contact with the boundary region in the region-divided image before projection, the depth value of the farthest pixel in the arbitrary viewpoint image is given as the depth of the pixel p. The luminance value of the pixel p gives the same luminance as the pixel q. Although the same brightness is given this time, texture synthesis using a divided region including the pixel q may be performed. Further, interpolation processing such as Joint Bilateral Upsampling may be used.

画像合成部15は、レイヤ画像群を遠方のレイヤから順に、任意視点画像平面へと投影していく。同じ画素に投影されてしまう複数の画素については、それぞれの奥行き値が事前に定めた範囲内であれば輝度の混合を行い、範囲外であれば、最も手前の奥行き値における画素の輝度値のみを採用する。任意視点画像の輝度値を決定していくと同時に、採用された画素の奥行き値を記録することで、任意視点における奥行き画像を生成していく。 最後に、物体間の奥行き不連続に基づく境界線上の不自然さをおさえるため、以下のマッチング処理を行う。まず、任意視点画像の奥行き画像に対して、Sobelフィルタをかけた画像をエッジ画像として保存する。エッジ検出は他の手法を用いても良い。エッジ画像のエッジの強度が強い所程、ぼかし具合が大きくなるようにローパスフィルタを任意視点画像に施すことで、被写体間の奥行き値が異なる箇所における、不自然な境界線を抑制する事が出来る。今回はこのようなマッチング手法を用いたが、これに類する別のマッチング手法を用いてもよい。   The image composition unit 15 projects the layer image group sequentially from the distant layer onto the arbitrary viewpoint image plane. For multiple pixels that are projected onto the same pixel, the brightness is mixed if the depth value is within a predetermined range, and if it is outside the range, only the brightness value of the pixel at the foremost depth value is used. Is adopted. The luminance value of the arbitrary viewpoint image is determined, and at the same time, the depth value of the adopted pixel is recorded to generate the depth image at the arbitrary viewpoint. Finally, the following matching process is performed to suppress unnaturalness on the boundary line based on the depth discontinuity between objects. First, an image obtained by applying a Sobel filter to a depth image of an arbitrary viewpoint image is stored as an edge image. Other methods may be used for edge detection. By applying a low-pass filter to an arbitrary viewpoint image so that the degree of blurring increases as the edge strength of the edge image increases, unnatural boundary lines at locations where the depth values between subjects are different can be suppressed. . Although such a matching method is used this time, another similar matching method may be used.

<第2実施形態>
次に、本発明の第2実施形態による画像処理装置を説明する。図5は、同実施形態の構成を示すブロック図である。図5において、図1に示す装置と同一の部分には同一の符号を付し、その説明を省略する。図5に示す装置が図1装置と異なる点は、輝度連続性測定部16が設けられている点である。入力が多視点画像ではなく、多視点映像(多視点画像の時間的に連続した一連の集合)である場合は、フレーム間の連続性を利用することで、任意視点映像の不連続な合成を避けるために、以下の処理を施すことが可能である。
Second Embodiment
Next, an image processing apparatus according to a second embodiment of the present invention will be described. FIG. 5 is a block diagram showing the configuration of the embodiment. In FIG. 5, the same parts as those in the apparatus shown in FIG. The apparatus shown in FIG. 5 is different from the apparatus shown in FIG. 1 in that a luminance continuity measuring unit 16 is provided. If the input is not a multi-viewpoint image but a multi-viewpoint video (a series of temporally continuous sets of multi-viewpoint images), discontinuous composition of arbitrary viewpoint video can be performed by using continuity between frames. To avoid this, the following processing can be performed.

信頼性測定部11は、任意視点画像平面に投影されたI’どうしの輝度及び奥行き値を比較する事で、画素ごとの信頼性を測定する。測定に用いるのは、奥行き連結性測定部9、輝度親和性測定部10、輝度連続性測定部16にて測定される3つの指標とする。 The reliability measuring unit 11 measures the reliability of each pixel by comparing the luminance and depth values of I ′ n projected on the arbitrary viewpoint image plane. The measurement uses three indices measured by the depth connectivity measuring unit 9, the luminance affinity measuring unit 10, and the luminance continuity measuring unit 16.

輝度連続性測定部16は、任意視点中心からの奥行きdの位置に設定されたレイヤL上のカメラnから投影されてきた画素pにおける輝度連続性Econnection(n,d,p)を以下のように定義する。処理フレームの1フレーム前に合成された奥行きlにおけるレイヤ画像の画素qにおける輝度L”(q)を用いる。対象画素pの近傍画素であるqを前後フレームで比較することにより、できるだけ前フレームと輝度が近いほど、高い評価値を返す事とする。今回はシンプルな輝度変化値のみを用いているが、これに類するような時間方向の輝度値変化指標を用いてもよい。
The luminance continuity measuring unit 16 calculates the luminance continuity E connection (n, d, p) at the pixel p projected from the camera n on the layer L d set at the position of the depth d from the arbitrary viewpoint center as follows. Define as follows. The luminance L ″ l (q) at the pixel q of the layer image at the depth l synthesized one frame before the processing frame is used. By comparing q, which is a neighboring pixel of the target pixel p, with the preceding and following frames, the previous frame as much as possible In this case, only a simple luminance change value is used, but a luminance value change index in the time direction similar to this may be used.

適合性判定部12は、各画素において、以下のE(n,d,p)に対して閾値処理を施し、閾値以上であればレイヤ上の画素は決定され、閾値以下の画素は領域修正部にて処理が行われる。
The suitability determination unit 12 performs threshold processing on the following E (n, d, p) in each pixel, and if it is equal to or greater than the threshold, a pixel on the layer is determined. The process is performed.

以上説明したように、静止画のような1フレームのみを対象とした状況では、奥行き画像の欠損による劣化に対し、人が気づきにくい形で修繕することは可能であるが、映像の場合ではフレームごとに欠損と修繕結果が異なるため時間的な不連続さが目立ち、不自然な任意視点映像となってしまう。前述した構成によれば、時間的連続性を考慮した修繕により任意視点映像を連続的に合成することができる。また、遮蔽や奥行き値の欠損により、観測視点全てから映されていない領域が発生することで、任意視点画像上に輝度値不明の画素が発生する。近傍画素の輝度情報を用いて、任意視点画像の欠損を埋める手法は提案されているが、輝度情報のみに依存するため、視点変更時に不自然な三次元形状となり、任意視点画像の品質劣化につながるが、前述した構成によれば、このような問題も解決することができる。   As described above, in the situation where only one frame such as a still image is targeted, it is possible to repair the deterioration due to the loss of the depth image in a form that is difficult for humans to notice, but in the case of video, the frame Each time the defect and the repair result are different, the time discontinuity is conspicuous, resulting in an unnatural arbitrary viewpoint video. According to the configuration described above, it is possible to continuously synthesize an arbitrary viewpoint video by repair in consideration of temporal continuity. In addition, due to occlusion and lack of depth values, a region that is not projected from all observation viewpoints is generated, and pixels with unknown luminance values are generated on an arbitrary viewpoint image. A method for filling in the loss of an arbitrary viewpoint image using luminance information of neighboring pixels has been proposed, but because it depends only on the luminance information, it becomes an unnatural three-dimensional shape when changing the viewpoint, resulting in deterioration of the quality of the arbitrary viewpoint image. However, according to the configuration described above, such a problem can also be solved.

前述した画像処理装置によれば、複数視点の欠損した奥行き画像に従った通常のレンダリングよりも、劣化の少ない自然な任意視点画像を合成することが可能となる。特に、奥行き境界に発生しやすい符号化エラーが原因で生じる任意視点画像上のノイズの低減や、各視点間の奥行きの矛盾によって生じる多重像の抑制が可能となる。また、任意視点映像上における修繕結果のばらつきによる時間方向のちらつき低減も可能となる。レイヤ構造での輝度と奥行きの補完を行うことにより、遮蔽や奥行き欠損のためがあっても、三次元的に整合のとれた自然な任意視点画像を合成することが可能となる。   According to the above-described image processing apparatus, it is possible to synthesize a natural arbitrary viewpoint image with less deterioration than normal rendering according to a depth image having a plurality of viewpoints missing. In particular, it is possible to reduce noise on an arbitrary viewpoint image caused by an encoding error that is likely to occur at a depth boundary, and to suppress multiple images caused by depth inconsistencies between viewpoints. In addition, it is possible to reduce flicker in the time direction due to variations in repair results on an arbitrary viewpoint video. By complementing the luminance and depth in the layer structure, it is possible to synthesize a natural arbitrary viewpoint image that is three-dimensionally matched even if there is a blockage or depth defect.

前述した実施形態における画像処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the image processing apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

多視点の映像と奥行き情報からシーンの奥行きを推定することが不可欠な用途に適用できる。   It can be applied to applications where it is essential to estimate the depth of a scene from multi-viewpoint images and depth information.

1・・・多視点画像記憶部、2・・・多視点奥行き画像記憶部、3・・・カメラパラメータ記憶部、4・・・任意視点パラメータ記憶部、5・・・レイヤ画像群記憶部、6・・・任意視点画像記憶部、7・・・領域分割部、8・・・画素投影部、9・・・奥行き連結性測定部、10・・・輝度親和性測定部、11・・・信頼性測定部、12・・・適合性判定部、13・・・領域修正部、14・・・レイヤ修正部、15・・・画像合成部、16・・・輝度連続性測定部   DESCRIPTION OF SYMBOLS 1 ... Multi viewpoint image storage part, 2 ... Multi viewpoint depth image storage part, 3 ... Camera parameter storage part, 4 ... Arbitrary viewpoint parameter storage part, 5 ... Layer image group storage part, 6 ... Arbitrary viewpoint image storage unit, 7 ... Region division unit, 8 ... Pixel projection unit, 9 ... Depth connectivity measurement unit, 10 ... Luminance affinity measurement unit, 11 ... Reliability measurement unit, 12 ... suitability determination unit, 13 ... area correction unit, 14 ... layer correction unit, 15 ... image composition unit, 16 ... luminance continuity measurement unit

Claims (4)

複数の視点における撮像画像それぞれを小領域に分割する領域分割手段と、
前記撮像画像の画素を、それぞれの奥行き画像の奥行き値に従い、任意視点画像平面へと投影し、投影画像を生成するとともに、前記奥行き画像の画素を、前記任意視点画像平面へと投影し、奥行投影画像を生成する画素投影手段と、
前記任意視点画像上の画素ごとに、前記投影画像または前記奥行投影画像を用いて、前記任意視点画像の画素の輝度値の適合性を算出する信頼性測定手段と、
前記信頼性測定手段によって算出した前記適合性を用いて、前記任意視点画像上の画素の信頼性を判定する判定手段と、
前記判定手段によって、信頼に足ると判定された画素については、所定の複数の前記投影画像の画素の輝度値から前記任意視点画像の画素の輝度値と、該画素の奥行き値を決定したレイヤ画像を記憶しておくレイヤ画像群記憶手段と、
前記判定手段によって、信頼に足らないと判定された画素については、前記任意視点画像上の画素が所属する前記小領域内の他画素の信頼性と奥行き値を用いて、前記奥行き値の修正を行って、前記画素投影手段、前記信頼性測定手段、前記判定手段による処理を前記撮像画像のすべての領域が十分に投影されるまで繰り返す領域修正手段と、
複数の前記任意視点画像平面に対し、前記レイヤ画像群を投影した際に発生しうる遮蔽領域による隠れた領域や、信頼性が足らず埋めきれなかった領域に対し、既に合成されているレイヤ画素を用いた穴埋めを行って、前記レイヤ画像上の合成領域を拡張するレイヤ修正手段と、
1つの前記任意視点画像平面に対して前記レイヤ画像それぞれを投影した後、奥行きが不連続な箇所にはマッチング処理を行って、画像を合成することにより前記任意視点画像を出力する画像合成手段と
を備え
前記信頼性測定手段は、前記撮像画像が時間的に連続した映像である際は、直前フレームに比べ前記任意視点画像上の画素と前記投影画像どうしの前記任意視点画像上の画素における輝度値と、前記任意視点画像上の画素の近傍画素との輝度値が大きく異なっていないかに基づいて前記適合性を算出する、画像処理装置。
Area dividing means for dividing each captured image at a plurality of viewpoints into small areas;
Projecting the pixels of the captured image onto an arbitrary viewpoint image plane according to the depth value of each depth image to generate a projection image, projecting the pixels of the depth image onto the arbitrary viewpoint image plane, and depth Pixel projection means for generating a projection image;
Reliability measurement means for calculating the suitability of luminance values of pixels of the arbitrary viewpoint image using the projection image or the depth projection image for each pixel on the arbitrary viewpoint image;
Determination means for determining the reliability of the pixel on the arbitrary viewpoint image using the compatibility calculated by the reliability measurement means;
For the pixels determined to be reliable by the determination means, the layer image in which the luminance value of the pixel of the arbitrary viewpoint image and the depth value of the pixel are determined from the luminance values of the pixels of the predetermined plurality of projection images Layer image group storage means for storing
For the pixels determined to be unreliable by the determination means, the depth value is corrected using the reliability and depth values of other pixels in the small area to which the pixel on the arbitrary viewpoint image belongs. And an area correcting unit that repeats the process by the pixel projecting unit, the reliability measuring unit, and the determining unit until all the regions of the captured image are sufficiently projected;
Layer pixels that have already been combined with respect to a hidden area due to a shielding area that may occur when the layer image group is projected on a plurality of arbitrary viewpoint image planes, or an area that has not been fully filled with reliability. Layer correction means for expanding the composite area on the layer image by performing the hole filling used;
Image synthesizing means for outputting the arbitrary viewpoint image by projecting each layer image onto one arbitrary viewpoint image plane, performing a matching process on a portion where the depth is discontinuous, and synthesizing the images; equipped with a,
When the captured image is a temporally continuous image, the reliability measuring unit includes a luminance value of a pixel on the arbitrary viewpoint image and a pixel on the arbitrary viewpoint image between the projected images compared to the immediately preceding frame. An image processing apparatus that calculates the suitability based on whether a luminance value of a pixel on the arbitrary viewpoint image is not significantly different from a neighboring pixel .
前記信頼性測定手段は、前記投影画像どうしの前記任意視点画像上の画素における近傍の画素及び前記任意視点画像上の既知の画素と比べて大きく異なる奥行きでないかを示す奥行き連結性を算出することにより前記適合性を算出することを特徴とする請求項1に記載の画像処理装置。   The reliability measuring unit calculates depth connectivity indicating whether the projected images are not significantly different in depth from the neighboring pixels in the pixels on the arbitrary viewpoint image and the known pixels on the arbitrary viewpoint image. The image processing apparatus according to claim 1, wherein the suitability is calculated by: 前記信頼性測定手段は、前記投影画像どうしの前記任意視点画像上の画素における近傍の画素及び前記任意視点画像上の既知の画素と比べて大きく異なる輝度でないかを示す輝度親和性を算出することにより前記適合性を算出することを特徴とする請求項1または2に記載の画像処理装置。   The reliability measurement means calculates a luminance affinity indicating whether the projected images are not significantly different from the neighboring pixels in the pixels on the arbitrary viewpoint image and the known pixels on the arbitrary viewpoint image. The image processing apparatus according to claim 1, wherein the compatibility is calculated by: コンピュータを、請求項1からのいずれか1項に記載の画像処理装置として機能させるための画像処理プログラム。 The image processing program for a computer to function as an image processing apparatus according to any one of claims 1 to 3.
JP2013224354A 2013-10-29 2013-10-29 Image processing apparatus and image processing program Expired - Fee Related JP6148154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013224354A JP6148154B2 (en) 2013-10-29 2013-10-29 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013224354A JP6148154B2 (en) 2013-10-29 2013-10-29 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2015087851A JP2015087851A (en) 2015-05-07
JP6148154B2 true JP6148154B2 (en) 2017-06-14

Family

ID=53050605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013224354A Expired - Fee Related JP6148154B2 (en) 2013-10-29 2013-10-29 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP6148154B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6450305B2 (en) * 2015-12-01 2019-01-09 日本電信電話株式会社 Information acquisition apparatus, information acquisition method, and information acquisition program
JP6604934B2 (en) * 2016-12-13 2019-11-13 日本電信電話株式会社 Point cloud pixel position determination device, method, and program
EP3794555B1 (en) * 2018-05-17 2024-03-13 Niantic, Inc. Self-supervised training of a depth estimation system
CN109068129A (en) * 2018-08-27 2018-12-21 深圳艺达文化传媒有限公司 The film source of promotion video determines method and Related product
US11044462B2 (en) * 2019-05-02 2021-06-22 Niantic, Inc. Self-supervised training of a depth estimation model using depth hints

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP4052331B2 (en) * 2003-06-20 2008-02-27 日本電信電話株式会社 Virtual viewpoint image generation method, three-dimensional image display method and apparatus
JP2013150071A (en) * 2012-01-17 2013-08-01 Canon Inc Encoder, encoding method, program and storage medium

Also Published As

Publication number Publication date
JP2015087851A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
Battisti et al. Objective image quality assessment of 3D synthesized views
Zinger et al. Free-viewpoint depth image based rendering
Azevedo et al. Visual distortions in 360° videos
JP7036599B2 (en) A method of synthesizing a light field with compressed omnidirectional parallax using depth information
US9986258B2 (en) Efficient encoding of multiple views
US9451232B2 (en) Representation and coding of multi-view images using tapestry encoding
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
US20140146139A1 (en) Depth or disparity map upscaling
US9973694B1 (en) Image stitching to form a three dimensional panoramic image
JP2014502818A (en) Primary image and secondary image image capturing apparatus and method for image processing
JP2013545200A (en) Depth estimation based on global motion
JP6148154B2 (en) Image processing apparatus and image processing program
Voronov et al. Methodology for stereoscopic motion-picture quality assessment
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
TW201841139A (en) Method and apparatus for processing an image property map
Song et al. High-resolution depth map generator for 3D video applications using time-of-flight cameras
JP2014042238A (en) Apparatus and method for depth-based image scaling of 3d visual content
JP5627498B2 (en) Stereo image generating apparatus and method
WO2012176526A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and program
US9787980B2 (en) Auxiliary information map upsampling
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
KR101619327B1 (en) Joint-adaptive bilateral depth map upsampling
Zarb et al. Depth-based image processing for 3d video rendering applications
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos
JP5431393B2 (en) Stereo image generating apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170518

R150 Certificate of patent or registration of utility model

Ref document number: 6148154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees