JP4617965B2 - Image processing method, apparatus and program - Google Patents

Image processing method, apparatus and program Download PDF

Info

Publication number
JP4617965B2
JP4617965B2 JP2005101924A JP2005101924A JP4617965B2 JP 4617965 B2 JP4617965 B2 JP 4617965B2 JP 2005101924 A JP2005101924 A JP 2005101924A JP 2005101924 A JP2005101924 A JP 2005101924A JP 4617965 B2 JP4617965 B2 JP 4617965B2
Authority
JP
Japan
Prior art keywords
image
order
pixels
images
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005101924A
Other languages
Japanese (ja)
Other versions
JP2006285415A (en
Inventor
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005101924A priority Critical patent/JP4617965B2/en
Publication of JP2006285415A publication Critical patent/JP2006285415A/en
Application granted granted Critical
Publication of JP4617965B2 publication Critical patent/JP4617965B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ステレオ画像のマッチング処理を行う画像処理方法、その装置およびプログラムに関する。   The present invention relates to an image processing method, apparatus and program for performing stereo image matching processing.

複数の撮像画像から実際に存在しない視点位置(仮想視点)での仮想カメラ視点映像を生成するために、画像間マッチング技術が不可欠である。このような画像間の対応付け技術は、「ステレオ視」における最も重要でかつ難しい問題の一つである。
例えば、その最も基本的な構成である2台のカメラによるステレオ視の対応付けを考える。一方の画像上にある点に対して、その対応点は、別の視点で観測された他方の画像内のある直線上に存在する。一般に、この直線L 1’をエピポーラライン(Epipolar Line)と呼ぶ。従来、よく使われている「対応点付け」の手法としては、Pixel-based マッチング、Area-based マッチング、Feature-based マッチングがある。
Pixel-based マッチングでは一方の画像における点の対応を、他方の画像でそのまま探索する(非特許文献1)。Area-based マッチングでは、一方の画像における点の対応を、他方の画像で探す時、その点の周りの局所的な画像パターンを用いて探索する(非特許文献2、3)。Feature-based マッチングでは、画像から濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用いて対応付けを行う(非特許文献4、5)。これらの手法は、基本的に基準カメラ画像上のある画素Pa(x,y)に対して、他方のカメラ画像に対応するエピポーラ線上を探索し、最も相似性の高い画素を対応点とする。
そして、仮想視点の位置に応じた割合で2つの対応点の画素の画素値を混合して仮想視点画像を生成する。
C.Lawrence Zitnick and Jon A. Webb: Multi-baseline Stereo Using Surface Extraction, Technical Report,CMU-CS-96-196, (1996) Okutomi.M and Kanade.T: A locally adaptive window for signal matching, Int. Journal of Computer Vision,7(2), pp.143-162, (1992) 奥富、金出: 複数の基線長を利用したステレオマッチング、電子情報通信学会論文誌D-II,Vol.J75-D-II,No.8, pp.1317-1327, (1992) H.Baker and T.Binford: Depth from edge and intensity based stereo, In Proc. IJCAI'81, (1981) W.E.L.Grimson: Computational experiments with a feature based stereo algorithm, IEEE Trans. PAMI, Vol.7,No.1, pp.17〜34, (1985) Ohta.Y and Kanade.T.: Stereo by intra- and inter-scanline search using dynamic programming, IEEE PAMI-7(2), 139-154, (1985) Cox I.J. et al.:A Maximum likelihood stereo algorithm, Computer Vision and Image Understanding, 63(3),542-567,(1996) Y.Liu et al.: Eye-Contact Visual Communication with Virtual View Synthesis, Proc. CCNC2005, (2005)
In order to generate a virtual camera viewpoint image at a viewpoint position (virtual viewpoint) that does not actually exist from a plurality of captured images, an inter-image matching technique is indispensable. Such a correlation technique between images is one of the most important and difficult problems in “stereo vision”.
For example, let us consider the correspondence of stereo vision by two cameras, which is the most basic configuration. For a point on one image, the corresponding point is on a straight line in the other image observed from another viewpoint. In general, this straight line L1 ′ is referred to as an epipolar line. Conventionally, “corresponding point matching” methods that are often used include pixel-based matching, area-based matching, and feature-based matching.
In pixel-based matching, the correspondence between points in one image is searched for in the other image as it is (Non-patent Document 1). In area-based matching, when searching for the correspondence of a point in one image in the other image, a search is performed using a local image pattern around the point (Non-Patent Documents 2 and 3). In feature-based matching, features such as shading edges are extracted from images, and association is performed using only features between images (Non-Patent Documents 4 and 5). In these methods, a certain pixel Pa (x, y) on the reference camera image is basically searched on the epipolar line corresponding to the other camera image, and the pixel having the highest similarity is used as the corresponding point.
Then, the virtual viewpoint image is generated by mixing the pixel values of the pixels of the two corresponding points at a ratio according to the position of the virtual viewpoint.
C. Lawrence Zitnick and Jon A. Webb: Multi-baseline Stereo Using Surface Extraction, Technical Report, CMU-CS-96-196, (1996) Okutomi.M and Kanade.T: A locally adaptive window for signal matching, Int. Journal of Computer Vision, 7 (2), pp.143-162, (1992) Okutomi, Kinde: Stereo matching using multiple baseline lengths, IEICE Transactions D-II, Vol. J75-D-II, No. 8, pp. 1317-1327, (1992) H. Baker and T. Binford: Depth from edge and intensity based stereo, In Proc.IJCAI'81, (1981) WELGrimson: Computational experiments with a feature based stereo algorithm, IEEE Trans.PAMI, Vol.7, No.1, pp.17-34, (1985) Ohta.Y and Kanade.T .: Stereo by intra- and inter-scanline search using dynamic programming, IEEE PAMI-7 (2), 139-154, (1985) Cox IJ et al .: A Maximum likelihood stereo algorithm, Computer Vision and Image Understanding, 63 (3), 542-567, (1996) Y.Liu et al .: Eye-Contact Visual Communication with Virtual View Synthesis, Proc.CCNC2005, (2005)

ところで、従来では、図20に示すように、マッチング処理により対応付けられた対応点がオクリュージョン領域にある場合に、仮想視点画像が劣化してしまうという問題がある。   Conventionally, as shown in FIG. 20, there is a problem that the virtual viewpoint image is deteriorated when the corresponding point associated by the matching process is in the occlusion area.

本発明は上述した従来技術の問題点に鑑みてなされ、オクリュージョン領域がある場合でも、高品質な仮想視点画像を生成できる画像処理方法、その装置およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an image processing method, an apparatus, and a program for generating a high-quality virtual viewpoint image even when there is an occlusion area.

の発明の画像処理方法は、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の工程と、前記第1の工程で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の工程と、前記複数の画像の前記第2の工程で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うの工程と、前記第の工程のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第の工程と、前記第の工程の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第の工程と、を有し、前記第5の工程は、前記第4の工程の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記第4の工程の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の工程で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する。 The image processing method of the light first emitting, for each of the plurality of images, based on a first step of generating the parallax data without matching method of sequentially corresponding constraint, the parallax data generated in the first step In addition, for each of the plurality of images, a second step of separating the image into a non-order-corresponding image whose parallax is greater than or equal to a reference and other order-corresponding images, and the second step of the plurality of images more in a separate said order corresponding images and non-sequentially corresponding image, a third step of performing individual matching process by the matching technique has the sequence corresponding restraint, associated with the matching processing of the third step A fourth step of determining whether or not a pixel of the pixel exists in the occlusion region, and based on the determination result of the fourth step, the pixel is present in the occlusion region of the plurality of associated pixels Do not pixel Using pixel values, possess a fifth step of generating a virtual pixel values corresponding to the plurality of pixels in the virtual viewpoint image, the said fifth step, the determination result of the fourth step Based on the determination result of the fourth step, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. The order-corresponding image and the non-order-corresponding image separated in the second step when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region. For at least one of the two, the virtual pixel value corresponding to the two pixels in the virtual viewpoint image is generated using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels.

第2の発明の画像処理装置は、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成し、当該視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する分離手段と、前記複数の画像の前記分離手段が分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うマッチング手段と、前記マッチング手段のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する判断手段と、前記判断手段の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する生成手段と、を有し、前記生成手段は、前記判断手段の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記判断手段の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記分離手段が分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する。 Second inventions of the image processing apparatus, for each of the plurality of images to generate parallax data without matching method of sequentially corresponding constraint, based on the parallax data, for each of the plurality of images, the image Separating means for separating the non-order-corresponding image whose parallax is equal to or higher than the reference and other order-corresponding images, and the order-corresponding image and the non-order-corresponding image separated by the separating means of the plurality of images. A matching means for performing matching processing individually by a matching method having a correspondence constraint; a determination means for determining whether or not a plurality of pixels associated by the matching processing of the matching means are present in an occlusion region; and Based on the determination result of the determination means, the pixel value of the pixel that does not exist in the occlusion area among the plurality of associated pixels is used to Possess a generating means for generating a virtual pixel value corresponding to the number of pixels, wherein the generating means, based on the determination result of said determining means, both occlusion regions of the two pixels the associated The virtual pixel value is generated using the pixel values of the two pixels, and one of the two pixels is present in the occlusion region based on the determination result of the determination unit, When the other does not exist in the occlusion area, at least one of the order-corresponding image and the non-order-corresponding image separated by the separating unit exists in the occlusion area among the two associated pixels. A virtual pixel value corresponding to the two pixels in the virtual viewpoint image is generated using the pixel value of the non-performed pixel.

第3の発明のプログラムは、画像処理装置が有するコンピュータの実行するプログラムであって、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の手順と、前記第1の手順で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の手順と、前記複数の画像の前記第2の手順で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うの手順と、前記第の手順のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第の手順と、前記第の手順の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第の手順と、を前記コンピュータに実行させ、前記第5の手順において前記第4の手順の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記第4の手順の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の手順で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する Third inventions of the program is a program executed by the computer image processing apparatus has, for each of the plurality of images, a first procedure for generating the parallax data without matching method of sequentially corresponding constraint, the A second procedure for separating each of the plurality of images into an unordered image having a parallax of a reference or higher and an other image corresponding to the order based on the parallax data generated in the first procedure. A third procedure for individually matching the order-corresponding image and the non-order-corresponding image separated in the second procedure of the plurality of images by a matching method having the order correspondence constraint , a fourth step in which a plurality of pixels associated with the matching process of step 3 it is determined whether or not present in the occlusion region, based on the determination result of the fourth step, the urging corresponding It was using the pixel values of the pixels that do not exist in the occlusion region of the plurality of pixels, and a fifth step of generating a virtual pixel values corresponding to the plurality of pixels in the virtual viewpoint image, the said computer In the fifth procedure, based on the determination result of the fourth procedure, when both of the two associated pixels do not exist in the occlusion area, the pixel values of the two pixels are calculated. The virtual pixel value is used to generate one of the two pixels in the occlusion area and the other is not in the occlusion area based on the determination result of the fourth procedure. The pixel value of a pixel that does not exist in the occlusion area among the two associated pixels with respect to at least one of the order-corresponding image and the non-order-corresponding image separated in the second procedure. Used to generate a virtual pixel values corresponding to the two pixels in the virtual viewpoint image.

本発明によれば、オクリュージョン領域がある場合でも、高品質な仮想視点画像を生成できる画像処理方法、その装置およびプログラムを提供することができる。   According to the present invention, it is possible to provide an image processing method, apparatus and program for generating a high-quality virtual viewpoint image even when there is an occlusion area.

以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
先ず、本実施形態の構成と、本発明の構成との対応関係の例を説明する。
視差マップデータDm1,Dm2が本発明の視差データの一例である。
非順番対応画像データPe1b,Pe2bが本発明の非順番対応画像データの一例である。
順番対応画像データPe1a,Pe2a,Pe1c,Pe2cが本発明の順番対応画像データの一例である。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
First, an example of the correspondence relationship between the configuration of the present embodiment and the configuration of the present invention will be described.
The parallax map data Dm1 and Dm2 are an example of the parallax data of the present invention.
The unordered image data Pe1b and Pe2b are an example of the unordered image data of the present invention.
Order-corresponding image data Pe1a, Pe2a, Pe1c, and Pe2c are examples of the order-corresponding image data of the present invention.

図18に示すステップST6,8が本発明の第1の工程の一例である。
図18に示すステップST7,ST9が、本発明の第2および第3の工程に対応している。
ここで、図15に示すステップST21,ST23が本発明の第2の工程の一例であり、ステップST22,ST24,ST25が本発明の第3の工程の一例である。
図18に示すステップST3が本発明の第4の工程の一例であり、ステップST4が第5の工程の一例である。
図18に示すステップST10が本発明のステップST6の一例である。
Steps ST6 and ST8 shown in FIG. 18 are an example of the first step of the present invention.
Steps ST7 and ST9 shown in FIG. 18 correspond to the second and third steps of the present invention.
Here, steps ST21 and ST23 shown in FIG. 15 are examples of the second step of the present invention, and steps ST22, ST24 and ST25 are examples of the third step of the present invention.
Step ST3 shown in FIG. 18 is an example of the fourth process of the present invention, and step ST4 is an example of the fifth process.
Step ST10 shown in FIG. 18 is an example of step ST6 of the present invention.

図2に示す画像並行化処理部20が本発明の視差生成手段の一例であり、非順番対応領域分離部28が本発明の分離手段の一例であり、DPマッチング処理部29が本発明のマッチング処理手段の一例である。
また、図18に示すプログラムPRGが本発明のプログラムの一例である。
The image parallelization processing unit 20 shown in FIG. 2 is an example of the disparity generation unit of the present invention, the non-order corresponding region separation unit 28 is an example of the separation unit of the present invention, and the DP matching processing unit 29 is the matching of the present invention. It is an example of a processing means.
A program PRG shown in FIG. 18 is an example of the program of the present invention.

本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
A地点には、撮影対象としてのユーザaを互いに異なる視点から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する画像処理装置2aが配設されている。
B地点には、撮影対象としてのユーザbを互いに異なる視点から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する画像処理装置2bが配設されている。
なお、この画像処理装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。
In the communication system 1 to which the present invention is applied, for example, as shown in FIG. 1, a user a at a point A and a user b at a point B are remotely interacting with each other while viewing a display image of the other party from a distant place. System.
At the point A, a camera 11a and a camera 12a that capture the user a as a subject to be photographed from different viewpoints, and a display 5a for displaying an image of the user b captured at the point B side to the user a, An image processing apparatus 2a is provided that generates a virtual viewpoint image Ima based on the images Pa1 and Pa2 captured by the cameras 11a and 12a and transmits the virtual viewpoint image Ima to the point B via the network 7.
At the point B, a camera 11b and a camera 12b that capture images of the user b as a photographing target from different viewpoints, and a display 5b for displaying an image of the user a captured at the point A side to the user b, An image processing device 2b that generates a virtual viewpoint image Imb based on the images Pb1 and Pb2 captured by the cameras 11b and 12b and transmits the image to the point A via the network 7 is disposed.
The virtual viewpoint images Ima and Imb generated by the image processing apparatuses 2a and 2b are images picked up by a virtual camera virtually installed near the center of the display 5a or 5b on which the display image of the other party is projected. It corresponds to.
The cameras 11a and 11b are respectively installed on the left side of the displays 5a and 5b when viewed from the users a and b, and the cameras 12a and 12b are respectively installed on the right side of the display when viewed from the users a and b. It becomes. The cameras 11 and 12 are installed with the shooting direction and the shooting angle of view being fixed, but these may be freely changed based on information input from the users a and b. By the way, in this communication system 1, description will be given by taking as an example a case where an imaging target is imaged by two cameras installed in accordance with the user's line of sight.
The displays 5a and 5b display images based on the virtual viewpoint images Imb and Ima supplied from the counterpart point via the network 7 via a liquid crystal display surface, for example. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Imb and Ima to create an image to be displayed to the user.

画像処理装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの画像処理装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、画像処理装置2a,2bの構成については後において詳細に説明をする。
ネットワーク7は、例えば画像処理装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、画像処理装置2による要求を受けて、自身に格納してある所定の情報を送信する。
The image processing apparatuses 2a and 2b are usually constituted by electronic devices such as a personal computer (PC). These image processing apparatuses 2a and 2b have a function of communicating with each other via the network 7, and transmit images and sounds in response to requests from the other party. The configuration of the image processing apparatuses 2a and 2b will be described in detail later.
The network 7 includes information such as an Internet network connected to the image processing apparatus 2 via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables two-way transmission / reception. Incidentally, when the communication system 1 is operated in a certain narrow area, the network 7 may be configured by a LAN (Local Area Network). Further, when transmitting moving images, the network 7 is continuously transmitted from one channel having moving images including, for example, MPEG (Moving Picture Experts Group) data, based on the Internet protocol (IP). . In addition, when transmitting a still image, the image is transmitted at regular intervals from a channel different from the channel for transmitting a moving image. Note that a network server (not shown) may be connected to the network 7. This network server (not shown) manages, for example, Internet information, receives a request from the image processing apparatus 2, and transmits predetermined information stored in itself.

以下、画像処理装置2aについて説明する。
図2は、図1に示す画像処理装置2aの構成図である。
画像処理装置2bは、画像処理装置2aと同じ構成を有している。
以下、画像処理装置2aの構成について説明する。
図2に示すように、画像処理装置2aは、例えば、画像並行化処理部20と、キャリブレーション部26、非順番対応領域検出部27、非順番対応領域分離部28、DPマッチング処理部29、各領域仮想視点画像生成部30および仮想視点画像生成部31を有する。
Hereinafter, the image processing apparatus 2a will be described.
FIG. 2 is a block diagram of the image processing apparatus 2a shown in FIG.
The image processing device 2b has the same configuration as the image processing device 2a.
Hereinafter, the configuration of the image processing apparatus 2a will be described.
As shown in FIG. 2, the image processing apparatus 2a includes, for example, an image parallelization processing unit 20, a calibration unit 26, an unordered corresponding region detection unit 27, an unordered corresponding region separation unit 28, a DP matching processing unit 29, Each region has a virtual viewpoint image generation unit 30 and a virtual viewpoint image generation unit 31.

画像処理装置2aでは、上述のような順番対応拘束が満たせない領域を距離情報によって検出分離し、分離された各領域に対して、それぞれDPマッチング処理によって対応点を求めて、それらの対応点情報及び仮想カメラ視点位置情報に基づいて、各領域の仮想視点映像を生成し、最後にそれらの仮想視点映像を距離の近いものが前に位置するように一枚の仮想視点映像として合成する。
画像処理装置2aでは、各領域仮想視点画像生成部30において、DPマッチング処理で対応付けられた2つの画素の画素値を基に、仮想視点の画素値(仮想画素値)を生成する。
The image processing apparatus 2a detects and separates regions that cannot satisfy the order correspondence constraint as described above based on distance information, and obtains corresponding points by DP matching processing for each separated region. Then, based on the virtual camera viewpoint position information, virtual viewpoint videos of each region are generated, and finally, the virtual viewpoint videos are synthesized as a single virtual viewpoint video so that the one with a short distance is located in front.
In the image processing apparatus 2a, each region virtual viewpoint image generation unit 30 generates a virtual viewpoint pixel value (virtual pixel value) based on the pixel values of two pixels associated in the DP matching process.

[画像並行化処理部20]
画像並行化処理部20は、カメラ11a,12aから入力した画像データPa1,Pa2に対して、幾何学的な画像補正処理と正規化処理とを行う。
画像並行化処理部20は、上記カメラ11a,12aの幾何学的な位置関係を含む制御情報に基づいて、各画像データPa1,Pa2を補正する。このカメラ11a,12aの幾何学的な位置関係は、上述したカメラキャリブレーション部26が生成した制御情報を基にパラメータ化されてもよい。
また、各カメラ11a,12aの撮影方向や撮影画角などを変更しつつ撮像を実行する場合には、カメラキャリブレーション部においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、画像並行化処理部20は、各カメラ11a,12aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。
なお、カメラキャリブレーション部26は、同様にカメラ11a,12aの各レンズにおける色収差や歪み、光軸のずれを、例えば特開2000−350239号公報や、特開平11−53549号公報に示されているカメラキャリブレーション手法に基づいてパラメータ化し、これらを画像並行化処理部20に出力してもよい。この場合において画像並行化処理部20は、取得したパラメータに基づいて、カメラ11a,12aからの画像を射影変換することにより基準となる画像へ合わせ込む。輝度成分等についても同様にカメラ11a,12aからの画像間において輝度の誤差が最小となるような射影変換行列を用いることにより互いの調整を図る。
[Image parallel processing unit 20]
The image parallel processing unit 20 performs geometric image correction processing and normalization processing on the image data Pa1 and Pa2 input from the cameras 11a and 12a.
The image parallelization processing unit 20 corrects the image data Pa1 and Pa2 based on the control information including the geometric positional relationship between the cameras 11a and 12a. The geometric positional relationship between the cameras 11a and 12a may be parameterized based on the control information generated by the camera calibration unit 26 described above.
Further, when imaging is performed while changing the shooting direction and the shooting angle of view of each camera 11a, 12a, these are parameterized in the camera calibration unit, and these parameters are used as control information when correcting the image. It may be included. Thereby, the image parallelization processing unit 20 can perform image correction in real time according to the shooting direction and / or the shooting angle of view of each camera 11a, 12a.
The camera calibration unit 26 similarly shows chromatic aberration, distortion, and optical axis shift in each lens of the cameras 11a and 12a, for example, in Japanese Patent Laid-Open No. 2000-350239 and Japanese Patent Laid-Open No. 11-53549. The parameters may be parameterized based on the camera calibration method, and these may be output to the image parallelization processing unit 20. In this case, the image parallelization processing unit 20 adjusts the images from the cameras 11a and 12a to the reference image by projective transformation based on the acquired parameters. Similarly, the luminance component and the like are adjusted with each other by using a projective transformation matrix that minimizes the luminance error between the images from the cameras 11a and 12a.

撮影対象としてのユーザaは、カメラ11a,12aにより互いに異なる角度から撮影される。その結果、カメラ11a,12aにより生成される画像データPa1,Pa2上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2は、それぞれ画像並行化処理部20に供給され、カメラキャリブレーション部26により予め求められた各カメラ11a,12aのレンズ歪みや画像中心等のパラメータに基づき、画像の歪みや画像中心がずれないように補正を行う。
画像並行化処理部20は、これら補正された各画像データPa1,Pa2を以下に示すように正規化して正規化画像データPm1,Pm2を生成し、これを非順番対応領域検出部27に出力する。
図3は、各カメラ11a,12aにより撮像した画像データPa1, Pa2を正規化する場合につき示している。この図3に示されるように、各カメラ11a,12aの光学中心C1,C2により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、各カメラ11a,12aの撮像面で得られる画像Pa1,Pa2の法線方向k1,k2は、互いに異なる方向を指している。すなわち、各カメラ11a,12aとM点を結ぶ直線の方向は、各カメラにより撮像された各画像データPa1,Pa2の法線方向k1,k2に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2に幾何学的正規化を行うことにより、法線方向k1’,k2’を同一方向とした画像面が互いに平行な正規化画像データPm1,Pm2を生成する。
この幾何学的正規化は、カメラキャリブレーション部26により予め求められた射影行列P1,P2を用いて、カメラ内部パラメータA1,A2、回転行列R1,R2、転移行列T1,T2を推定することにより実現する。その結果、補正後の画像撮像面の法線方向k1’,k2’が平行化された正規化画像データPm1,Pm2を生成することができる。
ちなみに、この幾何学的正規化を施す場合には、光学中心C1,C2を含む仮想平面πを設定しておき、この仮想平面πの法線方向に対して正規化画像Pm1,Pm2の法線方向が同一方向となるように、射影行列P1,P2を用いて正規化するようにしてもよい。
A user a as a subject to be photographed is photographed from different angles by the cameras 11a and 12a. As a result, the line-of-sight direction, the face direction, etc. of the user a on the image data Pa1, Pa2 generated by the cameras 11a, 12a are different from each other. Such images Pa1 and Pa2 are respectively supplied to the image parallelization processing unit 20, and are based on parameters such as lens distortion and image center of each camera 11a and 12a obtained in advance by the camera calibration unit 26. And correct so that the center of the image does not shift.
The image parallelization processing unit 20 generates normalized image data Pm1 and Pm2 by normalizing the corrected image data Pa1 and Pa2 as shown below, and outputs this to the non-order corresponding region detection unit 27. .
FIG. 3 shows a case where the image data Pa1 and Pa2 captured by the cameras 11a and 12a are normalized. As shown in FIG. 3, when imaging is performed by aligning the optical axis from different viewpoints to M points to be photographed by the optical centers C1 and C2 of the cameras 11a and 12a, on the imaging surfaces of the cameras 11a and 12a. The normal directions k1 and k2 of the obtained images Pa1 and Pa2 indicate different directions. That is, the direction of the straight line connecting each camera 11a, 12a and the point M coincides with the normal direction k1, k2 of each image data Pa1, Pa2 imaged by each camera, but these indicate different directions. . By performing geometric normalization on each of the images Pa1 and Pa2, normalized image data Pm1 and Pm2 whose image planes having the normal directions k1 ′ and k2 ′ in the same direction are parallel to each other are generated.
This geometric normalization is performed by estimating camera internal parameters A1, A2, rotation matrices R1, R2, and transfer matrices T1, T2 using projection matrices P1, P2 obtained in advance by the camera calibration unit 26. Realize. As a result, it is possible to generate normalized image data Pm1 and Pm2 in which the normal directions k1 ′ and k2 ′ of the corrected image pickup surface are parallelized.
Incidentally, when performing this geometric normalization, a virtual plane π including the optical centers C1 and C2 is set, and the normal lines of the normalized images Pm1 and Pm2 with respect to the normal direction of the virtual plane π. You may make it normalize using projection matrix P1, P2 so that a direction may become the same direction.

[非順番対応領域検出部27]
非順番対応領域検出部27は、画像並行化処理部20から正規化画像データPm1,Pm2を入力する。
非順番対応領域検出部27は、図4に示すように、正規化画像データPm1,Pm2から背景画像データPk1、Pk2を除去して前景画像データPf1、Pf2を生成する。
このように、背景画像を除去することで、背景画像の影響を軽減した効率的なマッチング処理を行うことができる。
[Non-order corresponding area detection unit 27]
The non-order corresponding region detection unit 27 receives the normalized image data Pm1 and Pm2 from the image parallelization processing unit 20.
As shown in FIG. 4, the non-order corresponding region detection unit 27 removes the background image data Pk1 and Pk2 from the normalized image data Pm1 and Pm2, and generates foreground image data Pf1 and Pf2.
In this manner, by removing the background image, it is possible to perform an efficient matching process that reduces the influence of the background image.

非順番対応領域検出部27は、順番対応拘束がないステレオマッチング手法により、前景画像データPf1、Pf2を基に、視差マップデータDm1,Dm2を生成(推定)する。
本実施形態では、順番対応拘束がないステレオマッチング手法として、エリアベースマッチング手法などが用いられる。
非順番対応領域検出部27は、視差マップデータDm1,Dm2の各々について、当該データを構成する画素データを、所定のしきい値以上の画素データ(手前の画素データ)と、上記しきい値未満の画素データとに分類する。
そして、非順番対応領域検出部27は、上記しきい値以上の画素データによって構成される非順番対応領域視差データを生成する。
例えば、非順番対応領域検出部27は、図5に示すように、視差マップデータDm1,Dm2から、それぞれ非順番対応領域視差データCL1、CL2を生成する。
非順番対応領域検出部27は、前景画像データPf1、Pf2と、非順番対応領域視差データCL1、CL2とを非順番対応領域分離部28に出力する。
The non-order corresponding region detection unit 27 generates (estimates) the parallax map data Dm1 and Dm2 based on the foreground image data Pf1 and Pf2 by a stereo matching method without order correspondence constraint.
In the present embodiment, an area-based matching method or the like is used as a stereo matching method with no order correspondence constraint.
For each of the parallax map data Dm1 and Dm2, the non-order corresponding region detection unit 27 sets pixel data constituting the data to pixel data (previous pixel data) that is equal to or greater than a predetermined threshold value and less than the threshold value. And pixel data.
Then, the non-order-corresponding region detection unit 27 generates non-order-corresponding region parallax data composed of pixel data equal to or greater than the threshold value.
For example, as shown in FIG. 5, the non-order corresponding area detection unit 27 generates non-order corresponding area parallax data CL1 and CL2 from the parallax map data Dm1 and Dm2, respectively.
The non-order corresponding region detection unit 27 outputs the foreground image data Pf1 and Pf2 and the non-order corresponding region parallax data CL1 and CL2 to the non-order corresponding region separation unit 28.

[非順番対応領域分離部28]
非順番対応領域分離部28は、図5に示すように、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から非順番対応画像データPe1b、Pe2bを抽出し、これをDPマッチング処理部29に出力する。
また、非順番対応領域分離部28は、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から順番対応画像データを抽出する。
そして、非順番対応領域分離部28は、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像(画素値が予め決められた一定の輝度および色差の画像)に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これをDPマッチング処理部29に出力する。
[Non-order corresponding region separation unit 28]
As shown in FIG. 5, the non-order corresponding region separation unit 28 extracts non-order corresponding image data Pe1b and Pe2b from the foreground image data Pf1 and Pf2 based on the non-order corresponding region parallax data CL1 and CL2. The data is output to the DP matching processing unit 29.
Further, the non-order corresponding region separation unit 28 extracts the order corresponding image data from the foreground image data Pf1 and Pf2 based on the non-order corresponding region parallax data CL1 and CL2.
Then, as shown in FIG. 6, the non-order-corresponding region separation unit 28 converts the portion of the non-order-corresponding image data in the extracted order-corresponding image data into a label image (fixed luminance and color difference with predetermined pixel values). Order-corresponding image data Pe1a and Pe2a replaced with (labeled) images are generated and output to the DP matching processing unit 29.

[DPマッチング処理部29]
DPマッチング処理部29は、順番対応画像データPe1aとPe2aとの間のDPマッチング処理を行う。
DPマッチング処理部29は、順番対応画像データPe1a,Pe2aをラベル修正して得た順番対応画像データPe1c,Pe2cと、そのDPマッチング処理結果DPaとを各領域仮想視点画像生成部30に出力する。
また、DPマッチング処理部29は、非順番対応画像データPe1bとPe2bの間のDPマッチング処理を行う。
DPマッチング処理部29は、非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを各領域仮想視点画像生成部30に出力する。
[DP matching processing unit 29]
The DP matching processing unit 29 performs DP matching processing between the order corresponding image data Pe1a and Pe2a.
The DP matching processing unit 29 outputs the order correspondence image data Pe1c and Pe2c obtained by correcting the labels of the order correspondence image data Pe1a and Pe2a and the DP matching processing result DPa to each region virtual viewpoint image generation unit 30.
Further, the DP matching processing unit 29 performs DP matching processing between the non-order corresponding image data Pe1b and Pe2b.
The DP matching processing unit 29 outputs the unordered correspondence image data Pe1b and Pe2b and the DP matching processing result DPb to each region virtual viewpoint image generation unit 30.

先ず、順番対応画像データPe1a,Pe2aのDPマッチング処理を説明する。
DPマッチング処理部29は、上述したように、順番対応画像データPe1aとPe2aとの間のDPマッチング処理と、非順番対応画像データPe1bとPe2bとの間のDPマッチング処理とを個別に行う。
これにより、図7(a),(b)に示すように、順番対応画像データ(身体領域)と、非順番対応画像データ(手領域)とについて、正しい対応付けが可能になる。
そのため、後段の仮想視点画像生成部31において、図7(c)に示す仮想視点画像が生成できる。
First, DP matching processing of the order corresponding image data Pe1a and Pe2a will be described.
As described above, the DP matching processing unit 29 individually performs the DP matching process between the order-corresponding image data Pe1a and Pe2a and the DP matching process between the non-order-corresponding image data Pe1b and Pe2b.
As a result, as shown in FIGS. 7A and 7B, the order correspondence image data (body region) and the non-order correspondence image data (hand region) can be correctly associated.
Therefore, the virtual viewpoint image generation unit 31 in the subsequent stage can generate the virtual viewpoint image shown in FIG.

なお、従来では、図8に示すように、前景画像pic1,pic2につき、撮影対象と関連させつつ、画素位置毎に対応付けを行う。前景画像pic1,pic2につき、被写体としてのユーザaがそれぞれ写し出された前景画像pic1におけるスキャンラインL4上の画素と、前景画像pic2におけるスキャンラインL4’上の画素とを対応付けする場合に、スキャンラインL4上の特徴点の点列R1を左から順に{c1,c2,c3,c4}とし、またスキャンラインL4’の特徴点の点列R2を左から順に{d1,d2,d3,d4}とする。
ここで、互いのスキャンラインL4,L4’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、c1に対してL4’上の特徴点はd1が該当し1:1で対応することとなるが、ユーザaの首を構成する特徴点c2に対してL4’上の特徴点はd3が該当することとなる。同様に、ユーザaの手を構成する特徴点c3,c4に対してL4’上の特徴点はd2,d4がそれぞれ該当することとなる。
このように、異なる視点から撮像することにより得られる前景画像pic1,pic2では、被写体からカメラに至るまでの距離に基づく視差が大きい画像領域間において特徴点の対応付けが互いに交差してしまう。その結果、後段の仮想視点画像生成部において作成される仮想視点画像につき、図9に示すような画像の乱れが生じてしまうことになる。
Conventionally, as shown in FIG. 8, the foreground images pic1 and pic2 are associated with each imaging position while being associated with the imaging target. For the foreground images pic1 and pic2, when the pixels on the scan line L4 in the foreground image pic1 in which the user a as the subject is imaged are associated with the pixels on the scan line L4 ′ in the foreground image pic2, the scan line The point sequence R1 of the feature points on L4 is {c1, c2, c3, c4} in order from the left, and the point sequence R2 of the feature points on the scan line L4 ′ is {d1, d2, d3, d4} in order from the left. To do.
Here, when the feature points R1 and R2 on the scan lines L4 and L4 ′ are associated with each other in the relationship with the subject, first, the feature point on L4 ′ corresponds to c1 and corresponds 1: 1. However, the feature point on L4 ′ corresponds to the feature point c2 constituting the neck of the user “a”. Similarly, d2 and d4 correspond to the feature points on L4 ′ with respect to the feature points c3 and c4 constituting the hand of the user a.
In this way, in the foreground images pic1 and pic2 obtained by imaging from different viewpoints, the feature point associations intersect between image regions having a large parallax based on the distance from the subject to the camera. As a result, the disturbance of the image as shown in FIG. 9 occurs for the virtual viewpoint image created in the virtual viewpoint image generation unit at the subsequent stage.

ところで、DPマッチング処理部29では、図7に示すように、順番対応画像データ(身体領域)と、非順番対応画像データ(手領域)とについて、正しい対応付けが可能になるが、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aについて、そのままDPマッチング処理すると、図7(a)では本来は左画像のL1 が右画像R1’に対応するはずであったのに、左画像のL1 が右画像R1 に対応してしまう。その結果、図7(c)に示す仮想視点映像において、左画像のL1 と右画像のR1 の座標値を用いる仮想視点映像での顔の輪郭部の位置がずれることになり、違和感のある仮想視点映像になってしまう。   Incidentally, as shown in FIG. 7, the DP matching processing unit 29 can correctly associate the order correspondence image data (body region) and the non-order correspondence image data (hand region). As shown in FIG. 7A, when the DP matching process is performed as it is for the order-corresponding image data Pe1a and Pe2a in which the part of the non-order-corresponding image data in the extracted order-corresponding image data is replaced (labeled) with the label image. ) Originally, the left image L1 should correspond to the right image R1 ′, but the left image L1 corresponds to the right image R1. As a result, in the virtual viewpoint video shown in FIG. 7C, the position of the contour of the face in the virtual viewpoint video using the coordinate values of L1 of the left image and R1 of the right image is shifted, and the virtual image having a sense of incongruity It becomes a viewpoint video.

DPマッチング処理部29は、上記違和感を低減するために、特に顔や身体領域の輪郭周辺の画質を向上させるために、人物領域の対称性を用いてラベル付けされた順番対応画像データPe1a,Pe2aのラベル修正処理を行う。
具体的には、DPマッチング処理部29は、図6に示すように、順番対応画像データPe1a,Pe2aのラベル領域に対して、その反対方向にある輪郭を抽出し、それをマスクとして用いてラベル領域を修正して修正順番対応画像データPe1c,Pe2cを生成する。
図10(a)は、その処理の一例である。実線はマスク領域の反対側領域の輪郭検出結果であり、点線はその反対側の輪郭線を用いて修正されたマスク領域を示す。
図10(b)は、ラベル領域修正後の修正順番対応画像データPe1c,Pe2cであり、図10(c)は、そのラベル領域修正後の映像を用いる対応付け結果、及びその結果を用いる仮想視点画像データIpnaである。このように、ラベル領域を修正することで、仮想視点画像データIpnaを、図7(c)に示す場合に比べて本来の被写体の像に近づけることができる。
In order to reduce the above-mentioned uncomfortable feeling, especially the DP matching processing unit 29 improves the image quality around the contour of the face or body region, the order-corresponding image data Pe1a and Pe2a labeled using the symmetry of the person region. Perform the label correction process.
Specifically, as shown in FIG. 6, the DP matching processing unit 29 extracts contours in the opposite direction from the label regions of the order-corresponding image data Pe1a and Pe2a, and uses them as a mask to label them. The region is corrected to generate correction order corresponding image data Pe1c and Pe2c.
FIG. 10A shows an example of the processing. A solid line indicates a contour detection result of an area on the opposite side of the mask area, and a dotted line indicates a mask area corrected using the outline on the opposite side.
FIG. 10B shows correction order correspondence image data Pe1c and Pe2c after label area correction, and FIG. 10C shows an association result using the image after the label area correction, and a virtual viewpoint using the result. This is image data Ipna. In this way, by correcting the label area, the virtual viewpoint image data Ipna can be brought closer to the original subject image as compared to the case shown in FIG.

以下、DPマッチング処理部29によるDPマッチングについて説明する。
DPマッチング処理部29は、DPマッチング対象の2つの画像領域を構成する各画素位置につき対応関係を求める。
この対応付けは、例えば、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を修正順番対応画像データPe1c,Pe2c間で抽出して対応をとるようにする。
例えば、図11に示すように、修正順番対応画像データPe1cのスキャンラインL1上にある画素P11の対応点については、修正順番対応画像データPe2cのスキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、修正順番対応画像データPe1c,Pe2cを構成する全ての画素に対して実行してもよい。
Hereinafter, DP matching by the DP matching processing unit 29 will be described.
The DP matching processing unit 29 obtains a correspondence relationship for each pixel position constituting the two image regions to be DP matched.
This association is performed, for example, by extracting pixel positions and luminance components at the same location constituting the face of the user a between the correction order correspondence image data Pe1c and Pe2c.
For example, as illustrated in FIG. 11, the corresponding point of the pixel P11 on the scan line L1 of the correction order corresponding image data Pe1c exists on the scan line L1 ′ of the correction order corresponding image data Pe2c, and the L1 By searching “up”, the most similar pixel position P11 ′ can be detected as a corresponding point. Incidentally, the matching unit 29 may be executed only for the part where the feature is extracted for this association, or may be executed for all the pixels constituting the correction order correspondence image data Pe1c and Pe2c.

本実施形態では、DPマッチング処理部29の前段の画像並行化処理部20において、画像が予め正規化され、エピポーラ線が平行化されているため、画素探索のロバスト性を向上させることができる。
図11に示す修正順番対応画像データPe1c,Pe2cにつき、スキャンラインL1上にある画素P11の対応点については、スキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、対応点としての画素P11’を検出することができる。
In the present embodiment, the image parallelization processing unit 20 in the previous stage of the DP matching processing unit 29 normalizes the image in advance and parallelizes the epipolar lines, so that the robustness of the pixel search can be improved.
In the correction order corresponding image data Pe1c and Pe2c shown in FIG. 11, the corresponding point of the pixel P11 on the scan line L1 is present on the scan line L1 ′, and the correspondence is obtained by searching on the L1 ′. A pixel P11 ′ as a point can be detected.

例えば、図12に示すように、被写体としてのユーザaがそれぞれ写し出された修正順番対応画像データPe1cにおけるスキャンラインL1上の画素と、修正順番対応画像データPe2cおけるスキャンラインL1’上の画素とを対応付けする場合に、スキャンラインL1上の特徴点の点列R1を左から順に{a1,a2,a3,a4,a5}とし、またスキャンラインL1’の特徴点の点列R2を左から順に{b1,b2,b3,b4,b5}とする。
ここで、互いのスキャンラインL1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。
For example, as shown in FIG. 12, the pixels on the scan line L1 in the correction order corresponding image data Pe1c in which the user a as the subject is respectively copied and the pixels on the scan line L1 ′ in the correction order corresponding image data Pe2c. In the case of association, the point sequence R1 of the feature points on the scan line L1 is {a1, a2, a3, a4, a5} in order from the left, and the point sequence R2 of the feature points on the scan line L1 ′ is sequentially from the left Let {b1, b2, b3, b4, b5}.
Here, when the feature points R1 and R2 on the scan lines L1 and L1 ′ are associated with each other in the relationship with the subject, first, the feature point on L1 ′ corresponds to a1 and corresponds 1: 1. However, b2 corresponds to the feature points on L1 ′ corresponding to the feature points a2 and a3 constituting the right ear of the user “a”, and corresponds to 2: 1. Similarly, b3 and b4 correspond to the feature points on L1 ′ with respect to the feature point a4 constituting the left ear of the user a, and correspond to 1: 2. Note that b5 corresponds to the feature point on L1 ′ with respect to a5, and corresponds to 1: 1.

このように、異なる視点から撮像することにより得られる修正順番対応画像データPe1cとPe2cでは、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の修正順番対応画像データに表示されている被写体の対応点が他方の修正順番対応画像データにて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。
このため、DPマッチング処理部29は、かかる視差を識別することにより、図12(a)に示される修正順番対応画像データの特徴点の点列R1,R2を、結果的に図12(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。
As described above, in the correction order corresponding image data Pe1c and Pe2c obtained by imaging from different viewpoints, the content displayed in the ear portion of the user a is different depending on the parallax based on the distance from the subject to the camera. Come. Hereinafter, such a region is referred to as an occlusion region. In such an occlusion area, the corresponding point of the subject displayed in one correction order corresponding image data is hidden by the other correction order corresponding image data due to the parallax. , b1), (a2, b2), (a3, b3), (a4, b4), (a5, b5)}, an error occurs.
For this reason, the DP matching processing unit 29 identifies the parallax and thereby obtains the point sequences R1 and R2 of the feature points of the correction order corresponding image data shown in FIG. 12A as a result as shown in FIG. As shown in (2), control is performed so as to be associated with {(a1, b1), (a2, b2), (a3, b2), (a4, b3), (a4, b4), (a5, b5)} .

具体的には、DPマッチング処理部29は、各修正順番対応画像データPe1c,Pe2cにおけるスキャンライン上にある全ての画素につき、図12(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。
この図12(c)におけるx軸にスキャンラインL1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をスキャンラインL1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図12(b)に示される対応関係をこのグラフにあてはめると、図12(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。
Specifically, the DP matching processing unit 29 performs dynamic programming (DP: shortest path search) as shown in FIG. 12C for all the pixels on the scan line in the correction order corresponding image data Pe1c and Pe2c. Performs dynamic association using.
In FIG. 12C, a point sequence R1 {a1, a2, a3, a4, a5} of feature points on the scan line L1 is arranged on the x axis, and the feature points on the scan line L1 ′ are arranged on the y axis. When the column R2 {b1, b2, b3, b4, b5} is applied, when the correspondence shown in FIG. 12B is applied to this graph, the path indicated by the bold line shown in FIG. 12C is taken. become. Hereinafter, a straight line connecting corresponding points indicated by bold lines is referred to as an optimum route.

この最適経路において右上に線形増加する場合には、スキャンラインL1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。DPマッチング処理部29は、右上に線形増加する最適経路の例として、スキャンラインL1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。
また、この最適経路において水平方向にシフトする場合には、修正順番対応画像データPe1cとPe2cとの間において視差が生じた結果、修正順番対応画像データPe1cにおいて示されている特徴点が修正順番対応画像データPe2cにおいて隠れてしまったことを示唆している。
かかる場合には、DPマッチング処理部29は、修正順番対応画像データPe1c上にある一つの特徴点に対して、修正順番対応画像データPe2c上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。
When linearly increasing to the upper right in this optimum route, when the lines on the scan lines L1 and L1 ′ are shifted from left to right for association, the feature points are sequentially shifted by 1: 1 to correspond to each other. Is shown. As an example of the optimal path linearly increasing to the upper right, the DP matching processing unit 29 shifts the feature points (a2, b1) on the scan lines L1, L1 ′ one by one from the left to the right one by one. , b2) can be accurately associated.
In addition, when shifting in the horizontal direction in this optimal path, as a result of the occurrence of parallax between the correction order corresponding image data Pe1c and Pe2c, the feature points indicated in the correction order corresponding image data Pe1c correspond to the correction order. This suggests that the image data Pe2c is hidden.
In such a case, the DP matching processing unit 29 associates a plurality of feature points on the correction order corresponding image data Pe2c with one feature point on the correction order corresponding image data Pe1c. As an example of the optimum path that shifts in the horizontal direction, b2 indicating the right ear of the user a at the feature points (a2, b2) on the scan lines L1, L1 ′ further corresponds to a3 due to the above-described parallax. Is maintained as it is, and a3 is associated with it.

また、この最適経路において垂直方向へシフトする場合には、修正順番対応画像データPe1c,Pe2c間において視差が生じた結果、修正順番対応画像データPe2cにおいて示されている特徴点が修正順番対応画像データPe1cにおいて隠れてしまったことを示唆している。かかる場合には、DPマッチング処理部29は、修正順番対応画像データPe1c上にある1の特徴点に対して、修正順番対応画像データPe2c上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。   Further, when shifting in the vertical direction on this optimum path, as a result of the occurrence of parallax between the correction order corresponding image data Pe1c and Pe2c, the feature points indicated in the correction order corresponding image data Pe2c are corrected order corresponding image data. This suggests that it has been hidden in Pe1c. In such a case, the DP matching processing unit 29 associates a plurality of feature points on the correction order corresponding image data Pe2c with one feature point on the correction order corresponding image data Pe1c. As an example of the optimum path that shifts in the vertical direction, a4 indicating the left ear of the user a at the feature points (a4, b3) on the scan lines L1, L1 ′ further corresponds to b4 due to the above-described parallax. B4 is associated with this while maintaining the above.

DPマッチング処理部29は、これら対応付けを、互いの順番対応画像データPe1a,Pe2aの全てを構成する、或いは一部を構成するスキャンラインL1,L1’間において実行する。そしてスキャンラインL1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。   The DP matching processing unit 29 executes these associations between the scan lines L1 and L1 'constituting all or part of the mutual order correspondence image data Pe1a and Pe2a. Then, by obtaining the above-described optimum route for each of the scan lines L1, L1 ', the feature points are associated with each other between the point sequences R1, R2.

図13は、スキャンラインL1,L1’上の任意の特徴点(x1,y)と(x2,y)との対応付け関係(x1,x2)を求める場合につき示している。
この点(x1,x2)に至る最適経路は、点(x1−1,x2−1)につき左から右へそれぞれ一つずつシフトさせることにより図13に示されるグラフにおいて右上に線形増加し、或いは点(x1−1,x2)においてx2をそのまま維持しつつ水平方向に1シフトさせることにより図13に示されるグラフにおいて点(x1−1,x2)から水平方向へ移動する。さらに、この点(x1,x2)に至る最適経路は、点(x1,x2−1)においてx1をそのまま維持しつつ垂直方向へ1シフトさせることにより図13に示されるグラフにおいて点(x1,x2−1)から垂直方向へ移動することになる。
FIG. 13 shows a case in which the correspondence (x1, x2) between arbitrary feature points (x1, y) and (x2, y) on the scan lines L1, L1 ′ is obtained.
The optimum path to the point (x1, x2) increases linearly in the upper right in the graph shown in FIG. 13 by shifting the point (x1-1, x2-1) one by one from left to right, or By shifting one point in the horizontal direction while maintaining x2 at the point (x1-1, x2), the graph moves from the point (x1-1, x2) in the horizontal direction in the graph shown in FIG. Further, the optimum path to the point (x1, x2) is shifted by one shift in the vertical direction while maintaining x1 at the point (x1, x2-1), so that the point (x1, x2) in the graph shown in FIG. -1) to move in the vertical direction.

即ち、点(x1,x2)を通る最適経路は、図13に示すグラフにおいて、その左,左下,下に位置する点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)の何れかを経ることになる。
DPマッチング処理部29は、何れの点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)を経て点(x1,x2)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。
DPマッチング処理部29は、以下に示すマッチングコスト関数d(x1,x2)と、動的なオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を求め、求めた各関数に応じて上述した最適経路を求める。
マッチングコスト関数d(x1,x2)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数である。
また、オクリュージョンコスト関数dx1(x1,x2)は、順番対応画像データPe1aの画像Pe2aに対する被写体画像の隠れ度合いを示す関数である。
また、オクリュージョンコスト関数dx2(x1,x2)は、画像Pe2aの順番対応画像データPe1aに対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、被写体の各画像間における視差が反映される形となる。
That is, the optimum route passing through the point (x1, x2) is the points (x1-1, x2), (x1-1, x2-1), ( either x1, x2-1).
The DP matching processing unit 29 determines which point (x1-1, x2), (x1-1, x2-1), (x1, x2-1) and the point (x1, x2) are reached. It is determined by sequentially finding the functions to be explained.
The DP matching processing unit 29 obtains a matching cost function d (x1, x2) and dynamic occlusion cost functions dx1 (x1, x2), dx2 (x1, x2) shown below, and determines the obtained functions. Accordingly, the optimum route described above is obtained.
The matching cost function d (x1, x2) is a function indicating the similarity between the luminance component and the color component between the pixel positions for which the correspondence is obtained.
The occlusion cost function dx1 (x1, x2) is a function indicating the degree of hiding of the subject image with respect to the image Pe2a of the order corresponding image data Pe1a.
The occlusion cost function dx2 (x1, x2) is a function indicating the degree of hiding of the subject image with respect to the order corresponding image data Pe1a of the image Pe2a. These occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2) have a shape reflecting the parallax between the images of the subject.

先ず、マッチングコスト関数d(x1,x2)を求める方法につき説明をする。
DPマッチング処理部29は、d(x1,x2)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。
この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
First, a method for obtaining the matching cost function d (x1, x2) will be described.
The DP matching processing unit 29 determines which of the luminance component or the color component to be compared is weighted for d (x1, x2).
This weighting is performed based on the following formula (1) using a weighting coefficient α.

[数1]
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)
…(1)
[Equation 1]
dk (s, t) = α × dYk (s, t) + (1−α) dCk (s, t)
... (1)

ここで(s,t)は、点(x1,x2)に対応する修正順番対応画像データPe1c,Pe2cにおける画素位置を表している。
また、kは、修正順番対応画像データPe1c,Pe2cの何行目に該当するかを示している(つまりk=y)。
上記式(1)においてdYk(s,t)は、修正順番対応画像データPe1cとPe2cとの間の座標(s,t)間における輝度成分の差分絶対値を表し、以下の式(2)で定義される。
Here, (s, t) represents a pixel position in the correction order corresponding image data Pe1c and Pe2c corresponding to the point (x1, x2).
In addition, k indicates which line of the correction order correspondence image data Pe1c and Pe2c corresponds (that is, k = y).
In the above equation (1), dYk (s, t) represents the absolute difference value of the luminance component between the coordinates (s, t) between the correction order corresponding image data Pe1c and Pe2c, and is expressed by the following equation (2). Defined.

[数2]
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|
…(2)
[Equation 2]
dYk (s, t) = | Y1k (s, t) −Y2k (s, t) |
... (2)

また、上記式(1)においてdCk(s,t)は、修正順番対応画像データPe1cとPe2cとの間における色成分の差分絶対値を表し、以下の式(3)で定義される。   In the above equation (1), dCk (s, t) represents the absolute value of the difference between the color components between the correction order corresponding image data Pe1c and Pe2c, and is defined by the following equation (3).

[数3]
dCk(s,t)=|C1k(s,t)−C2k(s,t)|
…(3)
[Equation 3]
dCk (s, t) = | C1k (s, t) −C2k (s, t) |
... (3)

即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。なお、DPマッチング処理部29は、αについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。   That is, by setting α higher in the above equation (1), the component of the luminance component difference absolute value dYk (s, t) can be more reflected in the obtained dk (s, t). In addition, by setting α to be smaller in the above equation (1), the component of the color component difference absolute value dCk (s, t) can be more reflected in the obtained dk (s, t). The DP matching processing unit 29 may assign an average value of the color component matching cost and the luminance component matching cost for α.

d(x1,x2)は、上記式(1)により求められるdk(s,t)に基づいて、更に以下の式(4)により求められる。   d (x1, x2) is further obtained by the following equation (4) based on dk (s, t) obtained by the above equation (1).

[数4]
d(x1,x2)=(Σdk(s,t))/2K k=−K,・・,K−1
…(4)
[Equation 4]
d (x1, x2) = (Σdk (s, t)) / 2K k = −K,..., K−1
(4)

上記式(4)は、スキャンラインの上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。
上記式(4)式により、求めるd(x1,x2)につきスキャンラインの上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
即ち、上述の方法により求められるマッチングコストd(x1,x2)は、修正順番対応画像データPe1cとPe2cの画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、修正順番対応画像データPe1cとPe2cの画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x1,x2)により、画像Pe1aと画像Pe2aの画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。
The above equation (4) means that d (x, y) can be obtained by taking an average with each pixel located above and below the scan line.
By the above equation (4), it is possible to reflect the correlation between each pixel located above and below the scan line for the obtained d (x1, x2). As a result, it is possible to greatly improve the association accuracy.
That is, the matching cost d (x1, x2) obtained by the above method increases as the absolute value of the difference between the luminance component or the color component at the pixel position (s, t) of the correction order corresponding image data Pe1c and Pe2c increases. To do. In other words, it increases as the difference in luminance component or color component at the pixel position (s, t) between the correction order corresponding image data Pe1c and Pe2c increases, and decreases as they are similar. That is, the matching cost d (x1, x2) makes it possible to identify the luminance component or color component similarity at the pixel positions (s, t) of the images Pe1a and Pe2a.

次にオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を求める方法につき説明をする。
これら各オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。
かかる場合において、DPマッチング処理部29は、オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を上げることにより対応する。
各オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、以下の式(5)、(6)に基づいて求めることができる。
Next, a method for obtaining the occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2) will be described.
Each of these occlusion cost functions dx1 (x1, x2), dx2 (x1, x2) is generated based on disparity information. As the distance from the cameras 11a and 12a to the user a as the subject decreases (as the parallax increases), the probability of occurrence of an occlusion area increases. In such a case, the matching unit 29 responds by lowering the occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2). On the other hand, as the distance from the cameras 11a and 12a to the user a as the subject becomes longer (as the parallax becomes smaller), the probability of occurrence of an occlusion area decreases.
In such a case, the DP matching processing unit 29 responds by increasing the occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2).
Each occlusion cost function dx1 (x1, x2), dx2 (x1, x2) can be obtained based on the following equations (5) and (6).

[数5]
dx1(x1,x2)=β×d(x1,x2)+T0
…(5)
[Equation 5]
dx1 (x1, x2) = β × d (x1, x2) + T0
... (5)

[数6]
dx2(x1,x2)=γ×d(x1,x2)+T1
…(6)
[Equation 6]
dx2 (x1, x2) = γ × d (x1, x2) + T1
(6)

ここで、d(x1,x2)は、マッチングコストであり、左画像と右画像の輝度値、色合いのばらつきを解消させるべく、オクリュージョンコストを動的に調整するものである。β、γは、dp(x1,x2)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
DPマッチング処理部29は、これら各関数dx1(x1,x2),d(x1,x2),dx2(x1,x2)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x1−1,x2),C(x1−1,x2−1),C(x1,x2−1)を加算し、総コストk1,k2,k3を算出する。
Here, d (x1, x2) is a matching cost, and dynamically adjusts the occlusion cost in order to eliminate variations in luminance values and hues of the left and right images. β and γ represent the rate of change of dp (x1, x2) and can be experimentally obtained in advance. T0 and T1 are initial occlusion cost constants, which can also be obtained experimentally in advance.
The DP matching processing unit 29 obtains these functions dx1 (x1, x2), d (x1, x2), dx2 (x1, x2), and then, based on the following formulas (7) to (9), respectively. Accumulated matching costs C (x1-1, x2), C (x1-1, x2-1), and C (x1, x2-1) are added to calculate total costs k1, k2, and k3.

[数7]
k1=C(x1−1,x2)+dx1(x1,x2)
…(7)
[Equation 7]
k1 = C (x1-1, x2) + dx1 (x1, x2)
... (7)

[数8]
k2=C(x1−1,x2−1)+d(x1,x2)
…(8)
[Equation 8]
k2 = C (x1-1, x2-1) + d (x1, x2)
(8)

[数9]
k3=C(x1,x2−1)+dx2(x1,x2)
…(9)
[Equation 9]
k3 = C (x1, x2-1) + dx2 (x1, x2)
... (9)

ここでC(x1−1,x2),C(x1−1,x2−1),C(x1,x2−1)は、それぞれ点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)において求められた累積マッチングコストを示している。ちなみに、点(x1,x2)における累積マッチングコストC(x1,x2)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。   Here, C (x1-1, x2), C (x1-1, x2-1), and C (x1, x2-1) are points (x1-1, x2) and (x1-1, x2-1), respectively. ), (X1, x2-1) shows the accumulated matching cost obtained. Incidentally, the cumulative matching cost C (x1, x2) at the point (x1, x2) is assigned the smallest one among the obtained k1, k2, and k3 as shown in the following equation (10).

[数10]
C(x1,x2)=min{k1,k2,k3}
…(10)
[Equation 10]
C (x1, x2) = min {k1, k2, k3}
(10)

DPマッチング処理部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求め、その結果をDPマッチング処理結果DPaとして各領域仮想視点画像生成部30に出力する。   The DP matching processing unit 29 obtains the optimum route by selecting the smallest one of the obtained total costs k1, k2, and k3, and uses the result as the DP matching processing result DPa for each region virtual viewpoint image generation unit 30. Output to.

ここで、k1が最小となる場合には、視差が大きくなることにより、修正順番対応画像データPe1cにおいて示されている特徴点が修正順番対応画像データPe2cにおいて遮蔽されたことを意味している。かかる場合には、図13矢印J1に示すように点(x1−1,x2)から水平方向にシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
またk3が最小となる場合には、視差が大きくなることにより、修正順番対応画像データPe2cにおいて示されている特徴点が修正順番対応画像データPe1cにおいて遮蔽されたことを意味している。かかる場合には、図13矢印J3に示すように、点(x1,x2−1)から垂直方向にシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
更に、k2が最小となる場合には、修正順番対応画像データPe1c,Pe2cの画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことを意味している。かかる場合には、図13矢印J2に示すように点(x1−1,x2−1)から水平、垂直方向に一つずつシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
Here, when k1 is the minimum, it means that the feature point indicated in the correction order corresponding image data Pe1c is shielded in the correction order corresponding image data Pe2c by increasing the parallax. In such a case, as shown by the arrow J1 in FIG. 13, the optimum route is obtained so as to reach the point (x1, x2) by shifting in the horizontal direction from the point (x1-1, x2).
Further, when k3 is the minimum, it means that the feature point indicated in the correction order corresponding image data Pe2c is shielded in the correction order corresponding image data Pe1c by increasing the parallax. In such a case, as shown by the arrow J3 in FIG. 13, the optimum path is obtained so as to reach the point (x1, x2) by shifting from the point (x1, x2-1) in the vertical direction.
Further, when k2 is the minimum, it means that the similarity of the luminance component or the color component at the pixel position (s, t) of the correction order corresponding image data Pe1c, Pe2c is high. In such a case, an optimum path is obtained so as to reach the point (x1, x2) by shifting one by one in the horizontal and vertical directions from the point (x1-1, x2-1) as shown by the arrow J2 in FIG. Will be.

DPマッチング処理部29は、図6に示す修正順番対応画像データPe1c,Pe2c内の修正後のラベル領域L1c,L2cについては、条件1「Y1k(s,t)とY2k(s,t)との画素の双方がオクリュージョン領域内にない」を満たすと、下記式(11)のマッチングコスト関数を用いる。  The DP matching processing unit 29 sets the condition 1 “Y1k (s, t) and Y2k (s, t) for the corrected label regions L1c and L2c in the correction order corresponding image data Pe1c and Pe2c shown in FIG. When “both pixels are not in the occlusion region”, the matching cost function of the following equation (11) is used.

[数11]
dk(s,t)=αdYk(s,t)+(1−α)・dCk(s,t)
…(11)
[Equation 11]
dk (s, t) = αdYk (s, t) + (1−α) · dCk (s, t)
... (11)

また、DPマッチング処理部29は、図6に示す修正順番対応画像データPe1c,Pe2c内の修正後のラベル領域L1c,L2cについて、条件2「Y1k(s,t)とY2k(s,t)との画素の少なくとも一方がオクリュージョン領域内にある」を満たすと、下記式(12)のマッチングコスト関数を用いる。   Further, the DP matching processing unit 29 sets condition 2 “Y1k (s, t) and Y2k (s, t) for the corrected label areas L1c and L2c in the correction order corresponding image data Pe1c and Pe2c shown in FIG. If at least one of the pixels in the occlusion region is satisfied, a matching cost function of the following equation (12) is used.

[数12]
dk(s,t)=Const(一定値)
…(12)
[Equation 12]
dk (s, t) = Const (constant value)
(12)

DPマッチング処理部29では、上述したように、修正順番対応画像データPe1c,Pe2cのマッチングコスト関数として、修正後のラベル領域L1c,L2cとそれ以外の領域とで異なる関数を用いる。これにより、ラベル領域L1c,L2について他の領域と同じ関数を用いた場合に比べて、修正順番対応画像データPe1c,Pe2cのマッチングを高精度に行うことができる。   As described above, the DP matching processing unit 29 uses different functions for the corrected label areas L1c and L2c and other areas as the matching cost function of the correction order corresponding image data Pe1c and Pe2c. Thereby, compared with the case where the same function as the other areas is used for the label areas L1c and L2, the correction order corresponding image data Pe1c and Pe2c can be matched with high accuracy.

次に、図5に示す非順番対応画像データPe1b,Pe2bのDPマッチング処理を説明する。
非順番対応画像データPe1b,Pe2bについては、上述した順番対応画像データPe1a,Pe2aとは異なり、ラベル領域は存在しない。
従って、DPマッチング処理部29は、ラベル領域についての上記式(11),(12)以外の上記式(1)〜(10)を基にコストを算出して、DPマッチング処理を行い、その結果であるDPマッチング処理結果DPbを各領域仮想視点画像生成部30に出力する。
Next, the DP matching process for the unordered correspondence image data Pe1b and Pe2b shown in FIG. 5 will be described.
Unlike the order-corresponding image data Pe1a and Pe2a, the non-order-corresponding image data Pe1b and Pe2b do not have a label area.
Therefore, the DP matching processing unit 29 calculates the cost based on the above formulas (1) to (10) other than the above formulas (11) and (12) for the label region, performs the DP matching processing, and the result The DP matching processing result DPb is output to each region virtual viewpoint image generation unit 30.

[各領域仮想視点画像生成部30]
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1c,Pe2cと、そのDPマッチング処理結果DPaとを基に、仮想視点順番対応画像データIpnaを生成し、これを仮想視点画像生成部31に出力する。
また、各領域仮想視点画像生成部30はDPマッチング処理部29から入力した非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、仮想視点非順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。
[Each Area Virtual Viewpoint Image Generation Unit 30]
Each region virtual viewpoint image generation unit 30 generates virtual viewpoint order correspondence image data Ipna based on the order correspondence image data Pe1c and Pe2c input from the DP matching processing unit 29 and the DP matching processing result DPa. Is output to the virtual viewpoint image generation unit 31.
Each region virtual viewpoint image generation unit 30 generates the virtual viewpoint non-order corresponding image data Ipnb based on the non-order corresponding image data Pe1b and Pe2b input from the DP matching processing unit 29 and the DP matching processing result DPb. This is output to the virtual viewpoint image generation unit 31.

各領域仮想視点画像生成部30は、例えば、図14に示すように、順番対応画像データPe1cにおける画素位置P11に対して、順番対応画像データPe2cにおける画素位置P11’がその対応点としてDPマッチング処理結果DPaによって特定されていた場合に、かかる画素位置P11の座標を図14に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。
仮想視点画像領域生成部30は、かかる画素位置P11、P11’に対応する仮想視点画像データIpna上の画素位置の座標(xt,yt)を、相対位置情報としてのm(≦1)に基づいて以下の式(13)により決定することができる。
For example, as illustrated in FIG. 14, each region virtual viewpoint image generation unit 30 performs DP matching processing on the pixel position P11 in the order corresponding image data Pe1c as the corresponding point with respect to the pixel position P11 in the order correspondence image data Pe1c. When it is specified by the result DPa, the coordinates of the pixel position P11 are (x1, y1) as shown in FIG. 14, and the coordinates of the pixel position P11 ′ are (x2, y2).
The virtual viewpoint image region generation unit 30 uses the coordinates (xt, yt) of the pixel position on the virtual viewpoint image data Ipna corresponding to the pixel positions P11 and P11 ′ based on m (≦ 1) as relative position information. It can be determined by the following equation (13).

[数13]
(xt,yt)=m×(x1,y1)+(1−m)×(x2,y2)
…(13)
[Equation 13]
(Xt, yt) = m × (x1, y1) + (1−m) × (x2, y2)
... (13)

また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、各領域仮想視点画像生成部30は、かかる仮想視点画像データIpna上の画素位置Phにおける輝度成分(仮想画素値)Ptを図15に示すように画像内挿(Interpolation)により決定することができる。   Further, when the luminance components at the pixel positions P11 and P11 ′ are J11 and J11 ′, the respective region virtual viewpoint image generation unit 30 calculates the luminance component (virtual pixel value) at the pixel position Ph on the virtual viewpoint image data Ipna. Pt can be determined by image interpolation as shown in FIG.

各領域仮想視点画像生成部30は、例えば、図15に示すように、図14に示す順番対応画像データPe1c,Pe2cの画素位置P11,P11’がオクリュージョン領域にあるか否かを基に、仮想視点画像データIpnaの画素位置Phの輝度成分(仮想画素値)Ptの計算式を切り換える。   For example, as shown in FIG. 15, each area virtual viewpoint image generation unit 30 is based on whether or not the pixel positions P11 and P11 ′ of the order-corresponding image data Pe1c and Pe2c shown in FIG. 14 are in the occlusion area. The formula for calculating the luminance component (virtual pixel value) Pt at the pixel position Ph of the virtual viewpoint image data Ipna is switched.

すなわち、図15に示すように、各領域仮想視点画像生成部30は、画素位置P11,P11’の双方がオクリュージョン領域にあるか否かを判断し(ステップST21)、オクリュージョン領域にないと判断すると、下記式式(14)により、輝度成分Ptを算出する(ステップST22)。   That is, as shown in FIG. 15, each area virtual viewpoint image generation unit 30 determines whether or not both of the pixel positions P11 and P11 ′ are in the occlusion area (step ST21), and enters the occlusion area. If not, the luminance component Pt is calculated by the following formula (14) (step ST22).

[数14]
Pt=m×J11+(1−m)×J11’
…(14)
[Formula 14]
Pt = m × J11 + (1−m) × J11 ′
... (14)

なお、各領域仮想視点画像生成部30は、図18に示すステップST17のステップST6(ST8)のDPマッチング処理の結果に基づいて、画素位置P11,P11’がオクリュージョン領域にあるか否かを判断する。   Each region virtual viewpoint image generation unit 30 determines whether or not the pixel positions P11 and P11 ′ are in the occlusion region based on the result of the DP matching process in step ST6 (ST8) in step ST17 shown in FIG. Judging.

各領域仮想視点画像生成部30は、ステップST22で、画素位置P11,P11’のいずれか一方がオクリュージョン領域にあると判断すると、ステップST23に進む。
そして、各領域仮想視点画像生成部30は、画素位置P11がオクリュージョン領域にあると判断すると、輝度成分Ptとして、画素位置P11’の輝度成分を用いる(ステップST25)。
一方、各領域仮想視点画像生成部30は、画素位置P11がオクリュージョン領域にないと判断すると、輝度成分Ptとして、画素位置P11の輝度成分を用いる(ステップST24)。
If each region virtual viewpoint image generation unit 30 determines in step ST22 that one of the pixel positions P11 and P11 ′ is in the occlusion region, the process proceeds to step ST23.
Then, when each region virtual viewpoint image generation unit 30 determines that the pixel position P11 is in the occlusion region, the luminance component at the pixel position P11 ′ is used as the luminance component Pt (step ST25).
On the other hand, if each area virtual viewpoint image generation unit 30 determines that the pixel position P11 is not in the occlusion area, the luminance component at the pixel position P11 is used as the luminance component Pt (step ST24).

本実施形態によれば、図15に示すように、画素位置P11,P11’の何れか一方がオクリュージョン領域にある場合には、仮想視点画像データIpnaの輝度成分Ptの算出に、そのオクリュージョン領域にある画素位置の輝度成分を用いずに、オクリュージョン領域にない画素位置の輝度成分のみを用いる。
これにより、高品質な仮想視点画像データIpnaを生成できる。
なお、図15に示す手法は、仮想視点画像データIpnaの生成の他に、各領域仮想視点画像生成部30において、非順番対応画像データPe1b,Pe2bを基に仮想視点画像データIpnbを生成する場合にも同様に適用できる。
According to the present embodiment, as shown in FIG. 15, when any one of the pixel positions P11 and P11 ′ is in the occlusion region, the occupancy is calculated for calculating the luminance component Pt of the virtual viewpoint image data Ipna. Only the luminance component at the pixel position not in the occlusion area is used without using the luminance component at the pixel position in the resolution area.
Thereby, high-quality virtual viewpoint image data Ipna can be generated.
In the method shown in FIG. 15, in addition to the generation of the virtual viewpoint image data Ipna, each region virtual viewpoint image generation unit 30 generates the virtual viewpoint image data Ipnb based on the non-order corresponding image data Pe1b and Pe2b. The same applies to the above.

仮想視点画像領域生成部30は、上記式(14)に示すように、仮想視点画像データIpnaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。
ここでmは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、図17に示すように、上記式(13)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像データIpna上に表示させるユーザaの位置を自在に変化させることができる。
The virtual viewpoint image region generation unit 30 can determine the coordinates of each pixel constituting the virtual viewpoint image data Ipna and its luminance component according to m as the relative position information, as shown in the above equation (14). it can.
Here, m decreases as the virtual viewpoint in the virtual camera approaches the camera 11a, and increases as the virtual viewpoint approaches the camera 12a.
For this reason, as shown in FIG. 17, the coordinates (xt, yt) determined based on the above equation (13) approach the coordinates (x1, y1) of the pixel position P11 as the virtual viewpoint approaches the camera 11a. Further, as the virtual viewpoint approaches the camera 12a, it approaches the coordinates (x2, y2) of the pixel position P12. That is, since the coordinates (xt, yt) can be freely determined according to the position of the virtual camera, the position of the user a displayed on the virtual viewpoint image data Ipna can be freely changed.

また、上記式(14)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ipna上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、順番対応画像データPe1c上にある画素位置P11と、これに対応する順番対応画像データPe2c上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像データIpna上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想視点画像データIpnaは、上述したマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。
The luminance component Pt determined based on the above formula (14) approaches the luminance component J11 at the pixel position P11 as the virtual viewpoint approaches the camera 11a, and the luminance at the pixel position P11 ′ as the virtual viewpoint approaches the camera 12a. The component J11 ′ is approached. That is, the pixels constituting the user a on the virtual viewpoint image Ipna can be brought close to the luminance component J11 or the luminance component J11 ′ according to the position of the virtual camera.
In particular, since the shooting directions of the camera 11a and the camera 12a are different from each other, the luminance between the pixel position P11 on the order-corresponding image data Pe1c and the corresponding pixel position P11 ′ on the order-corresponding image data Pe2c. The ingredients are different from each other. Depending on the position of the virtual camera by linearly increasing or decreasing the luminance component Pt according to m as the relative position information so that one of the different luminance components is the minimum value and the other is the maximum value. Thus, it is possible to determine the luminance component of the pixels constituting the user a displayed on the virtual viewpoint image data Ipna. Further, since the generated virtual viewpoint image data Ipna is generated based on the relationship associated with the matching unit 29 described above, it is possible to further reduce image quality deterioration of the obtained image.

上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像データIpnaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた順番対応画像データPe1a,Pe2aに対して、常時正面を向いている状態となる。
このようにして生成された仮想視点画像データIpnaは、仮想視点画像生成部31へ送られていくことになる。
By sequentially determining the coordinates (xt, yt) and the luminance component Pt at the pixel position Ph as described above, the generated virtual viewpoint image data Ipna has the gaze direction, the face direction, etc. of the user a to be displayed. The order-corresponding image data Pe1a and Pe2a which are different from each other are always facing the front.
The virtual viewpoint image data Ipna generated in this way is sent to the virtual viewpoint image generation unit 31.

また、各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、上述した仮想視点画像データIpnaの生成と同様に、仮想視点非順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。   Each region virtual viewpoint image generation unit 30 generates the above-described virtual viewpoint image data Ipna based on the unordered correspondence image data Pe1b and Pe2b input from the DP matching processing unit 29 and the DP matching processing result DPb. Similarly, the virtual viewpoint non-order corresponding image data Ipnb is generated and output to the virtual viewpoint image generating unit 31.

[仮想視点画像生成部31]
仮想視点画像生成部31は、図16に示すように、仮想視点画像データIpnaとIpnbとを合成して仮想視点画像データImaを生成する。
仮想視点画像生成部31は、上記仮想視点画像データImaをネットワーク7を介して、他の画像処理装置2bに出力する。
ここで、仮想視点画像データImaは、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を表示するデータである。これにより、図1に示すユーザaとbとが、視線を一致させた状態でディスプレイ5a,5bを介して対面しながら対話ができる。
[Virtual viewpoint image generation unit 31]
As shown in FIG. 16, the virtual viewpoint image generation unit 31 combines the virtual viewpoint image data Ipna and Ipnb to generate virtual viewpoint image data Ima.
The virtual viewpoint image generation unit 31 outputs the virtual viewpoint image data Ima to the other image processing device 2b via the network 7.
Here, the virtual viewpoint image data Ima is data for displaying an image as if captured by a virtual camera installed near the center of the screen. As a result, the users a and b shown in FIG. 1 can interact with each other through the displays 5a and 5b with their lines of sight matched.

[動作例]
以下、図1に示す画像処理装置2aの動作例を説明する。
図18は、図1に示す画像処理装置2aの動作例を説明するためのフローチャートである。
ステップST1:
画像並行化処理部20が、カメラ11a、12aから入力した画像データPa1,Pa2に画像補正処理および正規化処理を施して、正規化画像データPm1,Pm2を生成し、非順番対応領域検出部27に出力する。
このとき、画像並行化処理部20は、キャリブレーション部26から入力したカメラ11a、12aのレンズ歪みや画像中心等のパラメータを基に上記画像補正処理を行う。
[Operation example]
Hereinafter, an operation example of the image processing apparatus 2a illustrated in FIG. 1 will be described.
FIG. 18 is a flowchart for explaining an operation example of the image processing apparatus 2a shown in FIG.
Step ST1:
The image parallel processing unit 20 performs image correction processing and normalization processing on the image data Pa1 and Pa2 input from the cameras 11a and 12a to generate normalized image data Pm1 and Pm2, and the non-order corresponding region detection unit 27 Output to.
At this time, the image parallelization processing unit 20 performs the image correction processing based on parameters such as lens distortion and image center of the cameras 11 a and 12 a input from the calibration unit 26.

ステップST2:
非順番対応領域検出部27は、図4に示すように、正規化画像データPm1,Pm2から背景画像データPk1、Pk2を除去して前景画像データPf1、Pf2を生成する。
このように、背景画像を除去することで、背景画像の影響を軽減した効率的なマッチング処理を行うことができる。
Step ST2:
As shown in FIG. 4, the non-order corresponding region detection unit 27 removes the background image data Pk1 and Pk2 from the normalized image data Pm1 and Pm2, and generates foreground image data Pf1 and Pf2.
In this manner, by removing the background image, it is possible to perform an efficient matching process that reduces the influence of the background image.

ステップST3:
非順番対応領域検出部27は、順番対応拘束がないステレオマッチング手法により、前景画像データPf1、Pf2を基に、視差マップデータDm1,Dm2を生成(推定)する。
本実施形態では、順番対応拘束がないステレオマッチング手法として、エリアベースマッチング手法などが用いられる。
Step ST3:
The non-order corresponding region detection unit 27 generates (estimates) the parallax map data Dm1 and Dm2 based on the foreground image data Pf1 and Pf2 by a stereo matching method without order correspondence constraint.
In the present embodiment, an area-based matching method or the like is used as a stereo matching method with no order correspondence constraint.

ステップST4:
非順番対応領域検出部27は、視差マップデータDm1,Dm2の各々について、当該データを構成する画素データを、所定のしきい値以上の画素データ(手前の画素データ)と、上記しきい値未満の画素データとに分類する。
そして、非順番対応領域検出部27は、上記しきい値以上の画素データによって構成される非順番対応領域視差データを生成する。
例えば、非順番対応領域検出部27は、図5に示すように、視差マップデータDm1,Dm2から、それぞれ非順番対応領域視差データCL1、CL2を生成する。
非順番対応領域検出部27は、前景画像データPf1、Pf2と、非順番対応領域視差データCL1、CL2とを非順番対応領域分離部28に出力する。
非順番対応領域分離部28は、図5に示すように、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から非順番対応画像データPe1b、Pe2bを抽出し、これをDPマッチング処理部29に出力する。
また、非順番対応領域分離部28は、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から順番対応画像データを抽出する。
そして、非順番対応領域分離部28は、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これをDPマッチング処理部29に出力する。
Step ST4:
For each of the parallax map data Dm1 and Dm2, the non-order corresponding region detection unit 27 sets pixel data constituting the data to pixel data (previous pixel data) that is equal to or greater than a predetermined threshold value and less than the threshold value. And pixel data.
Then, the non-order-corresponding region detection unit 27 generates non-order-corresponding region parallax data composed of pixel data equal to or greater than the threshold value.
For example, as shown in FIG. 5, the non-order corresponding area detection unit 27 generates non-order corresponding area parallax data CL1 and CL2 from the parallax map data Dm1 and Dm2, respectively.
The non-order corresponding region detection unit 27 outputs the foreground image data Pf1 and Pf2 and the non-order corresponding region parallax data CL1 and CL2 to the non-order corresponding region separation unit 28.
As shown in FIG. 5, the non-order corresponding region separation unit 28 extracts non-order corresponding image data Pe1b and Pe2b from the foreground image data Pf1 and Pf2 based on the non-order corresponding region parallax data CL1 and CL2. The data is output to the DP matching processing unit 29.
Further, the non-order corresponding region separation unit 28 extracts the order corresponding image data from the foreground image data Pf1 and Pf2 based on the non-order corresponding region parallax data CL1 and CL2.
Then, as shown in FIG. 6, the non-order-corresponding region separation unit 28 replaces (labels) the order-corresponding image data Pe1a in the extracted order-corresponding image data with a label image. , Pe2a is generated and output to the DP matching processing unit 29.

ステップST5:
DPマッチング処理部29では、図6および図10に示すように、人物領域の対称性を用いてラベル付けされた順番対応画像データPe1a,Pe2aのラベル修正処理を行い、修正順番対応画像データPe1c,Pe2cを生成する。
Step ST5:
As shown in FIGS. 6 and 10, the DP matching processing unit 29 performs label correction processing on the order-corresponding image data Pe1a and Pe2a labeled using the symmetry of the person region, and the correction order-corresponding image data Pe1c, Generate Pe2c.

ステップST6:
DPマッチング処理部29は、上記式(1)〜(12)に示すコスト計算により、修正順番対応画像データPe1cとPe2cとの間のDPマッチング処理を行ってDPマッチング処理結果DPaを生成し、これを各領域仮想視点画像生成部30に出力する。
ここで、DPマッチング処理部29は、上記式(11),(12)により、ラベル領域について、それ以外の領域とは別のコスト計算を行う。すなわち、DPマッチング処理部29は、ラベル領域については、画像データPe1cとPe2cとの対応点の双方がオクリュージョン領域に存在しないことを条件に、その対応点の画素値を用いて、その他の領域と同様にマッチングコストを算出するが、上記条件を満たさない場合には、マッチングコストを予め決めた一定(固定)値とする。
また、DPマッチング処理部29は、修正順番対応画像データPe1c,Pe2cを各領域仮想視点画像生成部30に出力する。
Step ST6:
The DP matching processing unit 29 performs DP matching processing between the correction order corresponding image data Pe1c and Pe2c by the cost calculation shown in the above formulas (1) to (12), and generates a DP matching processing result DPa. Are output to each region virtual viewpoint image generation unit 30.
Here, the DP matching processing unit 29 performs a cost calculation for the label area different from the other areas by the above formulas (11) and (12). That is, for the label area, the DP matching processing unit 29 uses the pixel values of the corresponding points on the condition that both of the corresponding points of the image data Pe1c and Pe2c do not exist in the occlusion area. The matching cost is calculated in the same manner as the region, but if the above condition is not satisfied, the matching cost is set to a predetermined (fixed) value.
In addition, the DP matching processing unit 29 outputs the correction order correspondence image data Pe1c and Pe2c to each region virtual viewpoint image generation unit 30.

ステップST7:
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1a,Pe2aと、そのDPマッチング処理結果DPaとを基に、例えば、図15に示す手順で、仮想視点順番対応画像データIpnaを生成し、これを仮想視点画像生成部31に出力する。
Step ST7:
Each region virtual viewpoint image generation unit 30 performs the virtual viewpoint order by, for example, the procedure shown in FIG. 15 based on the order correspondence image data Pe1a and Pe2a input from the DP matching processing unit 29 and the DP matching processing result DPa. Corresponding image data Ipna is generated and output to the virtual viewpoint image generating unit 31.

ステップST8:
DPマッチング処理部29は、上記式(1)〜(10)に示すコスト計算により、修正順番対応画像データPe1bとPe2bとの間のDPマッチング処理を行ってDPマッチング処理結果DPbを生成し、これを各領域仮想視点画像生成部30に出力する。
また、DPマッチング処理部29は、修正順番対応画像データPe1b,Pe2bを各領域仮想視点画像生成部30に出力する。
Step ST8:
The DP matching processing unit 29 performs DP matching processing between the correction order corresponding image data Pe1b and Pe2b by the cost calculation shown in the above formulas (1) to (10), and generates a DP matching processing result DPb. Are output to each region virtual viewpoint image generation unit 30.
In addition, the DP matching processing unit 29 outputs the correction order corresponding image data Pe1b and Pe2b to each region virtual viewpoint image generation unit 30.

ステップST9:
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、例えば、図15に示す手順で、仮想視点順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。
Step ST9:
Each region virtual viewpoint image generation unit 30 performs the virtual viewpoint order, for example, in the procedure shown in FIG. 15 based on the order correspondence image data Pe1b and Pe2b input from the DP matching processing unit 29 and the DP matching processing result DPb. Corresponding image data Ipnb is generated and output to the virtual viewpoint image generation unit 31.

仮想視点画像生成部31は、図16に示すように、各領域仮想視点画像生成部30から入力した仮想視点画像データIpnaとIpnbとを合成して仮想視点画像データImaを生成する。   As illustrated in FIG. 16, the virtual viewpoint image generation unit 31 combines the virtual viewpoint image data Ipna and Ipnb input from each region virtual viewpoint image generation unit 30 to generate virtual viewpoint image data Ima.

[効果]
以上説明したように、画像処理装置2aでは、図15に示すように、画素位置P11,P11’の何れか一方がオクリュージョン領域にある場合には、仮想視点画像データIpnaの輝度成分Ptの算出に、そのオクリュージョン領域にある画素位置の輝度成分を用いずに、オクリュージョン領域にない画素位置の輝度成分のみを用いる。
これにより、高品質な仮想視点画像データIpnaを生成できる。
なお、図15に示す手法は、仮想視点画像データIpnaの生成の他に、各領域仮想視点画像生成部30において、非順番対応画像データPe1b,Pe2bを基に仮想視点画像データIpnbを生成する場合にも同様に適用できる。
[effect]
As described above, in the image processing apparatus 2a, as shown in FIG. 15, when one of the pixel positions P11 and P11 ′ is in the occlusion area, the luminance component Pt of the virtual viewpoint image data Ipna is For the calculation, only the luminance component at the pixel position not in the occlusion area is used without using the luminance component at the pixel position in the occlusion area.
Thereby, high-quality virtual viewpoint image data Ipna can be generated.
In the method shown in FIG. 15, in addition to the generation of the virtual viewpoint image data Ipna, each region virtual viewpoint image generation unit 30 generates the virtual viewpoint image data Ipnb based on the non-order corresponding image data Pe1b and Pe2b. The same applies to the above.

また、画像処理装置2aでは、撮像画像を、順番対応拘束を満たす順番対応画像データPe1a,Pe2aと、満たさない非順番対応画像データPe1b,Pe2bとに分離してDPマッチングすることで、それぞれについて正確にマッチング処理を行うことができる。
また、画像処理装置2aでは上記分離した順番対応画像データPe1a,Pe2aと非順番対応画像データPe1b,Pe2bとのそれぞれについて生成した仮想視点画像データIpna,Ipnbを合成することで、正確な仮想視点画像データImaを生成できる。
In the image processing device 2a, the captured image is separated into the order-corresponding image data Pe1a and Pe2a that satisfy the order-corresponding constraint and the non-order-corresponding image data Pe1b and Pe2b that do not satisfy the DP matching. The matching process can be performed.
Further, the image processing apparatus 2a combines the virtual viewpoint image data Ipna and Ipnb generated for the separated order-corresponding image data Pe1a and Pe2a and the non-order-corresponding image data Pe1b and Pe2b, respectively, thereby obtaining an accurate virtual viewpoint image. Data Ima can be generated.

また。画像処理装置2aでは、非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これを用いて、ラベル画像部分について上記式(11),(12)の関数を用いてDPマッチング処理を行う。これにより、順番対応画像データについて正確なマッチング処理が可能になる。   Also. The image processing apparatus 2a generates order-corresponding image data Pe1a and Pe2a in which the part of the non-order-corresponding image data is replaced (labeled) with the label image, and using this, the above-described formula (11), DP matching processing is performed using the function of (12). Thereby, accurate matching processing can be performed for the order-corresponding image data.

特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
In particular, in this communication system 1, it is sufficient to arrange at least two cameras 11 and 12 on both sides of the display 5, and it is not necessary to extract 3D information of the subject each time, so that the entire system becomes complicated. There is also an advantage of eliminating.
Further, in the communication system 1, it is not necessary to use a special device such as a half mirror, a hologram screen, or a projector, and a simple and inexpensive system can be configured.

本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
例えば、図2に示す画像処理装置2aの全てあるいは一部の構成あるいはステップを、それを行う専用のハードウェアとして実現してもよい。
また、画像処理装置2aは、例えば、図19に示すように、バス120を介して、インタフェース121、メモリ122および処理回路123を接続した画像処理装置102として実現してもよい。
この場合には、処理回路123は、メモリ122からプログラムPRGを読み出して、図15および図18に示す各ステップを実行する。
このとき、処理回路123は、図15および図18に示す各ステップの処理で得られる中間データを適宜メモリ122やその他のバッファメモリに記憶し、必要に応じて読み出して処理に用いる。
なお、メモリ122は、半導体メモリや、光ディスク、磁気ディスク、光磁気ディスクなどの記録媒体である。
The present invention is not limited to the embodiment described above.
That is, those skilled in the art may make various modifications, combinations, subcombinations, and alternatives regarding the components of the above-described embodiments within the technical scope of the present invention or an equivalent scope thereof.
For example, all or a part of the configuration or steps of the image processing apparatus 2a shown in FIG. 2 may be realized as dedicated hardware for performing it.
Further, for example, as illustrated in FIG. 19, the image processing device 2 a may be realized as an image processing device 102 in which an interface 121, a memory 122, and a processing circuit 123 are connected via a bus 120.
In this case, the processing circuit 123 reads the program PRG from the memory 122 and executes the steps shown in FIGS. 15 and 18.
At this time, the processing circuit 123 appropriately stores the intermediate data obtained by the processing of each step shown in FIGS. 15 and 18 in the memory 122 or other buffer memory, and reads it out as necessary for use in the processing.
The memory 122 is a recording medium such as a semiconductor memory, an optical disk, a magnetic disk, or a magneto-optical disk.

図1は、本発明の第1実施形態の通信システムの概略を示す図である。FIG. 1 is a diagram showing an outline of a communication system according to a first embodiment of the present invention. 図2は、図1に示す画像処理装置の構成図である。FIG. 2 is a block diagram of the image processing apparatus shown in FIG. 図3は、図1に示す各画像Pa1,Pa2の法線方向を合わせる正規化につき説明するための図である。FIG. 3 is a diagram for explaining normalization for matching the normal directions of the images Pa1 and Pa2 shown in FIG. 図4は、図1に示す非順番対応領域検出部が行う背景画像の削除を説明するための図である。FIG. 4 is a diagram for explaining background image deletion performed by the non-order corresponding region detection unit illustrated in FIG. 1. 図5は、図2に示す画像処理装置における視差マップデータDm1,Dm2の生成処理を説明するための図である。FIG. 5 is a diagram for explaining the generation processing of the parallax map data Dm1 and Dm2 in the image processing apparatus shown in FIG. 図6は、図2に示す非順番対応領域分離部が行うラベル処理を説明するための図である。FIG. 6 is a diagram for explaining the label processing performed by the non-order corresponding region separating unit shown in FIG. 図7は、図6に示すラベル処理の効果を説明するための図である。FIG. 7 is a diagram for explaining the effect of the label processing shown in FIG. 図8は、本実施形態の関連技術の問題点を説明するための図である。FIG. 8 is a diagram for explaining problems of the related technology of the present embodiment. 図9は、本実施形態の関連技術の問題点を説明するための図である。FIG. 9 is a diagram for explaining a problem of the related technology of the present embodiment. 図10は、順番対応画像データ内のラベルの修正処-理を説明するための図である。FIG. 10 is a diagram for explaining a process for correcting a label in order-corresponding image data. 図11は、DPマッチング処理を説明するための図である。FIG. 11 is a diagram for explaining the DP matching processing. 図12は、DPマッチング処理を説明するための図である。FIG. 12 is a diagram for explaining the DP matching processing. 図13は、DPマッチング処理を説明するための図である。FIG. 13 is a diagram for explaining the DP matching processing. 図14は、図2に示す各領域仮想視点画像生成部が行う仮想視点画像データの生成処理を説明するための図である。FIG. 14 is a diagram for explaining virtual viewpoint image data generation processing performed by each region virtual viewpoint image generation unit illustrated in FIG. 2. 図15は、図2に示す各領域仮想視点画像生成部が行う仮想視点画像データの生成処理のフローチャートである。FIG. 15 is a flowchart of virtual viewpoint image data generation processing performed by each region virtual viewpoint image generation unit illustrated in FIG. 2. 図16は、図2に示す仮想視点画像生成部の処理を説明するための図である。FIG. 16 is a diagram for explaining processing of the virtual viewpoint image generation unit illustrated in FIG. 図17は、仮想視点に応じた仮想視点画像データを説明するための図である。FIG. 17 is a diagram for explaining virtual viewpoint image data corresponding to a virtual viewpoint. 図18は、図2に示す画像処理装置の動作例を説明するためのフローチャートである。FIG. 18 is a flowchart for explaining an operation example of the image processing apparatus shown in FIG. 図19は、図1に示す画像処理装置の変形例を説明するための図である。FIG. 19 is a diagram for explaining a modification of the image processing apparatus shown in FIG. 図20は、ステレオ画像処理の問題点を説明するための図である。FIG. 20 is a diagram for explaining a problem of stereo image processing.

符号の説明Explanation of symbols

1…通信システム、2a,2b…画像処理装置、11a,11b…カメラ、20…画像並行化処理部、26…キャリブレーション部、27…非順番対応領域検出部、28…非順番対応領域分離部、29…DPマッチング処理部、30…各領域仮想視点画像生成部、31…仮想視点画像生成部
DESCRIPTION OF SYMBOLS 1 ... Communication system, 2a, 2b ... Image processing apparatus, 11a, 11b ... Camera, 20 ... Image parallelization process part, 26 ... Calibration part, 27 ... Unorder corresponding | compatible area | region detection part, 28 ... Unorder corresponding | compatible area | region separation part , 29 ... DP matching processing unit, 30 ... each region virtual viewpoint image generation unit, 31 ... virtual viewpoint image generation unit

Claims (5)

複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の工程と、
前記第1の工程で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の工程と、
前記複数の画像の前記第2の工程で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うの工程と、
前記第の工程のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第の工程と、
前記第の工程の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第の工程と、
を有し、
前記第5の工程は、
前記第4の工程の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記第4の工程の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の工程で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
画像処理方法。
For each of the plurality of images, a first step of generating parallax data by a matching method without order correspondence constraint;
Based on the parallax data generated in the first step, for each of the plurality of images, a second image that separates the image into a non-order-corresponding image whose parallax is greater than or equal to a reference and other order-corresponding images Process,
A third step of individually performing a matching process on the order-corresponding image and the non-order-corresponding image separated in the second step of the plurality of images by a matching method having the order correspondence constraint ;
A fourth step of determining whether or not a plurality of pixels associated in the matching process of the third step exist in the occlusion region;
Based on the determination result of the fourth step, a virtual value corresponding to the plurality of pixels in the virtual viewpoint image is obtained using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. A fifth step of generating pixel values;
I have a,
The fifth step includes
Based on the determination result of the fourth step, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. ,
Based on the determination result of the fourth step, when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region, the separation is performed in the second step. For at least one of the order-corresponding image and the non-order-corresponding image, corresponding to the two pixels in the virtual viewpoint image using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels. An image processing method for generating a virtual pixel value .
前記順番対応画像の前記仮想視点画像と、前記非順番対応画像の前記仮想視点画像とを合成する第6の工程
をさらに有する請求項に記載の画像処理方法。
The image processing method according to claim 1 , further comprising: a sixth step of synthesizing the virtual viewpoint image of the order-corresponding image and the virtual viewpoint image of the non-order-corresponding image.
前記第の工程で分離した前記順番対応画像内の前記非順番対応画像に対応する部分を一定の画素値を示すラベル画像に書き換えるラベル処理を行う第7の工程
をさらに有し、
前記第の工程は、
前記複数の画像のエピポーラ線上に沿った画素の順で、前記2つの画像の前記第7の工程で前記ラベル処理された前記順番対応画像について、その画素間の画素値の差分に応じたコストの累積値を最小にする前記画素間の対応付けを探索し、
前記対応付けの対象となる前記2つの画素のうち少なくとも一方がオクリュージョン領域に位置する場合に前記コストを一定値とし、そうでない場合に前記2つの画素の前記画素値の差分に応じて前記コストを算出する
請求項に記載の画像処理方法。
A seventh step of performing a label process of rewriting a portion corresponding to the non-order-corresponding image in the order-corresponding image separated in the second step into a label image indicating a certain pixel value;
The third step includes
In the order of the pixels along the epipolar lines of the plurality of images, the cost corresponding to the difference in pixel values between the pixels of the order-corresponding images that have been subjected to the label processing in the seventh step of the two images. Searching for a correspondence between the pixels that minimizes the cumulative value;
The cost is set to a constant value when at least one of the two pixels to be matched is located in an occlusion area, and otherwise, the cost is determined according to the difference between the pixel values of the two pixels. The image processing method according to claim 2 , wherein the cost is calculated.
複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成し、当該視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する分離手段と、
前記複数の画像の前記分離手段が分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うマッチング手段と、
前記マッチング手段のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する判断手段と、
前記判断手段の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する生成手段と、
を有し、
前記生成手段は、
前記判断手段の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記判断手段の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記分離手段が分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
画像処理装置。
For each of the plurality of images, disparity data is generated by a matching method without order correspondence constraint, and based on the disparity data, for each of the plurality of images, the image is a non-order correspondence image with a parallax equal to or higher than a reference, Separation means for separating into other order-corresponding images,
A matching unit that individually performs a matching process on the order-corresponding image and the non-order-corresponding image separated by the separating unit of the plurality of images by a matching method having the order-corresponding constraint ;
Determining means for determining whether or not a plurality of pixels associated in the matching process of the matching means exist in an occlusion region;
Based on the determination result of the determination unit, a virtual pixel value corresponding to the plurality of pixels in the virtual viewpoint image using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. Generating means for generating
I have a,
The generating means includes
Based on the determination result of the determination means, when both of the two associated pixels do not exist in the occlusion area, the virtual pixel value is generated using the pixel value of the two pixels,
Based on the determination result of the determination unit, when one of the two pixels exists in the occlusion region and the other does not exist in the occlusion region, the order correspondence image separated by the separation unit and For at least one of the unordered images, a virtual pixel value corresponding to the two pixels in the virtual viewpoint image using a pixel value of a pixel that does not exist in the occlusion area among the two associated pixels An image processing apparatus for generating
画像処理装置が有するコンピュータの実行するプログラムであって、
複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の手順と、
前記第1の手順で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の手順と、
前記複数の画像の前記第2の手順で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うの手順と、
前記第の手順のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第の手順と、
前記第の手順の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第の手順と、
を前記コンピュータに実行させ
前記第5の手順において、
前記第4の手順の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記第4の手順の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の手順で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
プログラム。
A program executed by a computer included in an image processing apparatus ,
For each of the plurality of images, a first procedure for generating parallax data by a matching method without order correspondence constraint;
Based on the parallax data generated in the first procedure, for each of the plurality of images, a second image that separates the image into a non-order-corresponding image whose parallax is equal to or higher than a reference and other order-corresponding images Procedure and
A third step of performing a matching process individually by the plurality of the said order corresponding images and non-order corresponding image separated in the second step of the image, matching technique has the sequence corresponding restraint,
A fourth procedure for determining whether or not a plurality of pixels associated in the matching process of the third procedure exist in the occlusion region;
Based on the determination result of the fourth procedure, a virtual value corresponding to the plurality of pixels in the virtual viewpoint image is obtained using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. A fifth procedure for generating pixel values;
To the computer ,
In the fifth procedure,
Based on the determination result of the fourth procedure, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. ,
Based on the determination result of the fourth procedure, when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region, the separation is performed in the second procedure. For at least one of the order-corresponding image and the non-order-corresponding image, corresponding to the two pixels in the virtual viewpoint image using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels. A program that generates virtual pixel values .
JP2005101924A 2005-03-31 2005-03-31 Image processing method, apparatus and program Expired - Fee Related JP4617965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005101924A JP4617965B2 (en) 2005-03-31 2005-03-31 Image processing method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005101924A JP4617965B2 (en) 2005-03-31 2005-03-31 Image processing method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2006285415A JP2006285415A (en) 2006-10-19
JP4617965B2 true JP4617965B2 (en) 2011-01-26

Family

ID=37407309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005101924A Expired - Fee Related JP4617965B2 (en) 2005-03-31 2005-03-31 Image processing method, apparatus and program

Country Status (1)

Country Link
JP (1) JP4617965B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4852591B2 (en) * 2008-11-27 2012-01-11 富士フイルム株式会社 Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus
JP5182229B2 (en) * 2009-06-02 2013-04-17 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5202448B2 (en) * 2009-06-17 2013-06-05 シャープ株式会社 Image processing system and method
JP2011044828A (en) * 2009-08-19 2011-03-03 Fujifilm Corp Stereoscopic image generator, stereoscopic image printing device, and stereoscopic image generation method
JP4939639B2 (en) * 2010-09-28 2012-05-30 シャープ株式会社 Image processing apparatus, image processing method, program, and recording medium
JP2012022716A (en) * 2011-10-21 2012-02-02 Fujifilm Corp Apparatus, method and program for processing three-dimensional image, and three-dimensional imaging apparatus
US10846916B2 (en) 2015-12-01 2020-11-24 Sony Corporation Image processing apparatus and image processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180121A (en) * 1998-12-18 2000-06-30 Sony Corp Processor and method for image processing and provision medium
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2000322576A (en) * 1999-05-11 2000-11-24 Toshiba Corp Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2001184497A (en) * 1999-10-14 2001-07-06 Komatsu Ltd Stereo image processor and recording medium
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2001283201A (en) * 2000-03-31 2001-10-12 Toshiba Corp Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH033080A (en) * 1989-05-31 1991-01-09 Fujitsu Ltd Corresponding preprocessing system based upon image construction
JP2888108B2 (en) * 1993-09-29 1999-05-10 凸版印刷株式会社 Parallax image creation method and device
JPH07274063A (en) * 1994-03-29 1995-10-20 Canon Inc Method and device for processing picture
JP3054312B2 (en) * 1994-04-22 2000-06-19 キヤノン株式会社 Image processing apparatus and method
US6046763A (en) * 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180121A (en) * 1998-12-18 2000-06-30 Sony Corp Processor and method for image processing and provision medium
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image
JP2000322576A (en) * 1999-05-11 2000-11-24 Toshiba Corp Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data
JP2001052177A (en) * 1999-08-11 2001-02-23 Univ Waseda Image processor and method for processing image
JP2001184497A (en) * 1999-10-14 2001-07-06 Komatsu Ltd Stereo image processor and recording medium
JP2001208522A (en) * 2000-01-24 2001-08-03 Sony Corp Distance image generator, distance image generation method and program supply medium
JP2001283201A (en) * 2000-03-31 2001-10-12 Toshiba Corp Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Also Published As

Publication number Publication date
JP2006285415A (en) 2006-10-19

Similar Documents

Publication Publication Date Title
JP4069855B2 (en) Image processing apparatus and method
JP2006114023A (en) Image processing device and method
CN104685513B (en) According to the high-resolution estimation of the feature based of the low-resolution image caught using array source
JP4617965B2 (en) Image processing method, apparatus and program
US8345961B2 (en) Image stitching method and apparatus
US20110080466A1 (en) Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
Hedborg et al. Structure and motion estimation from rolling shutter video
WO2020007320A1 (en) Method for fusing multi-visual angle images, apparatus, computer device, and storage medium
CN106981078B (en) Sight line correction method and device, intelligent conference terminal and storage medium
EP2064675A1 (en) Method for determining a depth map from images, device for determining a depth map
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
US11068699B2 (en) Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
KR101933037B1 (en) Apparatus for reproducing 360 degrees video images for virtual reality
JP2011060282A (en) Method and system for motion detection using nonlinear smoothing of motion field
JP4461739B2 (en) Imaging device
Placitelli et al. Low-cost augmented reality systems via 3D point cloud sensors
Schreer et al. 3dpresence-a system concept for multi-user and multi-party immersive 3d videoconferencing
JP2004193962A (en) Image communication equipment, image communication method, and computer program
JP2006024141A (en) Image processor and image processing method and program
US20230005213A1 (en) Imaging apparatus, imaging method, and program
JP2005142765A (en) Apparatus and method for imaging
Chen et al. Making in‐Front‐of Cars Transparent: Sharing First‐Person‐Views via Dashcam
JP2005174148A (en) Image pickup device and method, and image pickup system
Dumont et al. A Prototype for Practical Eye-Gaze Corrected Video Chat on Graphics Hardware.
JP2006285414A (en) Image processing method, device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees