JP4617965B2 - Image processing method, apparatus and program - Google Patents
Image processing method, apparatus and program Download PDFInfo
- Publication number
- JP4617965B2 JP4617965B2 JP2005101924A JP2005101924A JP4617965B2 JP 4617965 B2 JP4617965 B2 JP 4617965B2 JP 2005101924 A JP2005101924 A JP 2005101924A JP 2005101924 A JP2005101924 A JP 2005101924A JP 4617965 B2 JP4617965 B2 JP 4617965B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- order
- pixels
- images
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、ステレオ画像のマッチング処理を行う画像処理方法、その装置およびプログラムに関する。 The present invention relates to an image processing method, apparatus and program for performing stereo image matching processing.
複数の撮像画像から実際に存在しない視点位置(仮想視点)での仮想カメラ視点映像を生成するために、画像間マッチング技術が不可欠である。このような画像間の対応付け技術は、「ステレオ視」における最も重要でかつ難しい問題の一つである。
例えば、その最も基本的な構成である2台のカメラによるステレオ視の対応付けを考える。一方の画像上にある点に対して、その対応点は、別の視点で観測された他方の画像内のある直線上に存在する。一般に、この直線L 1’をエピポーラライン(Epipolar Line)と呼ぶ。従来、よく使われている「対応点付け」の手法としては、Pixel-based マッチング、Area-based マッチング、Feature-based マッチングがある。
Pixel-based マッチングでは一方の画像における点の対応を、他方の画像でそのまま探索する(非特許文献1)。Area-based マッチングでは、一方の画像における点の対応を、他方の画像で探す時、その点の周りの局所的な画像パターンを用いて探索する(非特許文献2、3)。Feature-based マッチングでは、画像から濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用いて対応付けを行う(非特許文献4、5)。これらの手法は、基本的に基準カメラ画像上のある画素Pa(x,y)に対して、他方のカメラ画像に対応するエピポーラ線上を探索し、最も相似性の高い画素を対応点とする。
そして、仮想視点の位置に応じた割合で2つの対応点の画素の画素値を混合して仮想視点画像を生成する。
For example, let us consider the correspondence of stereo vision by two cameras, which is the most basic configuration. For a point on one image, the corresponding point is on a straight line in the other image observed from another viewpoint. In general, this straight line L1 ′ is referred to as an epipolar line. Conventionally, “corresponding point matching” methods that are often used include pixel-based matching, area-based matching, and feature-based matching.
In pixel-based matching, the correspondence between points in one image is searched for in the other image as it is (Non-patent Document 1). In area-based matching, when searching for the correspondence of a point in one image in the other image, a search is performed using a local image pattern around the point (
Then, the virtual viewpoint image is generated by mixing the pixel values of the pixels of the two corresponding points at a ratio according to the position of the virtual viewpoint.
ところで、従来では、図20に示すように、マッチング処理により対応付けられた対応点がオクリュージョン領域にある場合に、仮想視点画像が劣化してしまうという問題がある。 Conventionally, as shown in FIG. 20, there is a problem that the virtual viewpoint image is deteriorated when the corresponding point associated by the matching process is in the occlusion area.
本発明は上述した従来技術の問題点に鑑みてなされ、オクリュージョン領域がある場合でも、高品質な仮想視点画像を生成できる画像処理方法、その装置およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an image processing method, an apparatus, and a program for generating a high-quality virtual viewpoint image even when there is an occlusion area.
第1の発明の画像処理方法は、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の工程と、前記第1の工程で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の工程と、前記複数の画像の前記第2の工程で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行う第3の工程と、前記第3の工程のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第4の工程と、前記第4の工程の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第5の工程と、を有し、前記第5の工程は、前記第4の工程の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記第4の工程の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の工程で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する。 The image processing method of the light first emitting, for each of the plurality of images, based on a first step of generating the parallax data without matching method of sequentially corresponding constraint, the parallax data generated in the first step In addition, for each of the plurality of images, a second step of separating the image into a non-order-corresponding image whose parallax is greater than or equal to a reference and other order-corresponding images, and the second step of the plurality of images more in a separate said order corresponding images and non-sequentially corresponding image, a third step of performing individual matching process by the matching technique has the sequence corresponding restraint, associated with the matching processing of the third step A fourth step of determining whether or not a pixel of the pixel exists in the occlusion region, and based on the determination result of the fourth step, the pixel is present in the occlusion region of the plurality of associated pixels Do not pixel Using pixel values, possess a fifth step of generating a virtual pixel values corresponding to the plurality of pixels in the virtual viewpoint image, the said fifth step, the determination result of the fourth step Based on the determination result of the fourth step, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. The order-corresponding image and the non-order-corresponding image separated in the second step when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region. For at least one of the two, the virtual pixel value corresponding to the two pixels in the virtual viewpoint image is generated using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels.
第2の発明の画像処理装置は、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成し、当該視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する分離手段と、前記複数の画像の前記分離手段が分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うマッチング手段と、前記マッチング手段のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する判断手段と、前記判断手段の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する生成手段と、を有し、前記生成手段は、前記判断手段の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記判断手段の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記分離手段が分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する。 Second inventions of the image processing apparatus, for each of the plurality of images to generate parallax data without matching method of sequentially corresponding constraint, based on the parallax data, for each of the plurality of images, the image Separating means for separating the non-order-corresponding image whose parallax is equal to or higher than the reference and other order-corresponding images, and the order-corresponding image and the non-order-corresponding image separated by the separating means of the plurality of images. A matching means for performing matching processing individually by a matching method having a correspondence constraint; a determination means for determining whether or not a plurality of pixels associated by the matching processing of the matching means are present in an occlusion region; and Based on the determination result of the determination means, the pixel value of the pixel that does not exist in the occlusion area among the plurality of associated pixels is used to Possess a generating means for generating a virtual pixel value corresponding to the number of pixels, wherein the generating means, based on the determination result of said determining means, both occlusion regions of the two pixels the associated The virtual pixel value is generated using the pixel values of the two pixels, and one of the two pixels is present in the occlusion region based on the determination result of the determination unit, When the other does not exist in the occlusion area, at least one of the order-corresponding image and the non-order-corresponding image separated by the separating unit exists in the occlusion area among the two associated pixels. A virtual pixel value corresponding to the two pixels in the virtual viewpoint image is generated using the pixel value of the non-performed pixel.
第3の発明のプログラムは、画像処理装置が有するコンピュータの実行するプログラムであって、複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の手順と、前記第1の手順で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の手順と、前記複数の画像の前記第2の手順で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行う第3の手順と、前記第3の手順のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第4の手順と、前記第4の手順の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第5の手順と、を前記コンピュータに実行させ、前記第5の手順において前記第4の手順の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、前記第4の手順の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の手順で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する。 Third inventions of the program is a program executed by the computer image processing apparatus has, for each of the plurality of images, a first procedure for generating the parallax data without matching method of sequentially corresponding constraint, the A second procedure for separating each of the plurality of images into an unordered image having a parallax of a reference or higher and an other image corresponding to the order based on the parallax data generated in the first procedure. A third procedure for individually matching the order-corresponding image and the non-order-corresponding image separated in the second procedure of the plurality of images by a matching method having the order correspondence constraint , a fourth step in which a plurality of pixels associated with the matching process of step 3 it is determined whether or not present in the occlusion region, based on the determination result of the fourth step, the urging corresponding It was using the pixel values of the pixels that do not exist in the occlusion region of the plurality of pixels, and a fifth step of generating a virtual pixel values corresponding to the plurality of pixels in the virtual viewpoint image, the said computer In the fifth procedure, based on the determination result of the fourth procedure, when both of the two associated pixels do not exist in the occlusion area, the pixel values of the two pixels are calculated. The virtual pixel value is used to generate one of the two pixels in the occlusion area and the other is not in the occlusion area based on the determination result of the fourth procedure. The pixel value of a pixel that does not exist in the occlusion area among the two associated pixels with respect to at least one of the order-corresponding image and the non-order-corresponding image separated in the second procedure. Used to generate a virtual pixel values corresponding to the two pixels in the virtual viewpoint image.
本発明によれば、オクリュージョン領域がある場合でも、高品質な仮想視点画像を生成できる画像処理方法、その装置およびプログラムを提供することができる。 According to the present invention, it is possible to provide an image processing method, apparatus and program for generating a high-quality virtual viewpoint image even when there is an occlusion area.
以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
先ず、本実施形態の構成と、本発明の構成との対応関係の例を説明する。
視差マップデータDm1,Dm2が本発明の視差データの一例である。
非順番対応画像データPe1b,Pe2bが本発明の非順番対応画像データの一例である。
順番対応画像データPe1a,Pe2a,Pe1c,Pe2cが本発明の順番対応画像データの一例である。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
First, an example of the correspondence relationship between the configuration of the present embodiment and the configuration of the present invention will be described.
The parallax map data Dm1 and Dm2 are an example of the parallax data of the present invention.
The unordered image data Pe1b and Pe2b are an example of the unordered image data of the present invention.
Order-corresponding image data Pe1a, Pe2a, Pe1c, and Pe2c are examples of the order-corresponding image data of the present invention.
図18に示すステップST6,8が本発明の第1の工程の一例である。
図18に示すステップST7,ST9が、本発明の第2および第3の工程に対応している。
ここで、図15に示すステップST21,ST23が本発明の第2の工程の一例であり、ステップST22,ST24,ST25が本発明の第3の工程の一例である。
図18に示すステップST3が本発明の第4の工程の一例であり、ステップST4が第5の工程の一例である。
図18に示すステップST10が本発明のステップST6の一例である。
Steps ST6 and ST8 shown in FIG. 18 are an example of the first step of the present invention.
Steps ST7 and ST9 shown in FIG. 18 correspond to the second and third steps of the present invention.
Here, steps ST21 and ST23 shown in FIG. 15 are examples of the second step of the present invention, and steps ST22, ST24 and ST25 are examples of the third step of the present invention.
Step ST3 shown in FIG. 18 is an example of the fourth process of the present invention, and step ST4 is an example of the fifth process.
Step ST10 shown in FIG. 18 is an example of step ST6 of the present invention.
図2に示す画像並行化処理部20が本発明の視差生成手段の一例であり、非順番対応領域分離部28が本発明の分離手段の一例であり、DPマッチング処理部29が本発明のマッチング処理手段の一例である。
また、図18に示すプログラムPRGが本発明のプログラムの一例である。
The image
A program PRG shown in FIG. 18 is an example of the program of the present invention.
本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
A地点には、撮影対象としてのユーザaを互いに異なる視点から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する画像処理装置2aが配設されている。
B地点には、撮影対象としてのユーザbを互いに異なる視点から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する画像処理装置2bが配設されている。
なお、この画像処理装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。
In the communication system 1 to which the present invention is applied, for example, as shown in FIG. 1, a user a at a point A and a user b at a point B are remotely interacting with each other while viewing a display image of the other party from a distant place. System.
At the point A, a
At the point B, a camera 11b and a camera 12b that capture images of the user b as a photographing target from different viewpoints, and a display 5b for displaying an image of the user a captured at the point A side to the user b, An
The virtual viewpoint images Ima and Imb generated by the
The
The displays 5a and 5b display images based on the virtual viewpoint images Imb and Ima supplied from the counterpart point via the network 7 via a liquid crystal display surface, for example. The liquid crystal display surfaces of the displays 5a and 5b are composed of a large number of liquid crystal display elements and the like, and the liquid crystal display elements are optically modulated in accordance with output signals based on the virtual viewpoint images Imb and Ima to create an image to be displayed to the user.
画像処理装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの画像処理装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、画像処理装置2a,2bの構成については後において詳細に説明をする。
ネットワーク7は、例えば画像処理装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、画像処理装置2による要求を受けて、自身に格納してある所定の情報を送信する。
The
The network 7 includes information such as an Internet network connected to the
以下、画像処理装置2aについて説明する。
図2は、図1に示す画像処理装置2aの構成図である。
画像処理装置2bは、画像処理装置2aと同じ構成を有している。
以下、画像処理装置2aの構成について説明する。
図2に示すように、画像処理装置2aは、例えば、画像並行化処理部20と、キャリブレーション部26、非順番対応領域検出部27、非順番対応領域分離部28、DPマッチング処理部29、各領域仮想視点画像生成部30および仮想視点画像生成部31を有する。
Hereinafter, the
FIG. 2 is a block diagram of the
The
Hereinafter, the configuration of the
As shown in FIG. 2, the
画像処理装置2aでは、上述のような順番対応拘束が満たせない領域を距離情報によって検出分離し、分離された各領域に対して、それぞれDPマッチング処理によって対応点を求めて、それらの対応点情報及び仮想カメラ視点位置情報に基づいて、各領域の仮想視点映像を生成し、最後にそれらの仮想視点映像を距離の近いものが前に位置するように一枚の仮想視点映像として合成する。
画像処理装置2aでは、各領域仮想視点画像生成部30において、DPマッチング処理で対応付けられた2つの画素の画素値を基に、仮想視点の画素値(仮想画素値)を生成する。
The
In the
[画像並行化処理部20]
画像並行化処理部20は、カメラ11a,12aから入力した画像データPa1,Pa2に対して、幾何学的な画像補正処理と正規化処理とを行う。
画像並行化処理部20は、上記カメラ11a,12aの幾何学的な位置関係を含む制御情報に基づいて、各画像データPa1,Pa2を補正する。このカメラ11a,12aの幾何学的な位置関係は、上述したカメラキャリブレーション部26が生成した制御情報を基にパラメータ化されてもよい。
また、各カメラ11a,12aの撮影方向や撮影画角などを変更しつつ撮像を実行する場合には、カメラキャリブレーション部においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、画像並行化処理部20は、各カメラ11a,12aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。
なお、カメラキャリブレーション部26は、同様にカメラ11a,12aの各レンズにおける色収差や歪み、光軸のずれを、例えば特開2000−350239号公報や、特開平11−53549号公報に示されているカメラキャリブレーション手法に基づいてパラメータ化し、これらを画像並行化処理部20に出力してもよい。この場合において画像並行化処理部20は、取得したパラメータに基づいて、カメラ11a,12aからの画像を射影変換することにより基準となる画像へ合わせ込む。輝度成分等についても同様にカメラ11a,12aからの画像間において輝度の誤差が最小となるような射影変換行列を用いることにより互いの調整を図る。
[Image parallel processing unit 20]
The image
The image
Further, when imaging is performed while changing the shooting direction and the shooting angle of view of each
The
撮影対象としてのユーザaは、カメラ11a,12aにより互いに異なる角度から撮影される。その結果、カメラ11a,12aにより生成される画像データPa1,Pa2上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2は、それぞれ画像並行化処理部20に供給され、カメラキャリブレーション部26により予め求められた各カメラ11a,12aのレンズ歪みや画像中心等のパラメータに基づき、画像の歪みや画像中心がずれないように補正を行う。
画像並行化処理部20は、これら補正された各画像データPa1,Pa2を以下に示すように正規化して正規化画像データPm1,Pm2を生成し、これを非順番対応領域検出部27に出力する。
図3は、各カメラ11a,12aにより撮像した画像データPa1, Pa2を正規化する場合につき示している。この図3に示されるように、各カメラ11a,12aの光学中心C1,C2により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、各カメラ11a,12aの撮像面で得られる画像Pa1,Pa2の法線方向k1,k2は、互いに異なる方向を指している。すなわち、各カメラ11a,12aとM点を結ぶ直線の方向は、各カメラにより撮像された各画像データPa1,Pa2の法線方向k1,k2に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2に幾何学的正規化を行うことにより、法線方向k1’,k2’を同一方向とした画像面が互いに平行な正規化画像データPm1,Pm2を生成する。
この幾何学的正規化は、カメラキャリブレーション部26により予め求められた射影行列P1,P2を用いて、カメラ内部パラメータA1,A2、回転行列R1,R2、転移行列T1,T2を推定することにより実現する。その結果、補正後の画像撮像面の法線方向k1’,k2’が平行化された正規化画像データPm1,Pm2を生成することができる。
ちなみに、この幾何学的正規化を施す場合には、光学中心C1,C2を含む仮想平面πを設定しておき、この仮想平面πの法線方向に対して正規化画像Pm1,Pm2の法線方向が同一方向となるように、射影行列P1,P2を用いて正規化するようにしてもよい。
A user a as a subject to be photographed is photographed from different angles by the
The image
FIG. 3 shows a case where the image data Pa1 and Pa2 captured by the
This geometric normalization is performed by estimating camera internal parameters A1, A2, rotation matrices R1, R2, and transfer matrices T1, T2 using projection matrices P1, P2 obtained in advance by the
Incidentally, when performing this geometric normalization, a virtual plane π including the optical centers C1 and C2 is set, and the normal lines of the normalized images Pm1 and Pm2 with respect to the normal direction of the virtual plane π. You may make it normalize using projection matrix P1, P2 so that a direction may become the same direction.
[非順番対応領域検出部27]
非順番対応領域検出部27は、画像並行化処理部20から正規化画像データPm1,Pm2を入力する。
非順番対応領域検出部27は、図4に示すように、正規化画像データPm1,Pm2から背景画像データPk1、Pk2を除去して前景画像データPf1、Pf2を生成する。
このように、背景画像を除去することで、背景画像の影響を軽減した効率的なマッチング処理を行うことができる。
[Non-order corresponding area detection unit 27]
The non-order corresponding
As shown in FIG. 4, the non-order corresponding
In this manner, by removing the background image, it is possible to perform an efficient matching process that reduces the influence of the background image.
非順番対応領域検出部27は、順番対応拘束がないステレオマッチング手法により、前景画像データPf1、Pf2を基に、視差マップデータDm1,Dm2を生成(推定)する。
本実施形態では、順番対応拘束がないステレオマッチング手法として、エリアベースマッチング手法などが用いられる。
非順番対応領域検出部27は、視差マップデータDm1,Dm2の各々について、当該データを構成する画素データを、所定のしきい値以上の画素データ(手前の画素データ)と、上記しきい値未満の画素データとに分類する。
そして、非順番対応領域検出部27は、上記しきい値以上の画素データによって構成される非順番対応領域視差データを生成する。
例えば、非順番対応領域検出部27は、図5に示すように、視差マップデータDm1,Dm2から、それぞれ非順番対応領域視差データCL1、CL2を生成する。
非順番対応領域検出部27は、前景画像データPf1、Pf2と、非順番対応領域視差データCL1、CL2とを非順番対応領域分離部28に出力する。
The non-order corresponding
In the present embodiment, an area-based matching method or the like is used as a stereo matching method with no order correspondence constraint.
For each of the parallax map data Dm1 and Dm2, the non-order corresponding
Then, the non-order-corresponding
For example, as shown in FIG. 5, the non-order corresponding
The non-order corresponding
[非順番対応領域分離部28]
非順番対応領域分離部28は、図5に示すように、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から非順番対応画像データPe1b、Pe2bを抽出し、これをDPマッチング処理部29に出力する。
また、非順番対応領域分離部28は、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から順番対応画像データを抽出する。
そして、非順番対応領域分離部28は、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像(画素値が予め決められた一定の輝度および色差の画像)に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これをDPマッチング処理部29に出力する。
[Non-order corresponding region separation unit 28]
As shown in FIG. 5, the non-order corresponding
Further, the non-order corresponding
Then, as shown in FIG. 6, the non-order-corresponding
[DPマッチング処理部29]
DPマッチング処理部29は、順番対応画像データPe1aとPe2aとの間のDPマッチング処理を行う。
DPマッチング処理部29は、順番対応画像データPe1a,Pe2aをラベル修正して得た順番対応画像データPe1c,Pe2cと、そのDPマッチング処理結果DPaとを各領域仮想視点画像生成部30に出力する。
また、DPマッチング処理部29は、非順番対応画像データPe1bとPe2bの間のDPマッチング処理を行う。
DPマッチング処理部29は、非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを各領域仮想視点画像生成部30に出力する。
[DP matching processing unit 29]
The DP
The DP
Further, the DP
The DP
先ず、順番対応画像データPe1a,Pe2aのDPマッチング処理を説明する。
DPマッチング処理部29は、上述したように、順番対応画像データPe1aとPe2aとの間のDPマッチング処理と、非順番対応画像データPe1bとPe2bとの間のDPマッチング処理とを個別に行う。
これにより、図7(a),(b)に示すように、順番対応画像データ(身体領域)と、非順番対応画像データ(手領域)とについて、正しい対応付けが可能になる。
そのため、後段の仮想視点画像生成部31において、図7(c)に示す仮想視点画像が生成できる。
First, DP matching processing of the order corresponding image data Pe1a and Pe2a will be described.
As described above, the DP
As a result, as shown in FIGS. 7A and 7B, the order correspondence image data (body region) and the non-order correspondence image data (hand region) can be correctly associated.
Therefore, the virtual viewpoint image generation unit 31 in the subsequent stage can generate the virtual viewpoint image shown in FIG.
なお、従来では、図8に示すように、前景画像pic1,pic2につき、撮影対象と関連させつつ、画素位置毎に対応付けを行う。前景画像pic1,pic2につき、被写体としてのユーザaがそれぞれ写し出された前景画像pic1におけるスキャンラインL4上の画素と、前景画像pic2におけるスキャンラインL4’上の画素とを対応付けする場合に、スキャンラインL4上の特徴点の点列R1を左から順に{c1,c2,c3,c4}とし、またスキャンラインL4’の特徴点の点列R2を左から順に{d1,d2,d3,d4}とする。
ここで、互いのスキャンラインL4,L4’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、c1に対してL4’上の特徴点はd1が該当し1:1で対応することとなるが、ユーザaの首を構成する特徴点c2に対してL4’上の特徴点はd3が該当することとなる。同様に、ユーザaの手を構成する特徴点c3,c4に対してL4’上の特徴点はd2,d4がそれぞれ該当することとなる。
このように、異なる視点から撮像することにより得られる前景画像pic1,pic2では、被写体からカメラに至るまでの距離に基づく視差が大きい画像領域間において特徴点の対応付けが互いに交差してしまう。その結果、後段の仮想視点画像生成部において作成される仮想視点画像につき、図9に示すような画像の乱れが生じてしまうことになる。
Conventionally, as shown in FIG. 8, the foreground images pic1 and pic2 are associated with each imaging position while being associated with the imaging target. For the foreground images pic1 and pic2, when the pixels on the scan line L4 in the foreground image pic1 in which the user a as the subject is imaged are associated with the pixels on the scan line L4 ′ in the foreground image pic2, the scan line The point sequence R1 of the feature points on L4 is {c1, c2, c3, c4} in order from the left, and the point sequence R2 of the feature points on the scan line L4 ′ is {d1, d2, d3, d4} in order from the left. To do.
Here, when the feature points R1 and R2 on the scan lines L4 and L4 ′ are associated with each other in the relationship with the subject, first, the feature point on L4 ′ corresponds to c1 and corresponds 1: 1. However, the feature point on L4 ′ corresponds to the feature point c2 constituting the neck of the user “a”. Similarly, d2 and d4 correspond to the feature points on L4 ′ with respect to the feature points c3 and c4 constituting the hand of the user a.
In this way, in the foreground images pic1 and pic2 obtained by imaging from different viewpoints, the feature point associations intersect between image regions having a large parallax based on the distance from the subject to the camera. As a result, the disturbance of the image as shown in FIG. 9 occurs for the virtual viewpoint image created in the virtual viewpoint image generation unit at the subsequent stage.
ところで、DPマッチング処理部29では、図7に示すように、順番対応画像データ(身体領域)と、非順番対応画像データ(手領域)とについて、正しい対応付けが可能になるが、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aについて、そのままDPマッチング処理すると、図7(a)では本来は左画像のL1 が右画像R1’に対応するはずであったのに、左画像のL1 が右画像R1 に対応してしまう。その結果、図7(c)に示す仮想視点映像において、左画像のL1 と右画像のR1 の座標値を用いる仮想視点映像での顔の輪郭部の位置がずれることになり、違和感のある仮想視点映像になってしまう。
Incidentally, as shown in FIG. 7, the DP
DPマッチング処理部29は、上記違和感を低減するために、特に顔や身体領域の輪郭周辺の画質を向上させるために、人物領域の対称性を用いてラベル付けされた順番対応画像データPe1a,Pe2aのラベル修正処理を行う。
具体的には、DPマッチング処理部29は、図6に示すように、順番対応画像データPe1a,Pe2aのラベル領域に対して、その反対方向にある輪郭を抽出し、それをマスクとして用いてラベル領域を修正して修正順番対応画像データPe1c,Pe2cを生成する。
図10(a)は、その処理の一例である。実線はマスク領域の反対側領域の輪郭検出結果であり、点線はその反対側の輪郭線を用いて修正されたマスク領域を示す。
図10(b)は、ラベル領域修正後の修正順番対応画像データPe1c,Pe2cであり、図10(c)は、そのラベル領域修正後の映像を用いる対応付け結果、及びその結果を用いる仮想視点画像データIpnaである。このように、ラベル領域を修正することで、仮想視点画像データIpnaを、図7(c)に示す場合に比べて本来の被写体の像に近づけることができる。
In order to reduce the above-mentioned uncomfortable feeling, especially the DP
Specifically, as shown in FIG. 6, the DP
FIG. 10A shows an example of the processing. A solid line indicates a contour detection result of an area on the opposite side of the mask area, and a dotted line indicates a mask area corrected using the outline on the opposite side.
FIG. 10B shows correction order correspondence image data Pe1c and Pe2c after label area correction, and FIG. 10C shows an association result using the image after the label area correction, and a virtual viewpoint using the result. This is image data Ipna. In this way, by correcting the label area, the virtual viewpoint image data Ipna can be brought closer to the original subject image as compared to the case shown in FIG.
以下、DPマッチング処理部29によるDPマッチングについて説明する。
DPマッチング処理部29は、DPマッチング対象の2つの画像領域を構成する各画素位置につき対応関係を求める。
この対応付けは、例えば、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を修正順番対応画像データPe1c,Pe2c間で抽出して対応をとるようにする。
例えば、図11に示すように、修正順番対応画像データPe1cのスキャンラインL1上にある画素P11の対応点については、修正順番対応画像データPe2cのスキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、修正順番対応画像データPe1c,Pe2cを構成する全ての画素に対して実行してもよい。
Hereinafter, DP matching by the DP
The DP
This association is performed, for example, by extracting pixel positions and luminance components at the same location constituting the face of the user a between the correction order correspondence image data Pe1c and Pe2c.
For example, as illustrated in FIG. 11, the corresponding point of the pixel P11 on the scan line L1 of the correction order corresponding image data Pe1c exists on the scan line L1 ′ of the correction order corresponding image data Pe2c, and the L1 By searching “up”, the most similar pixel position P11 ′ can be detected as a corresponding point. Incidentally, the matching
本実施形態では、DPマッチング処理部29の前段の画像並行化処理部20において、画像が予め正規化され、エピポーラ線が平行化されているため、画素探索のロバスト性を向上させることができる。
図11に示す修正順番対応画像データPe1c,Pe2cにつき、スキャンラインL1上にある画素P11の対応点については、スキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、対応点としての画素P11’を検出することができる。
In the present embodiment, the image
In the correction order corresponding image data Pe1c and Pe2c shown in FIG. 11, the corresponding point of the pixel P11 on the scan line L1 is present on the scan line L1 ′, and the correspondence is obtained by searching on the L1 ′. A pixel P11 ′ as a point can be detected.
例えば、図12に示すように、被写体としてのユーザaがそれぞれ写し出された修正順番対応画像データPe1cにおけるスキャンラインL1上の画素と、修正順番対応画像データPe2cおけるスキャンラインL1’上の画素とを対応付けする場合に、スキャンラインL1上の特徴点の点列R1を左から順に{a1,a2,a3,a4,a5}とし、またスキャンラインL1’の特徴点の点列R2を左から順に{b1,b2,b3,b4,b5}とする。
ここで、互いのスキャンラインL1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。
For example, as shown in FIG. 12, the pixels on the scan line L1 in the correction order corresponding image data Pe1c in which the user a as the subject is respectively copied and the pixels on the scan line L1 ′ in the correction order corresponding image data Pe2c. In the case of association, the point sequence R1 of the feature points on the scan line L1 is {a1, a2, a3, a4, a5} in order from the left, and the point sequence R2 of the feature points on the scan line L1 ′ is sequentially from the left Let {b1, b2, b3, b4, b5}.
Here, when the feature points R1 and R2 on the scan lines L1 and L1 ′ are associated with each other in the relationship with the subject, first, the feature point on L1 ′ corresponds to a1 and corresponds 1: 1. However, b2 corresponds to the feature points on L1 ′ corresponding to the feature points a2 and a3 constituting the right ear of the user “a”, and corresponds to 2: 1. Similarly, b3 and b4 correspond to the feature points on L1 ′ with respect to the feature point a4 constituting the left ear of the user a, and correspond to 1: 2. Note that b5 corresponds to the feature point on L1 ′ with respect to a5, and corresponds to 1: 1.
このように、異なる視点から撮像することにより得られる修正順番対応画像データPe1cとPe2cでは、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の修正順番対応画像データに表示されている被写体の対応点が他方の修正順番対応画像データにて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。
このため、DPマッチング処理部29は、かかる視差を識別することにより、図12(a)に示される修正順番対応画像データの特徴点の点列R1,R2を、結果的に図12(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。
As described above, in the correction order corresponding image data Pe1c and Pe2c obtained by imaging from different viewpoints, the content displayed in the ear portion of the user a is different depending on the parallax based on the distance from the subject to the camera. Come. Hereinafter, such a region is referred to as an occlusion region. In such an occlusion area, the corresponding point of the subject displayed in one correction order corresponding image data is hidden by the other correction order corresponding image data due to the parallax. , b1), (a2, b2), (a3, b3), (a4, b4), (a5, b5)}, an error occurs.
For this reason, the DP
具体的には、DPマッチング処理部29は、各修正順番対応画像データPe1c,Pe2cにおけるスキャンライン上にある全ての画素につき、図12(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。
この図12(c)におけるx軸にスキャンラインL1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をスキャンラインL1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図12(b)に示される対応関係をこのグラフにあてはめると、図12(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。
Specifically, the DP
In FIG. 12C, a point sequence R1 {a1, a2, a3, a4, a5} of feature points on the scan line L1 is arranged on the x axis, and the feature points on the scan line L1 ′ are arranged on the y axis. When the column R2 {b1, b2, b3, b4, b5} is applied, when the correspondence shown in FIG. 12B is applied to this graph, the path indicated by the bold line shown in FIG. 12C is taken. become. Hereinafter, a straight line connecting corresponding points indicated by bold lines is referred to as an optimum route.
この最適経路において右上に線形増加する場合には、スキャンラインL1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。DPマッチング処理部29は、右上に線形増加する最適経路の例として、スキャンラインL1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。
また、この最適経路において水平方向にシフトする場合には、修正順番対応画像データPe1cとPe2cとの間において視差が生じた結果、修正順番対応画像データPe1cにおいて示されている特徴点が修正順番対応画像データPe2cにおいて隠れてしまったことを示唆している。
かかる場合には、DPマッチング処理部29は、修正順番対応画像データPe1c上にある一つの特徴点に対して、修正順番対応画像データPe2c上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。
When linearly increasing to the upper right in this optimum route, when the lines on the scan lines L1 and L1 ′ are shifted from left to right for association, the feature points are sequentially shifted by 1: 1 to correspond to each other. Is shown. As an example of the optimal path linearly increasing to the upper right, the DP
In addition, when shifting in the horizontal direction in this optimal path, as a result of the occurrence of parallax between the correction order corresponding image data Pe1c and Pe2c, the feature points indicated in the correction order corresponding image data Pe1c correspond to the correction order. This suggests that the image data Pe2c is hidden.
In such a case, the DP
また、この最適経路において垂直方向へシフトする場合には、修正順番対応画像データPe1c,Pe2c間において視差が生じた結果、修正順番対応画像データPe2cにおいて示されている特徴点が修正順番対応画像データPe1cにおいて隠れてしまったことを示唆している。かかる場合には、DPマッチング処理部29は、修正順番対応画像データPe1c上にある1の特徴点に対して、修正順番対応画像データPe2c上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。
Further, when shifting in the vertical direction on this optimum path, as a result of the occurrence of parallax between the correction order corresponding image data Pe1c and Pe2c, the feature points indicated in the correction order corresponding image data Pe2c are corrected order corresponding image data. This suggests that it has been hidden in Pe1c. In such a case, the DP
DPマッチング処理部29は、これら対応付けを、互いの順番対応画像データPe1a,Pe2aの全てを構成する、或いは一部を構成するスキャンラインL1,L1’間において実行する。そしてスキャンラインL1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。
The DP
図13は、スキャンラインL1,L1’上の任意の特徴点(x1,y)と(x2,y)との対応付け関係(x1,x2)を求める場合につき示している。
この点(x1,x2)に至る最適経路は、点(x1−1,x2−1)につき左から右へそれぞれ一つずつシフトさせることにより図13に示されるグラフにおいて右上に線形増加し、或いは点(x1−1,x2)においてx2をそのまま維持しつつ水平方向に1シフトさせることにより図13に示されるグラフにおいて点(x1−1,x2)から水平方向へ移動する。さらに、この点(x1,x2)に至る最適経路は、点(x1,x2−1)においてx1をそのまま維持しつつ垂直方向へ1シフトさせることにより図13に示されるグラフにおいて点(x1,x2−1)から垂直方向へ移動することになる。
FIG. 13 shows a case in which the correspondence (x1, x2) between arbitrary feature points (x1, y) and (x2, y) on the scan lines L1, L1 ′ is obtained.
The optimum path to the point (x1, x2) increases linearly in the upper right in the graph shown in FIG. 13 by shifting the point (x1-1, x2-1) one by one from left to right, or By shifting one point in the horizontal direction while maintaining x2 at the point (x1-1, x2), the graph moves from the point (x1-1, x2) in the horizontal direction in the graph shown in FIG. Further, the optimum path to the point (x1, x2) is shifted by one shift in the vertical direction while maintaining x1 at the point (x1, x2-1), so that the point (x1, x2) in the graph shown in FIG. -1) to move in the vertical direction.
即ち、点(x1,x2)を通る最適経路は、図13に示すグラフにおいて、その左,左下,下に位置する点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)の何れかを経ることになる。
DPマッチング処理部29は、何れの点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)を経て点(x1,x2)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。
DPマッチング処理部29は、以下に示すマッチングコスト関数d(x1,x2)と、動的なオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を求め、求めた各関数に応じて上述した最適経路を求める。
マッチングコスト関数d(x1,x2)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数である。
また、オクリュージョンコスト関数dx1(x1,x2)は、順番対応画像データPe1aの画像Pe2aに対する被写体画像の隠れ度合いを示す関数である。
また、オクリュージョンコスト関数dx2(x1,x2)は、画像Pe2aの順番対応画像データPe1aに対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、被写体の各画像間における視差が反映される形となる。
That is, the optimum route passing through the point (x1, x2) is the points (x1-1, x2), (x1-1, x2-1), ( either x1, x2-1).
The DP
The DP
The matching cost function d (x1, x2) is a function indicating the similarity between the luminance component and the color component between the pixel positions for which the correspondence is obtained.
The occlusion cost function dx1 (x1, x2) is a function indicating the degree of hiding of the subject image with respect to the image Pe2a of the order corresponding image data Pe1a.
The occlusion cost function dx2 (x1, x2) is a function indicating the degree of hiding of the subject image with respect to the order corresponding image data Pe1a of the image Pe2a. These occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2) have a shape reflecting the parallax between the images of the subject.
先ず、マッチングコスト関数d(x1,x2)を求める方法につき説明をする。
DPマッチング処理部29は、d(x1,x2)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。
この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
First, a method for obtaining the matching cost function d (x1, x2) will be described.
The DP
This weighting is performed based on the following formula (1) using a weighting coefficient α.
[数1]
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)
…(1)
[Equation 1]
dk (s, t) = α × dYk (s, t) + (1−α) dCk (s, t)
... (1)
ここで(s,t)は、点(x1,x2)に対応する修正順番対応画像データPe1c,Pe2cにおける画素位置を表している。
また、kは、修正順番対応画像データPe1c,Pe2cの何行目に該当するかを示している(つまりk=y)。
上記式(1)においてdYk(s,t)は、修正順番対応画像データPe1cとPe2cとの間の座標(s,t)間における輝度成分の差分絶対値を表し、以下の式(2)で定義される。
Here, (s, t) represents a pixel position in the correction order corresponding image data Pe1c and Pe2c corresponding to the point (x1, x2).
In addition, k indicates which line of the correction order correspondence image data Pe1c and Pe2c corresponds (that is, k = y).
In the above equation (1), dYk (s, t) represents the absolute difference value of the luminance component between the coordinates (s, t) between the correction order corresponding image data Pe1c and Pe2c, and is expressed by the following equation (2). Defined.
[数2]
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|
…(2)
[Equation 2]
dYk (s, t) = | Y1k (s, t) −Y2k (s, t) |
... (2)
また、上記式(1)においてdCk(s,t)は、修正順番対応画像データPe1cとPe2cとの間における色成分の差分絶対値を表し、以下の式(3)で定義される。 In the above equation (1), dCk (s, t) represents the absolute value of the difference between the color components between the correction order corresponding image data Pe1c and Pe2c, and is defined by the following equation (3).
[数3]
dCk(s,t)=|C1k(s,t)−C2k(s,t)|
…(3)
[Equation 3]
dCk (s, t) = | C1k (s, t) −C2k (s, t) |
... (3)
即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。なお、DPマッチング処理部29は、αについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
That is, by setting α higher in the above equation (1), the component of the luminance component difference absolute value dYk (s, t) can be more reflected in the obtained dk (s, t). In addition, by setting α to be smaller in the above equation (1), the component of the color component difference absolute value dCk (s, t) can be more reflected in the obtained dk (s, t). The DP
d(x1,x2)は、上記式(1)により求められるdk(s,t)に基づいて、更に以下の式(4)により求められる。 d (x1, x2) is further obtained by the following equation (4) based on dk (s, t) obtained by the above equation (1).
[数4]
d(x1,x2)=(Σdk(s,t))/2K k=−K,・・,K−1
…(4)
[Equation 4]
d (x1, x2) = (Σdk (s, t)) / 2K k = −K,..., K−1
(4)
上記式(4)は、スキャンラインの上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。
上記式(4)式により、求めるd(x1,x2)につきスキャンラインの上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
即ち、上述の方法により求められるマッチングコストd(x1,x2)は、修正順番対応画像データPe1cとPe2cの画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、修正順番対応画像データPe1cとPe2cの画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x1,x2)により、画像Pe1aと画像Pe2aの画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。
The above equation (4) means that d (x, y) can be obtained by taking an average with each pixel located above and below the scan line.
By the above equation (4), it is possible to reflect the correlation between each pixel located above and below the scan line for the obtained d (x1, x2). As a result, it is possible to greatly improve the association accuracy.
That is, the matching cost d (x1, x2) obtained by the above method increases as the absolute value of the difference between the luminance component or the color component at the pixel position (s, t) of the correction order corresponding image data Pe1c and Pe2c increases. To do. In other words, it increases as the difference in luminance component or color component at the pixel position (s, t) between the correction order corresponding image data Pe1c and Pe2c increases, and decreases as they are similar. That is, the matching cost d (x1, x2) makes it possible to identify the luminance component or color component similarity at the pixel positions (s, t) of the images Pe1a and Pe2a.
次にオクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を求める方法につき説明をする。
これら各オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。
かかる場合において、DPマッチング処理部29は、オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)を上げることにより対応する。
各オクリュージョンコスト関数dx1(x1,x2),dx2(x1,x2)は、以下の式(5)、(6)に基づいて求めることができる。
Next, a method for obtaining the occlusion cost functions dx1 (x1, x2) and dx2 (x1, x2) will be described.
Each of these occlusion cost functions dx1 (x1, x2), dx2 (x1, x2) is generated based on disparity information. As the distance from the
In such a case, the DP
Each occlusion cost function dx1 (x1, x2), dx2 (x1, x2) can be obtained based on the following equations (5) and (6).
[数5]
dx1(x1,x2)=β×d(x1,x2)+T0
…(5)
[Equation 5]
dx1 (x1, x2) = β × d (x1, x2) + T0
... (5)
[数6]
dx2(x1,x2)=γ×d(x1,x2)+T1
…(6)
[Equation 6]
dx2 (x1, x2) = γ × d (x1, x2) + T1
(6)
ここで、d(x1,x2)は、マッチングコストであり、左画像と右画像の輝度値、色合いのばらつきを解消させるべく、オクリュージョンコストを動的に調整するものである。β、γは、dp(x1,x2)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
DPマッチング処理部29は、これら各関数dx1(x1,x2),d(x1,x2),dx2(x1,x2)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x1−1,x2),C(x1−1,x2−1),C(x1,x2−1)を加算し、総コストk1,k2,k3を算出する。
Here, d (x1, x2) is a matching cost, and dynamically adjusts the occlusion cost in order to eliminate variations in luminance values and hues of the left and right images. β and γ represent the rate of change of dp (x1, x2) and can be experimentally obtained in advance. T0 and T1 are initial occlusion cost constants, which can also be obtained experimentally in advance.
The DP
[数7]
k1=C(x1−1,x2)+dx1(x1,x2)
…(7)
[Equation 7]
k1 = C (x1-1, x2) + dx1 (x1, x2)
... (7)
[数8]
k2=C(x1−1,x2−1)+d(x1,x2)
…(8)
[Equation 8]
k2 = C (x1-1, x2-1) + d (x1, x2)
(8)
[数9]
k3=C(x1,x2−1)+dx2(x1,x2)
…(9)
[Equation 9]
k3 = C (x1, x2-1) + dx2 (x1, x2)
... (9)
ここでC(x1−1,x2),C(x1−1,x2−1),C(x1,x2−1)は、それぞれ点(x1−1,x2),(x1−1,x2−1),(x1,x2−1)において求められた累積マッチングコストを示している。ちなみに、点(x1,x2)における累積マッチングコストC(x1,x2)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。 Here, C (x1-1, x2), C (x1-1, x2-1), and C (x1, x2-1) are points (x1-1, x2) and (x1-1, x2-1), respectively. ), (X1, x2-1) shows the accumulated matching cost obtained. Incidentally, the cumulative matching cost C (x1, x2) at the point (x1, x2) is assigned the smallest one among the obtained k1, k2, and k3 as shown in the following equation (10).
[数10]
C(x1,x2)=min{k1,k2,k3}
…(10)
[Equation 10]
C (x1, x2) = min {k1, k2, k3}
(10)
DPマッチング処理部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求め、その結果をDPマッチング処理結果DPaとして各領域仮想視点画像生成部30に出力する。
The DP
ここで、k1が最小となる場合には、視差が大きくなることにより、修正順番対応画像データPe1cにおいて示されている特徴点が修正順番対応画像データPe2cにおいて遮蔽されたことを意味している。かかる場合には、図13矢印J1に示すように点(x1−1,x2)から水平方向にシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
またk3が最小となる場合には、視差が大きくなることにより、修正順番対応画像データPe2cにおいて示されている特徴点が修正順番対応画像データPe1cにおいて遮蔽されたことを意味している。かかる場合には、図13矢印J3に示すように、点(x1,x2−1)から垂直方向にシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
更に、k2が最小となる場合には、修正順番対応画像データPe1c,Pe2cの画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことを意味している。かかる場合には、図13矢印J2に示すように点(x1−1,x2−1)から水平、垂直方向に一つずつシフトさせることにより点(x1,x2)に至るように最適経路が求められることになる。
Here, when k1 is the minimum, it means that the feature point indicated in the correction order corresponding image data Pe1c is shielded in the correction order corresponding image data Pe2c by increasing the parallax. In such a case, as shown by the arrow J1 in FIG. 13, the optimum route is obtained so as to reach the point (x1, x2) by shifting in the horizontal direction from the point (x1-1, x2).
Further, when k3 is the minimum, it means that the feature point indicated in the correction order corresponding image data Pe2c is shielded in the correction order corresponding image data Pe1c by increasing the parallax. In such a case, as shown by the arrow J3 in FIG. 13, the optimum path is obtained so as to reach the point (x1, x2) by shifting from the point (x1, x2-1) in the vertical direction.
Further, when k2 is the minimum, it means that the similarity of the luminance component or the color component at the pixel position (s, t) of the correction order corresponding image data Pe1c, Pe2c is high. In such a case, an optimum path is obtained so as to reach the point (x1, x2) by shifting one by one in the horizontal and vertical directions from the point (x1-1, x2-1) as shown by the arrow J2 in FIG. Will be.
DPマッチング処理部29は、図6に示す修正順番対応画像データPe1c,Pe2c内の修正後のラベル領域L1c,L2cについては、条件1「Y1k(s,t)とY2k(s,t)との画素の双方がオクリュージョン領域内にない」を満たすと、下記式(11)のマッチングコスト関数を用いる。
The DP
[数11]
dk(s,t)=αdYk(s,t)+(1−α)・dCk(s,t)
…(11)
[Equation 11]
dk (s, t) = αdYk (s, t) + (1−α) · dCk (s, t)
... (11)
また、DPマッチング処理部29は、図6に示す修正順番対応画像データPe1c,Pe2c内の修正後のラベル領域L1c,L2cについて、条件2「Y1k(s,t)とY2k(s,t)との画素の少なくとも一方がオクリュージョン領域内にある」を満たすと、下記式(12)のマッチングコスト関数を用いる。
Further, the DP
[数12]
dk(s,t)=Const(一定値)
…(12)
[Equation 12]
dk (s, t) = Const (constant value)
(12)
DPマッチング処理部29では、上述したように、修正順番対応画像データPe1c,Pe2cのマッチングコスト関数として、修正後のラベル領域L1c,L2cとそれ以外の領域とで異なる関数を用いる。これにより、ラベル領域L1c,L2について他の領域と同じ関数を用いた場合に比べて、修正順番対応画像データPe1c,Pe2cのマッチングを高精度に行うことができる。
As described above, the DP
次に、図5に示す非順番対応画像データPe1b,Pe2bのDPマッチング処理を説明する。
非順番対応画像データPe1b,Pe2bについては、上述した順番対応画像データPe1a,Pe2aとは異なり、ラベル領域は存在しない。
従って、DPマッチング処理部29は、ラベル領域についての上記式(11),(12)以外の上記式(1)〜(10)を基にコストを算出して、DPマッチング処理を行い、その結果であるDPマッチング処理結果DPbを各領域仮想視点画像生成部30に出力する。
Next, the DP matching process for the unordered correspondence image data Pe1b and Pe2b shown in FIG. 5 will be described.
Unlike the order-corresponding image data Pe1a and Pe2a, the non-order-corresponding image data Pe1b and Pe2b do not have a label area.
Therefore, the DP
[各領域仮想視点画像生成部30]
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1c,Pe2cと、そのDPマッチング処理結果DPaとを基に、仮想視点順番対応画像データIpnaを生成し、これを仮想視点画像生成部31に出力する。
また、各領域仮想視点画像生成部30はDPマッチング処理部29から入力した非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、仮想視点非順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。
[Each Area Virtual Viewpoint Image Generation Unit 30]
Each region virtual viewpoint
Each region virtual viewpoint
各領域仮想視点画像生成部30は、例えば、図14に示すように、順番対応画像データPe1cにおける画素位置P11に対して、順番対応画像データPe2cにおける画素位置P11’がその対応点としてDPマッチング処理結果DPaによって特定されていた場合に、かかる画素位置P11の座標を図14に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。
仮想視点画像領域生成部30は、かかる画素位置P11、P11’に対応する仮想視点画像データIpna上の画素位置の座標(xt,yt)を、相対位置情報としてのm(≦1)に基づいて以下の式(13)により決定することができる。
For example, as illustrated in FIG. 14, each region virtual viewpoint
The virtual viewpoint image
[数13]
(xt,yt)=m×(x1,y1)+(1−m)×(x2,y2)
…(13)
[Equation 13]
(Xt, yt) = m × (x1, y1) + (1−m) × (x2, y2)
... (13)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、各領域仮想視点画像生成部30は、かかる仮想視点画像データIpna上の画素位置Phにおける輝度成分(仮想画素値)Ptを図15に示すように画像内挿(Interpolation)により決定することができる。
Further, when the luminance components at the pixel positions P11 and P11 ′ are J11 and J11 ′, the respective region virtual viewpoint
各領域仮想視点画像生成部30は、例えば、図15に示すように、図14に示す順番対応画像データPe1c,Pe2cの画素位置P11,P11’がオクリュージョン領域にあるか否かを基に、仮想視点画像データIpnaの画素位置Phの輝度成分(仮想画素値)Ptの計算式を切り換える。
For example, as shown in FIG. 15, each area virtual viewpoint
すなわち、図15に示すように、各領域仮想視点画像生成部30は、画素位置P11,P11’の双方がオクリュージョン領域にあるか否かを判断し(ステップST21)、オクリュージョン領域にないと判断すると、下記式式(14)により、輝度成分Ptを算出する(ステップST22)。
That is, as shown in FIG. 15, each area virtual viewpoint
[数14]
Pt=m×J11+(1−m)×J11’
…(14)
[Formula 14]
Pt = m × J11 + (1−m) × J11 ′
... (14)
なお、各領域仮想視点画像生成部30は、図18に示すステップST17のステップST6(ST8)のDPマッチング処理の結果に基づいて、画素位置P11,P11’がオクリュージョン領域にあるか否かを判断する。
Each region virtual viewpoint
各領域仮想視点画像生成部30は、ステップST22で、画素位置P11,P11’のいずれか一方がオクリュージョン領域にあると判断すると、ステップST23に進む。
そして、各領域仮想視点画像生成部30は、画素位置P11がオクリュージョン領域にあると判断すると、輝度成分Ptとして、画素位置P11’の輝度成分を用いる(ステップST25)。
一方、各領域仮想視点画像生成部30は、画素位置P11がオクリュージョン領域にないと判断すると、輝度成分Ptとして、画素位置P11の輝度成分を用いる(ステップST24)。
If each region virtual viewpoint
Then, when each region virtual viewpoint
On the other hand, if each area virtual viewpoint
本実施形態によれば、図15に示すように、画素位置P11,P11’の何れか一方がオクリュージョン領域にある場合には、仮想視点画像データIpnaの輝度成分Ptの算出に、そのオクリュージョン領域にある画素位置の輝度成分を用いずに、オクリュージョン領域にない画素位置の輝度成分のみを用いる。
これにより、高品質な仮想視点画像データIpnaを生成できる。
なお、図15に示す手法は、仮想視点画像データIpnaの生成の他に、各領域仮想視点画像生成部30において、非順番対応画像データPe1b,Pe2bを基に仮想視点画像データIpnbを生成する場合にも同様に適用できる。
According to the present embodiment, as shown in FIG. 15, when any one of the pixel positions P11 and P11 ′ is in the occlusion region, the occupancy is calculated for calculating the luminance component Pt of the virtual viewpoint image data Ipna. Only the luminance component at the pixel position not in the occlusion area is used without using the luminance component at the pixel position in the resolution area.
Thereby, high-quality virtual viewpoint image data Ipna can be generated.
In the method shown in FIG. 15, in addition to the generation of the virtual viewpoint image data Ipna, each region virtual viewpoint
仮想視点画像領域生成部30は、上記式(14)に示すように、仮想視点画像データIpnaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。
ここでmは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、図17に示すように、上記式(13)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像データIpna上に表示させるユーザaの位置を自在に変化させることができる。
The virtual viewpoint image
Here, m decreases as the virtual viewpoint in the virtual camera approaches the
For this reason, as shown in FIG. 17, the coordinates (xt, yt) determined based on the above equation (13) approach the coordinates (x1, y1) of the pixel position P11 as the virtual viewpoint approaches the
また、上記式(14)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ipna上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、順番対応画像データPe1c上にある画素位置P11と、これに対応する順番対応画像データPe2c上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像データIpna上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想視点画像データIpnaは、上述したマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。
The luminance component Pt determined based on the above formula (14) approaches the luminance component J11 at the pixel position P11 as the virtual viewpoint approaches the
In particular, since the shooting directions of the
上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像データIpnaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた順番対応画像データPe1a,Pe2aに対して、常時正面を向いている状態となる。
このようにして生成された仮想視点画像データIpnaは、仮想視点画像生成部31へ送られていくことになる。
By sequentially determining the coordinates (xt, yt) and the luminance component Pt at the pixel position Ph as described above, the generated virtual viewpoint image data Ipna has the gaze direction, the face direction, etc. of the user a to be displayed. The order-corresponding image data Pe1a and Pe2a which are different from each other are always facing the front.
The virtual viewpoint image data Ipna generated in this way is sent to the virtual viewpoint image generation unit 31.
また、各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した非順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、上述した仮想視点画像データIpnaの生成と同様に、仮想視点非順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。
Each region virtual viewpoint
[仮想視点画像生成部31]
仮想視点画像生成部31は、図16に示すように、仮想視点画像データIpnaとIpnbとを合成して仮想視点画像データImaを生成する。
仮想視点画像生成部31は、上記仮想視点画像データImaをネットワーク7を介して、他の画像処理装置2bに出力する。
ここで、仮想視点画像データImaは、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を表示するデータである。これにより、図1に示すユーザaとbとが、視線を一致させた状態でディスプレイ5a,5bを介して対面しながら対話ができる。
[Virtual viewpoint image generation unit 31]
As shown in FIG. 16, the virtual viewpoint image generation unit 31 combines the virtual viewpoint image data Ipna and Ipnb to generate virtual viewpoint image data Ima.
The virtual viewpoint image generation unit 31 outputs the virtual viewpoint image data Ima to the other
Here, the virtual viewpoint image data Ima is data for displaying an image as if captured by a virtual camera installed near the center of the screen. As a result, the users a and b shown in FIG. 1 can interact with each other through the displays 5a and 5b with their lines of sight matched.
[動作例]
以下、図1に示す画像処理装置2aの動作例を説明する。
図18は、図1に示す画像処理装置2aの動作例を説明するためのフローチャートである。
ステップST1:
画像並行化処理部20が、カメラ11a、12aから入力した画像データPa1,Pa2に画像補正処理および正規化処理を施して、正規化画像データPm1,Pm2を生成し、非順番対応領域検出部27に出力する。
このとき、画像並行化処理部20は、キャリブレーション部26から入力したカメラ11a、12aのレンズ歪みや画像中心等のパラメータを基に上記画像補正処理を行う。
[Operation example]
Hereinafter, an operation example of the
FIG. 18 is a flowchart for explaining an operation example of the
Step ST1:
The image
At this time, the image
ステップST2:
非順番対応領域検出部27は、図4に示すように、正規化画像データPm1,Pm2から背景画像データPk1、Pk2を除去して前景画像データPf1、Pf2を生成する。
このように、背景画像を除去することで、背景画像の影響を軽減した効率的なマッチング処理を行うことができる。
Step ST2:
As shown in FIG. 4, the non-order corresponding
In this manner, by removing the background image, it is possible to perform an efficient matching process that reduces the influence of the background image.
ステップST3:
非順番対応領域検出部27は、順番対応拘束がないステレオマッチング手法により、前景画像データPf1、Pf2を基に、視差マップデータDm1,Dm2を生成(推定)する。
本実施形態では、順番対応拘束がないステレオマッチング手法として、エリアベースマッチング手法などが用いられる。
Step ST3:
The non-order corresponding
In the present embodiment, an area-based matching method or the like is used as a stereo matching method with no order correspondence constraint.
ステップST4:
非順番対応領域検出部27は、視差マップデータDm1,Dm2の各々について、当該データを構成する画素データを、所定のしきい値以上の画素データ(手前の画素データ)と、上記しきい値未満の画素データとに分類する。
そして、非順番対応領域検出部27は、上記しきい値以上の画素データによって構成される非順番対応領域視差データを生成する。
例えば、非順番対応領域検出部27は、図5に示すように、視差マップデータDm1,Dm2から、それぞれ非順番対応領域視差データCL1、CL2を生成する。
非順番対応領域検出部27は、前景画像データPf1、Pf2と、非順番対応領域視差データCL1、CL2とを非順番対応領域分離部28に出力する。
非順番対応領域分離部28は、図5に示すように、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から非順番対応画像データPe1b、Pe2bを抽出し、これをDPマッチング処理部29に出力する。
また、非順番対応領域分離部28は、非順番対応領域視差データCL1、CL2を基に、前景画像データPf1、Pf2から順番対応画像データを抽出する。
そして、非順番対応領域分離部28は、図6に示すように、上記抽出した順番対応画像データ内の非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これをDPマッチング処理部29に出力する。
Step ST4:
For each of the parallax map data Dm1 and Dm2, the non-order corresponding
Then, the non-order-corresponding
For example, as shown in FIG. 5, the non-order corresponding
The non-order corresponding
As shown in FIG. 5, the non-order corresponding
Further, the non-order corresponding
Then, as shown in FIG. 6, the non-order-corresponding
ステップST5:
DPマッチング処理部29では、図6および図10に示すように、人物領域の対称性を用いてラベル付けされた順番対応画像データPe1a,Pe2aのラベル修正処理を行い、修正順番対応画像データPe1c,Pe2cを生成する。
Step ST5:
As shown in FIGS. 6 and 10, the DP
ステップST6:
DPマッチング処理部29は、上記式(1)〜(12)に示すコスト計算により、修正順番対応画像データPe1cとPe2cとの間のDPマッチング処理を行ってDPマッチング処理結果DPaを生成し、これを各領域仮想視点画像生成部30に出力する。
ここで、DPマッチング処理部29は、上記式(11),(12)により、ラベル領域について、それ以外の領域とは別のコスト計算を行う。すなわち、DPマッチング処理部29は、ラベル領域については、画像データPe1cとPe2cとの対応点の双方がオクリュージョン領域に存在しないことを条件に、その対応点の画素値を用いて、その他の領域と同様にマッチングコストを算出するが、上記条件を満たさない場合には、マッチングコストを予め決めた一定(固定)値とする。
また、DPマッチング処理部29は、修正順番対応画像データPe1c,Pe2cを各領域仮想視点画像生成部30に出力する。
Step ST6:
The DP
Here, the DP
In addition, the DP
ステップST7:
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1a,Pe2aと、そのDPマッチング処理結果DPaとを基に、例えば、図15に示す手順で、仮想視点順番対応画像データIpnaを生成し、これを仮想視点画像生成部31に出力する。
Step ST7:
Each region virtual viewpoint
ステップST8:
DPマッチング処理部29は、上記式(1)〜(10)に示すコスト計算により、修正順番対応画像データPe1bとPe2bとの間のDPマッチング処理を行ってDPマッチング処理結果DPbを生成し、これを各領域仮想視点画像生成部30に出力する。
また、DPマッチング処理部29は、修正順番対応画像データPe1b,Pe2bを各領域仮想視点画像生成部30に出力する。
Step ST8:
The DP
In addition, the DP
ステップST9:
各領域仮想視点画像生成部30は、DPマッチング処理部29から入力した順番対応画像データPe1b,Pe2bと、そのDPマッチング処理結果DPbとを基に、例えば、図15に示す手順で、仮想視点順番対応画像データIpnbを生成し、これを仮想視点画像生成部31に出力する。
Step ST9:
Each region virtual viewpoint
仮想視点画像生成部31は、図16に示すように、各領域仮想視点画像生成部30から入力した仮想視点画像データIpnaとIpnbとを合成して仮想視点画像データImaを生成する。
As illustrated in FIG. 16, the virtual viewpoint image generation unit 31 combines the virtual viewpoint image data Ipna and Ipnb input from each region virtual viewpoint
[効果]
以上説明したように、画像処理装置2aでは、図15に示すように、画素位置P11,P11’の何れか一方がオクリュージョン領域にある場合には、仮想視点画像データIpnaの輝度成分Ptの算出に、そのオクリュージョン領域にある画素位置の輝度成分を用いずに、オクリュージョン領域にない画素位置の輝度成分のみを用いる。
これにより、高品質な仮想視点画像データIpnaを生成できる。
なお、図15に示す手法は、仮想視点画像データIpnaの生成の他に、各領域仮想視点画像生成部30において、非順番対応画像データPe1b,Pe2bを基に仮想視点画像データIpnbを生成する場合にも同様に適用できる。
[effect]
As described above, in the
Thereby, high-quality virtual viewpoint image data Ipna can be generated.
In the method shown in FIG. 15, in addition to the generation of the virtual viewpoint image data Ipna, each region virtual viewpoint
また、画像処理装置2aでは、撮像画像を、順番対応拘束を満たす順番対応画像データPe1a,Pe2aと、満たさない非順番対応画像データPe1b,Pe2bとに分離してDPマッチングすることで、それぞれについて正確にマッチング処理を行うことができる。
また、画像処理装置2aでは上記分離した順番対応画像データPe1a,Pe2aと非順番対応画像データPe1b,Pe2bとのそれぞれについて生成した仮想視点画像データIpna,Ipnbを合成することで、正確な仮想視点画像データImaを生成できる。
In the
Further, the
また。画像処理装置2aでは、非順番対応画像データの部分をラベル画像に置き換えた(ラベル付けした)順番対応画像データPe1a、Pe2aを生成し、これを用いて、ラベル画像部分について上記式(11),(12)の関数を用いてDPマッチング処理を行う。これにより、順番対応画像データについて正確なマッチング処理が可能になる。
Also. The
特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
In particular, in this communication system 1, it is sufficient to arrange at least two
Further, in the communication system 1, it is not necessary to use a special device such as a half mirror, a hologram screen, or a projector, and a simple and inexpensive system can be configured.
本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
例えば、図2に示す画像処理装置2aの全てあるいは一部の構成あるいはステップを、それを行う専用のハードウェアとして実現してもよい。
また、画像処理装置2aは、例えば、図19に示すように、バス120を介して、インタフェース121、メモリ122および処理回路123を接続した画像処理装置102として実現してもよい。
この場合には、処理回路123は、メモリ122からプログラムPRGを読み出して、図15および図18に示す各ステップを実行する。
このとき、処理回路123は、図15および図18に示す各ステップの処理で得られる中間データを適宜メモリ122やその他のバッファメモリに記憶し、必要に応じて読み出して処理に用いる。
なお、メモリ122は、半導体メモリや、光ディスク、磁気ディスク、光磁気ディスクなどの記録媒体である。
The present invention is not limited to the embodiment described above.
That is, those skilled in the art may make various modifications, combinations, subcombinations, and alternatives regarding the components of the above-described embodiments within the technical scope of the present invention or an equivalent scope thereof.
For example, all or a part of the configuration or steps of the
Further, for example, as illustrated in FIG. 19, the
In this case, the
At this time, the
The memory 122 is a recording medium such as a semiconductor memory, an optical disk, a magnetic disk, or a magneto-optical disk.
1…通信システム、2a,2b…画像処理装置、11a,11b…カメラ、20…画像並行化処理部、26…キャリブレーション部、27…非順番対応領域検出部、28…非順番対応領域分離部、29…DPマッチング処理部、30…各領域仮想視点画像生成部、31…仮想視点画像生成部
DESCRIPTION OF SYMBOLS 1 ... Communication system, 2a, 2b ... Image processing apparatus, 11a, 11b ... Camera, 20 ... Image parallelization process part, 26 ... Calibration part, 27 ... Unorder corresponding | compatible area | region detection part, 28 ... Unorder corresponding | compatible area | region separation part , 29 ... DP matching processing unit, 30 ... each region virtual viewpoint image generation unit, 31 ... virtual viewpoint image generation unit
Claims (5)
前記第1の工程で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の工程と、
前記複数の画像の前記第2の工程で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行う第3の工程と、
前記第3の工程のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第4の工程と、
前記第4の工程の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第5の工程と、
を有し、
前記第5の工程は、
前記第4の工程の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記第4の工程の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の工程で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
画像処理方法。 For each of the plurality of images, a first step of generating parallax data by a matching method without order correspondence constraint;
Based on the parallax data generated in the first step, for each of the plurality of images, a second image that separates the image into a non-order-corresponding image whose parallax is greater than or equal to a reference and other order-corresponding images Process,
A third step of individually performing a matching process on the order-corresponding image and the non-order-corresponding image separated in the second step of the plurality of images by a matching method having the order correspondence constraint ;
A fourth step of determining whether or not a plurality of pixels associated in the matching process of the third step exist in the occlusion region;
Based on the determination result of the fourth step, a virtual value corresponding to the plurality of pixels in the virtual viewpoint image is obtained using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. A fifth step of generating pixel values;
I have a,
The fifth step includes
Based on the determination result of the fourth step, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. ,
Based on the determination result of the fourth step, when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region, the separation is performed in the second step. For at least one of the order-corresponding image and the non-order-corresponding image, corresponding to the two pixels in the virtual viewpoint image using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels. An image processing method for generating a virtual pixel value .
をさらに有する請求項1に記載の画像処理方法。 The image processing method according to claim 1 , further comprising: a sixth step of synthesizing the virtual viewpoint image of the order-corresponding image and the virtual viewpoint image of the non-order-corresponding image.
をさらに有し、
前記第3の工程は、
前記複数の画像のエピポーラ線上に沿った画素の順で、前記2つの画像の前記第7の工程で前記ラベル処理された前記順番対応画像について、その画素間の画素値の差分に応じたコストの累積値を最小にする前記画素間の対応付けを探索し、
前記対応付けの対象となる前記2つの画素のうち少なくとも一方がオクリュージョン領域に位置する場合に前記コストを一定値とし、そうでない場合に前記2つの画素の前記画素値の差分に応じて前記コストを算出する
請求項2に記載の画像処理方法。 A seventh step of performing a label process of rewriting a portion corresponding to the non-order-corresponding image in the order-corresponding image separated in the second step into a label image indicating a certain pixel value;
The third step includes
In the order of the pixels along the epipolar lines of the plurality of images, the cost corresponding to the difference in pixel values between the pixels of the order-corresponding images that have been subjected to the label processing in the seventh step of the two images. Searching for a correspondence between the pixels that minimizes the cumulative value;
The cost is set to a constant value when at least one of the two pixels to be matched is located in an occlusion area, and otherwise, the cost is determined according to the difference between the pixel values of the two pixels. The image processing method according to claim 2 , wherein the cost is calculated.
前記複数の画像の前記分離手段が分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行うマッチング手段と、
前記マッチング手段のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する判断手段と、
前記判断手段の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する生成手段と、
を有し、
前記生成手段は、
前記判断手段の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記判断手段の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記分離手段が分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
画像処理装置。 For each of the plurality of images, disparity data is generated by a matching method without order correspondence constraint, and based on the disparity data, for each of the plurality of images, the image is a non-order correspondence image with a parallax equal to or higher than a reference, Separation means for separating into other order-corresponding images,
A matching unit that individually performs a matching process on the order-corresponding image and the non-order-corresponding image separated by the separating unit of the plurality of images by a matching method having the order-corresponding constraint ;
Determining means for determining whether or not a plurality of pixels associated in the matching process of the matching means exist in an occlusion region;
Based on the determination result of the determination unit, a virtual pixel value corresponding to the plurality of pixels in the virtual viewpoint image using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. Generating means for generating
I have a,
The generating means includes
Based on the determination result of the determination means, when both of the two associated pixels do not exist in the occlusion area, the virtual pixel value is generated using the pixel value of the two pixels,
Based on the determination result of the determination unit, when one of the two pixels exists in the occlusion region and the other does not exist in the occlusion region, the order correspondence image separated by the separation unit and For at least one of the unordered images, a virtual pixel value corresponding to the two pixels in the virtual viewpoint image using a pixel value of a pixel that does not exist in the occlusion area among the two associated pixels An image processing apparatus for generating
複数の画像の各々について、順番対応拘束のないマッチング手法で視差データを生成する第1の手順と、
前記第1の手順で生成した前記視差データを基に、前記複数の画像の各々について、当該画像を視差が基準以上の非順番対応画像と、それ以外の順番対応画像とに分離する第2の手順と、
前記複数の画像の前記第2の手順で分離した前記順番対応画像と非順番対応画像とを、前記順番対応拘束があるマッチング手法で個別にマッチング処理を行う第3の手順と、
前記第3の手順のマッチング処理で対応付けられた複数の画素がオクリュージョン領域に存在するか否かを判断する第4の手順と、
前記第4の手順の判断結果を基に、前記対応付けられた複数の画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記複数の画素に対応した仮想画素値を生成する第5の手順と、
を前記コンピュータに実行させ、
前記第5の手順において、
前記第4の手順の判断結果を基に、前記対応付けられた2つの画素の双方がオクリュージョン領域に存在しない場合に、前記2つの画素の画素値を用いて前記仮想画素値を生成し、
前記第4の手順の判断結果を基に、前記2つの画素の一方が前記オクリュージョン領域に存在し、他方が前記オクリュージョン領域に存在しない場合に、前記第2の手順で分離した前記順番対応画像と非順番対応画像との少なくとも一方について、前記対応付けられた2つの画素のうちオクリュージョン領域に存在しない画素の画素値を用いて、仮想視点画像内の前記2つの画素に対応した仮想画素値を生成する
プログラム。 A program executed by a computer included in an image processing apparatus ,
For each of the plurality of images, a first procedure for generating parallax data by a matching method without order correspondence constraint;
Based on the parallax data generated in the first procedure, for each of the plurality of images, a second image that separates the image into a non-order-corresponding image whose parallax is equal to or higher than a reference and other order-corresponding images Procedure and
A third step of performing a matching process individually by the plurality of the said order corresponding images and non-order corresponding image separated in the second step of the image, matching technique has the sequence corresponding restraint,
A fourth procedure for determining whether or not a plurality of pixels associated in the matching process of the third procedure exist in the occlusion region;
Based on the determination result of the fourth procedure, a virtual value corresponding to the plurality of pixels in the virtual viewpoint image is obtained using a pixel value of a pixel that does not exist in the occlusion area among the plurality of associated pixels. A fifth procedure for generating pixel values;
To the computer ,
In the fifth procedure,
Based on the determination result of the fourth procedure, the virtual pixel value is generated using the pixel values of the two pixels when both of the two associated pixels do not exist in the occlusion region. ,
Based on the determination result of the fourth procedure, when one of the two pixels is present in the occlusion region and the other is not present in the occlusion region, the separation is performed in the second procedure. For at least one of the order-corresponding image and the non-order-corresponding image, corresponding to the two pixels in the virtual viewpoint image using the pixel value of the pixel that does not exist in the occlusion area among the two associated pixels. A program that generates virtual pixel values .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005101924A JP4617965B2 (en) | 2005-03-31 | 2005-03-31 | Image processing method, apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005101924A JP4617965B2 (en) | 2005-03-31 | 2005-03-31 | Image processing method, apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006285415A JP2006285415A (en) | 2006-10-19 |
JP4617965B2 true JP4617965B2 (en) | 2011-01-26 |
Family
ID=37407309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005101924A Expired - Fee Related JP4617965B2 (en) | 2005-03-31 | 2005-03-31 | Image processing method, apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4617965B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4852591B2 (en) * | 2008-11-27 | 2012-01-11 | 富士フイルム株式会社 | Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus |
JP5182229B2 (en) * | 2009-06-02 | 2013-04-17 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5202448B2 (en) * | 2009-06-17 | 2013-06-05 | シャープ株式会社 | Image processing system and method |
JP2011044828A (en) * | 2009-08-19 | 2011-03-03 | Fujifilm Corp | Stereoscopic image generator, stereoscopic image printing device, and stereoscopic image generation method |
JP4939639B2 (en) * | 2010-09-28 | 2012-05-30 | シャープ株式会社 | Image processing apparatus, image processing method, program, and recording medium |
JP2012022716A (en) * | 2011-10-21 | 2012-02-02 | Fujifilm Corp | Apparatus, method and program for processing three-dimensional image, and three-dimensional imaging apparatus |
US10846916B2 (en) | 2015-12-01 | 2020-11-24 | Sony Corporation | Image processing apparatus and image processing method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000180121A (en) * | 1998-12-18 | 2000-06-30 | Sony Corp | Processor and method for image processing and provision medium |
JP2000215311A (en) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating virtual viewpoint image |
JP2000322576A (en) * | 1999-05-11 | 2000-11-24 | Toshiba Corp | Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data |
JP2001052177A (en) * | 1999-08-11 | 2001-02-23 | Univ Waseda | Image processor and method for processing image |
JP2001184497A (en) * | 1999-10-14 | 2001-07-06 | Komatsu Ltd | Stereo image processor and recording medium |
JP2001208522A (en) * | 2000-01-24 | 2001-08-03 | Sony Corp | Distance image generator, distance image generation method and program supply medium |
JP2001283201A (en) * | 2000-03-31 | 2001-10-12 | Toshiba Corp | Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data |
JP2004152133A (en) * | 2002-10-31 | 2004-05-27 | Nippon Telegr & Teleph Corp <Ntt> | Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH033080A (en) * | 1989-05-31 | 1991-01-09 | Fujitsu Ltd | Corresponding preprocessing system based upon image construction |
JP2888108B2 (en) * | 1993-09-29 | 1999-05-10 | 凸版印刷株式会社 | Parallax image creation method and device |
JPH07274063A (en) * | 1994-03-29 | 1995-10-20 | Canon Inc | Method and device for processing picture |
JP3054312B2 (en) * | 1994-04-22 | 2000-06-19 | キヤノン株式会社 | Image processing apparatus and method |
US6046763A (en) * | 1997-04-11 | 2000-04-04 | Nec Research Institute, Inc. | Maximum flow method for stereo correspondence |
-
2005
- 2005-03-31 JP JP2005101924A patent/JP4617965B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000180121A (en) * | 1998-12-18 | 2000-06-30 | Sony Corp | Processor and method for image processing and provision medium |
JP2000215311A (en) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating virtual viewpoint image |
JP2000322576A (en) * | 1999-05-11 | 2000-11-24 | Toshiba Corp | Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data |
JP2001052177A (en) * | 1999-08-11 | 2001-02-23 | Univ Waseda | Image processor and method for processing image |
JP2001184497A (en) * | 1999-10-14 | 2001-07-06 | Komatsu Ltd | Stereo image processor and recording medium |
JP2001208522A (en) * | 2000-01-24 | 2001-08-03 | Sony Corp | Distance image generator, distance image generation method and program supply medium |
JP2001283201A (en) * | 2000-03-31 | 2001-10-12 | Toshiba Corp | Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data |
JP2004152133A (en) * | 2002-10-31 | 2004-05-27 | Nippon Telegr & Teleph Corp <Ntt> | Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2006285415A (en) | 2006-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4069855B2 (en) | Image processing apparatus and method | |
JP2006114023A (en) | Image processing device and method | |
CN104685513B (en) | According to the high-resolution estimation of the feature based of the low-resolution image caught using array source | |
JP4617965B2 (en) | Image processing method, apparatus and program | |
US8345961B2 (en) | Image stitching method and apparatus | |
US20110080466A1 (en) | Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images | |
WO2020007320A1 (en) | Method for fusing multi-visual angle images, apparatus, computer device, and storage medium | |
Hedborg et al. | Structure and motion estimation from rolling shutter video | |
US11068699B2 (en) | Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication | |
WO2008029345A1 (en) | Method for determining a depth map from images, device for determining a depth map | |
KR100560464B1 (en) | Multi-view display system with viewpoint adaptation | |
KR101933037B1 (en) | Apparatus for reproducing 360 degrees video images for virtual reality | |
JP2011060282A (en) | Method and system for motion detection using nonlinear smoothing of motion field | |
JP4539015B2 (en) | Image communication apparatus, image communication method, and computer program | |
Placitelli et al. | Low-cost augmented reality systems via 3D point cloud sensors | |
JP4461739B2 (en) | Imaging device | |
Schreer et al. | 3dpresence-a system concept for multi-user and multi-party immersive 3d videoconferencing | |
EP3407297B1 (en) | Method and device for determining a characteristic of a display device | |
JP2006024141A (en) | Image processor and image processing method and program | |
US20230005213A1 (en) | Imaging apparatus, imaging method, and program | |
JP2005142765A (en) | Apparatus and method for imaging | |
Dumont et al. | A Prototype for Practical Eye-Gaze Corrected Video Chat on Graphics Hardware. | |
Chen et al. | Making in‐Front‐of Cars Transparent: Sharing First‐Person‐Views via Dashcam | |
JP2005174148A (en) | Image pickup device and method, and image pickup system | |
JP2006285414A (en) | Image processing method, device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100928 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101011 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131105 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131105 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |