JP5358137B2 - Image generating apparatus, method and program - Google Patents

Image generating apparatus, method and program Download PDF

Info

Publication number
JP5358137B2
JP5358137B2 JP2008197697A JP2008197697A JP5358137B2 JP 5358137 B2 JP5358137 B2 JP 5358137B2 JP 2008197697 A JP2008197697 A JP 2008197697A JP 2008197697 A JP2008197697 A JP 2008197697A JP 5358137 B2 JP5358137 B2 JP 5358137B2
Authority
JP
Japan
Prior art keywords
pixel
image
block
search area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008197697A
Other languages
Japanese (ja)
Other versions
JP2010033503A (en
Inventor
パナヒプル テヘラニ メヒルダド
彰夫 石川
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008197697A priority Critical patent/JP5358137B2/en
Publication of JP2010033503A publication Critical patent/JP2010033503A/en
Application granted granted Critical
Publication of JP5358137B2 publication Critical patent/JP5358137B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自由視点映像を実現する光線空間の構築技術に関する。   The present invention relates to a technology for constructing a light space for realizing a free viewpoint image.

複数のカメラで撮影した静止画像又は動画像に基づき、任意の視点位置から見た映像を再現する自由視点映像技術について、様々な提案が行われている(例えば、特許文献1、非特許文献1及び非特許文献2、参照。)。   Various proposals have been made regarding free viewpoint video technology for reproducing video viewed from an arbitrary viewpoint position based on still images or moving images taken by a plurality of cameras (for example, Patent Document 1 and Non-Patent Document 1). And Non-Patent Document 2, for example).

従来技術による方法では、複数のカメラでほぼ同時刻に撮影した画像を光線空間上に配置し、カメラが存在しない位置から見た画像については、周囲にある実際に撮影した画像から補間処理により生成し、これにより任意の視点位置から見た映像を再現している。   In the prior art method, images taken at approximately the same time by a plurality of cameras are arranged in the light space, and an image viewed from a position where no camera is present is generated by interpolation processing from images actually taken around. Thus, the video viewed from an arbitrary viewpoint position is reproduced.

特開2008−15756号公報JP 2008-15756 A Takeshi Naemura、et al.、“Ray−Based Creation of Photo−Realistic Virtual World”、VSMM97、pp.59−68、1997年9月Takeshi Naemura, et al. "Ray-Based Creation of Photo-Realistic Virtual World", VSMM97, pp. 59-68, September 1997 Michael Droese、et al.、“Ray−Space Interpolation based on Filtering in Disparity Domain”、Proc. of 3D Image Conference 2004、pp.29−30、2004年Michael Drose, et al. “Ray-Space Interpolation based on Filtering in Disparity Domain”, Proc. of 3D Image Conference 2004, pp. 29-30, 2004 C.Niclass、et al.、“A CMOS 3D Camera with Millimetric Depth Resolution”、IEEE Custom Integrated Circuits Conference、pp.705−708、2004年C. Nicolas, et al. "A CMOS 3D Camera with Millimetric Depth Resolution", IEEE Custom Integrated Circuits Conference, pp. 705-708, 2004

実際に撮影した画像の間の位置から見た画像を補間処理により生成して密な光線空間を構築するにあたり、生成する画像内の各画素値を、実際に撮影した画像の対応画素に基づき生成することが重要となる。対応する画素判定の精度が低いと、補間処理により生成された画像の品質が劣化し、よって、自由視点映像システム全体の品質が劣化することとなる。一方、補間処理による画像の生成は、処理負荷が高く、できるだけ簡易に対応する画素を探索することが要求される。   When constructing a dense ray space by generating images viewed from positions between actually captured images by interpolation processing, each pixel value in the generated image is generated based on the corresponding pixels of the actually captured image It is important to do. If the accuracy of the corresponding pixel determination is low, the quality of the image generated by the interpolation process is degraded, and thus the quality of the entire free viewpoint video system is degraded. On the other hand, generation of an image by interpolation processing has a high processing load, and it is required to search for a corresponding pixel as easily as possible.

したがって、本発明は、光線空間を構築するために、実際に撮影された画像内の対応する画素を簡易にかつ精度良く見つけて、実際にはカメラが存在しない位置における画像を生成する画像生成装置、方法及び前記画像生成装置としてコンピュータを機能させるプログラムを提供することを目的とする。   Therefore, the present invention provides an image generation apparatus that easily and accurately finds corresponding pixels in an actually captured image and constructs an image at a position where no camera actually exists in order to construct a ray space. An object of the present invention is to provide a method and a program for causing a computer to function as the image generation apparatus.

本発明における画像生成装置によれば、
第1の画像及び第2の画像に基づき、指定された視点における第3の画像の第3の画素の画素値を決定する画像生成装置であって、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、実空間の一点からの光線を示す点の該光線空間における分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求める交点検出手段と、第1の画素を中心とした所定範囲である第1の探索領域と、第2の画素を中心とした同じ所定範囲である第2の探索領域内において、所定の画素サイズのブロックによるブロック・マッチングを適用し、最も相関の高い組合せである、第1の探索領域内の第1のブロックと第2の探索領域内の第2のブロックを求める対応点検出手段と、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定する画素値算出手段とを備え、前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにしたことを特徴とする。
According to the image generation apparatus of the present invention,
An image generation device that determines a pixel value of a third pixel of a third image at a specified viewpoint based on a first image and a second image, wherein each pixel of the first and second images A first image corresponding to the third pixel, based on position information in the light space and real space, a distribution in the light space of points representing light rays from one point in the real space, and the designated viewpoint; The first pixel, the intersection detection means for obtaining the second pixel of the second image, the first search area that is a predetermined range centered on the first pixel, and the second pixel In the second search region that is the same predetermined range, block matching by a block having a predetermined pixel size is applied, and the first block in the first search region and the second block that are the most correlated combination are applied. Corresponding point detecting means for obtaining a second block in the search area; The pixel at the center of one of the blocks, based on the pixel in the center of the second block, and a pixel value calculating means for determining a pixel value of the third pixel, the first search area and the second The range of the search area is reduced as it approaches the position of the third pixel in the light space, and increases as it moves away .

本発明の画像生成装置における他の実施形態によれば、
複数のカメラの位置及び方向と、前記複数のカメラが撮影した撮影画像に基づき、前記複数のカメラのカメラパラメータのキャリブレーションと、前記撮影画像の各画素の実空間での位置情報を求める前処理手段と、前記撮影画像と、前記撮影画像から生成した生成画像を保存する保存手段とを備えており、前記第1の画像及び前記第2の画像は、それぞれ、前記撮影画像又は前記生成画像であり、前記生成画像の各画素は、前記交点検出手段、対応点検出手段及び画素値算出手段により決定したものであることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
Based on the positions and directions of a plurality of cameras and the captured images captured by the plurality of cameras, pre-processing for calibrating camera parameters of the plurality of cameras and determining positional information of each pixel of the captured images in real space Means, a captured image, and storage means for storing a generated image generated from the captured image, wherein the first image and the second image are the captured image or the generated image, respectively. Preferably, each pixel of the generated image is determined by the intersection detection unit, the corresponding point detection unit, and the pixel value calculation unit.

本発明の画像生成装置における他の実施形態によれば、
前記第1の画像及び第2の画像の視点は、前記第3の画像の前記指定された視点において当該視点の方向に伸ばした直線の両側にあることも好ましい。
According to another embodiment of the image generation apparatus of the present invention,
It is also preferable that the viewpoints of the first image and the second image are on both sides of a straight line extending in the direction of the viewpoint at the designated viewpoint of the third image.

本発明における画像生成方法によれば、
第1の画像と、第2の画像に基づき、画像生成装置において、指定された視点における第3の画像の第3の画素の画素値を決定する方法であって、交点検出部が、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、該光線空間における実空間の各位置の分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求めるステップと、対応点検出部が、第1の画素を中心とした範囲である矩形の第1の探索領域を第1の画像に、第2の画素を中心とした範囲である矩形の第2の探索領域を第2の画像に設定するステップと、対応点検出部が、第1の探索領域内にある所定の画素サイズの各ブロックと、第2の探索領域内にある前記所定の画素サイズの各ブロックとの相関をそれぞれ求めることにより、第1の探索領域内の第1のブロックに対応する第2の探索領域内の第2のブロックを求めるステップと、画素値算出部が、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定するステップとを備え、前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにしたことを特徴とする。
According to the image generation method of the present invention,
A method for determining a pixel value of a third pixel of a third image at a designated viewpoint in an image generation device based on a first image and a second image, wherein the intersection detection unit includes: Corresponding to the third pixel based on the positional information of each pixel of the second image in the light space and the real space, the distribution of the positions of the real space in the light space, and the designated viewpoint. The step of obtaining the first pixel of the first image and the second pixel of the second image, and the corresponding point detection unit obtains a rectangular first search region that is a range centered on the first pixel. A step of setting, in the first image, a rectangular second search area that is a range centered on the second pixel in the first image, and a corresponding point detection unit within the first search area. And a block of the predetermined pixel size in the second search area. Determining the second block in the second search area corresponding to the first block in the first search area by determining the correlation of And determining the pixel value of the third pixel based on the pixel at the center of the second block, and the range of the first search area and the second search area is defined as a ray space. It is characterized in that it becomes smaller as it gets closer to the position of the third pixel in, and becomes larger as it goes away .

本発明におけるプログラムは、コンピュータを上記画像生成装置として機能させることを特徴とする。   A program according to the present invention causes a computer to function as the image generation apparatus.

実空間上のある一点からの各光線は、光線空間においては曲線又は直線状に分布し、この分布は、カメラパラメータ、カメラ位置及び方向、各画素の実空間での位置に基づき求めることができる。しかしながら、分布の算出に使用する各値には、通常、誤差が含まれており、この分布により第1及び第2の画像の対応画素を正確に求めることはできない。しかしながら、誤差が著しく大きくない限り、対応画素は、分布により求めた画素の近傍に存在するため、求めた画素を中心とする探索領域に対してブロック・マッチングを適用して対応画素を決定する。分布によりブロック・マッチングを適用する探索領域をある狭い範囲に限定することで、簡易に対応画素を見つけることが可能になる。   Each ray from a point in the real space is distributed in a curve or a straight line in the ray space, and this distribution can be obtained based on the camera parameters, the camera position and direction, and the position of each pixel in the real space. . However, each value used for calculating the distribution usually includes an error, and the corresponding pixels of the first and second images cannot be accurately obtained by this distribution. However, as long as the error is not significantly large, the corresponding pixel exists in the vicinity of the pixel obtained from the distribution. Therefore, the corresponding pixel is determined by applying block matching to the search region centered on the obtained pixel. By limiting the search area to which the block matching is applied according to the distribution to a narrow range, it is possible to easily find the corresponding pixel.

まず、本発明による画像生成装置の概略について説明する。図4に示す様に、円周上にカメラ11〜18を、その中心に向けて配置して撮影する場合を考える。なお、Z軸正方向を基準とし、方角をZ軸から反時計周り方向の角度θで表すものとする。各カメラは、そのカメラ位置及び方向並びにカメラパラメータで決まる範囲の方角で進行する光線を受けて画像情報を取得する。非特許文献1に記載の様に、例えば、ある水平平面内において、各カメラが取得する各光線を、その方角と、その方角に直交するP軸と光線との交点の位置にて表すものとする。この場合、図4(a)に示す様に、カメラ18が取得する光線の1つである光線90は、方角θであり、P軸と位置pで交差するものであるため、図4(b)に示す様にP−θ平面の点(p,θ)で表されることになる。 First, an outline of an image generation apparatus according to the present invention will be described. As shown in FIG. 4, a case is considered where the cameras 11 to 18 are arranged on the circumference so as to be directed toward the center. The direction is expressed as an angle θ in the counterclockwise direction from the Z axis with the Z axis positive direction as a reference. Each camera receives light rays traveling in the direction determined by the camera position and direction and camera parameters, and acquires image information. As described in Non-Patent Document 1, for example, in a certain horizontal plane, each ray acquired by each camera is represented by its direction and the position of the intersection of the P-axis and the ray orthogonal to the direction. To do. In this case, as shown in FIG. 4 (a), light 90 is one of light rays camera 18 is acquired, since a direction theta 0, is intended to intersect at a position p 0 and P axis, FIG. 4 As shown in (b), it is represented by a point (p 0 , θ 0 ) on the P-θ plane.

各カメラが撮影した画像の各画素の原因となる光線は、上述した様にカメラ位置及び方向並びにカメラパラメータから計算可能であり、よって、各光線と画素には対応関係が存在する。よって、各カメラが撮影した動画像のうち、ほぼ同じ瞬間に各カメラが撮影した画像における画素の画素値を、図4(b)に示す様に、P−θ平面の当該画素に対応する光線位置に記録することで光線空間が構築される。なお、図4(b)において、符号11−1〜18−1は、それぞれ、カメラ11〜18が撮影した画像である。   As described above, the light beam that causes each pixel of the image captured by each camera can be calculated from the camera position and direction, and the camera parameters. Therefore, there is a correspondence between each light beam and the pixel. Therefore, among the moving images captured by the cameras, the pixel values of the pixels in the images captured by the cameras at almost the same moment are represented by light rays corresponding to the pixels on the P-θ plane, as shown in FIG. A ray space is constructed by recording in the position. In FIG. 4B, reference numerals 11-1 to 18-1 are images taken by the cameras 11 to 18, respectively.

しかしながら、図4(b)に示す光線空間において、画像データは、実際にカメラが取得した光線に対応する位置にのみ存在し、それ以外の位置においては存在しない。本発明による画像生成装置は、他の光線に対応する画像データを、実際に撮影した画像データから補間処理により生成を行うものである。   However, in the ray space shown in FIG. 4B, the image data exists only at positions corresponding to the rays actually acquired by the camera, and does not exist at other positions. The image generation apparatus according to the present invention generates image data corresponding to other light rays by interpolation processing from actually captured image data.

図1は、本発明による画像生成装置のブロック図である。図1によると、画像生成装置は、保存部2と、前処理部3と、光線空間構築部4とを備えている。保存部2は、例えば、複数のカメラ1が撮影した静止画像又は動画像を、その画像を撮影したカメラについての情報に対応付けて保持している。なお、カメラについての情報とは、カメラの識別子と、カメラの位置と、カメラパラメータを含んでいる。なお、以下の実施形態においては、カメラ1は、図4に示す様に、円周状で、光軸が同一高さにおいてその中心を向く様に配置されているもの、つまり、各カメラの方向はカメラ位置から計算可能であるものとし、各カメラのカメラパラメータは同一であるものとする。   FIG. 1 is a block diagram of an image generation apparatus according to the present invention. As shown in FIG. 1, the image generation apparatus includes a storage unit 2, a preprocessing unit 3, and a light space construction unit 4. The storage unit 2 holds, for example, still images or moving images captured by a plurality of cameras 1 in association with information about the cameras that captured the images. The information about the camera includes a camera identifier, a camera position, and camera parameters. In the following embodiment, as shown in FIG. 4, the camera 1 has a circumferential shape and is arranged so that the optical axis faces the center at the same height, that is, the direction of each camera. Can be calculated from the camera position, and the camera parameters of each camera are the same.

前処理部3は、保存部2から、各カメラが撮影したほぼ同時刻の画像(以後、撮影画像と呼ぶ。)と、各カメラの位置と、カメラパラメータを取得し、これら情報に基づき、カメラ・キャリブレーションを行ってカメラパラメータを調整する。さらに、撮影画像の各画素について前景であるか、背景であるかの判定を行って、撮影画像に写っている各被写体、つまり、各対象物をモデル化し、視差情報等によりその位置の判定を行い、各画素の位置を特定するモデル情報を生成する。なお、これら処理には、奥行き情報取得のための公知の各方法を使用することができる。   The preprocessing unit 3 obtains from the storage unit 2 images at approximately the same time (hereinafter referred to as “captured images”) captured by the respective cameras, the positions of the respective cameras, and camera parameters. • Adjust the camera parameters by performing calibration. Further, each pixel of the photographed image is determined to be a foreground or a background, each subject in the photographed image, that is, each object is modeled, and its position is determined by parallax information or the like. To generate model information for specifying the position of each pixel. In addition, for each of these processes, known methods for obtaining depth information can be used.

光線空間構築部4は、外部から指定される又はあらかじめ画像生成装置に設定されている視点を示す情報に基づき、この視点から見た画像(以後、生成画像と呼ぶ。)を生成する。より詳しくは、この視点の位置において、視点の方向を向けたカメラを配置した場合にそのカメラが撮影するであろう各時刻の画像を、実際のカメラが撮影したほぼ同時刻の撮影画像から生成する。その後、この生成画像に対する視点を示す情報を保存部2に保存する。なお、視点の位置は、実際のカメラと同一円周上で同じ高さにあり、視点の方向は、実際のカメラと同じく中心を向き、視点から見た画像の範囲は、実際のカメラと同一、つまり、生成画像を撮影するものと想定するカメラは、実際のカメラと同一のカメラパラメータであるものとする。   The ray space constructing unit 4 generates an image viewed from this viewpoint (hereinafter referred to as a generated image) based on information indicating the viewpoint designated from the outside or set in advance in the image generation apparatus. More specifically, at this viewpoint position, when a camera with the direction of the viewpoint is placed, an image at each time that the camera will shoot is generated from images taken at almost the same time taken by the actual camera. To do. Thereafter, information indicating the viewpoint for the generated image is stored in the storage unit 2. The position of the viewpoint is the same height on the same circumference as the actual camera, the direction of the viewpoint is the same as the actual camera, and the image range viewed from the viewpoint is the same as the actual camera. In other words, the camera that is assumed to capture the generated image has the same camera parameters as the actual camera.

上述した様に、各画素の光線空間の位置は、カメラ位置、方向及びカメラパラメータから計算可能であるため、保存部2は、各カメラが撮影した撮影画像と、補間処理により生成した生成画像それぞれについて、各画素の光線空間及び実空間での位置情報を有することになり、撮影画像及び生成画像の画素値を対応する光線空間位置に配置することで、より密な光線空間が構築できることになる。なお、補間処理により生成する生成画像数、つまり、仮想的なカメラ位置の数は、システムに要求される視点位置の解像度等により決定する。   As described above, since the position of the light space of each pixel can be calculated from the camera position, direction, and camera parameters, the storage unit 2 captures each captured image captured by each camera and each generated image generated by interpolation processing. Therefore, it is possible to construct a denser light space by arranging the pixel values of the photographed image and the generated image at the corresponding light space positions. . Note that the number of generated images generated by the interpolation process, that is, the number of virtual camera positions is determined by the resolution of the viewpoint position required for the system.

図2は、光線空間構築部4のブロック図である。図2によると、光線空構築部4は、交点検出部41と、対応点検出部42と、画素値算出部43とを備えている。図3は、光線空間構築部4における処理を説明する図である。図3において、符号50及び60は、撮影画像であり、符号70は、仮想的なカメラが撮影するであろう画像、つまり生成画像である。生成画像70内の画素71の画素値を決定するために、交点検出部42は、光線空間上において実空間の同一位置を示す曲線のうち、画素71を通る曲線80を求め、この曲線80と撮影画像50との交点の画素51と、この曲線80と撮影画像60との交点の画素61を判定する。なお、曲線80は、撮影画像50及び60のモデル情報、より詳しくは、撮影画像50及び60の各画素の実空間での位置情報に基づき計算され、よって、仮想カメラ位置を考慮することにより交点を求めることができる。   FIG. 2 is a block diagram of the light space construction unit 4. According to FIG. 2, the ray sky construction unit 4 includes an intersection detection unit 41, a corresponding point detection unit 42, and a pixel value calculation unit 43. FIG. 3 is a diagram for explaining processing in the light space construction unit 4. In FIG. 3, reference numerals 50 and 60 are captured images, and reference numeral 70 is an image that is to be captured by a virtual camera, that is, a generated image. In order to determine the pixel value of the pixel 71 in the generated image 70, the intersection detection unit 42 obtains a curve 80 passing through the pixel 71 among the curves indicating the same position in the real space on the ray space. The pixel 51 at the intersection with the photographed image 50 and the pixel 61 at the intersection between the curve 80 and the photographed image 60 are determined. Note that the curve 80 is calculated based on the model information of the captured images 50 and 60, more specifically, based on the position information of each pixel of the captured images 50 and 60 in the real space. Can be requested.

例えば、図5に示す様に、方角φで原点からの距離rにある点94を通過する光線を考える。図5から明らかなように、点94を通過してθ方向に進行する光線とP軸との交点は、
r×sin(φ−θ) (1)
であり、点94は、光線空間において正弦波状に分布することになる。より正確には、点94を通る各光線は、光線空間において正弦波状に分布することになる。交点検出部41は、各カメラのカメラパラメータ、位置及び方向に基づき撮影画像の各画素の光線空間上での位置を求め、モデル情報から各画素の位置、つまり、式(1)におけるφ及びrを求め、これらと指定された視点の位置に設置を仮定するカメラの方向及びカメラパラメータから画素71を通過する曲線80を求めて、画素51、61を決定し、画素51、61を示す交点情報を対応点検出部42に出力する。
For example, as shown in FIG. 5, consider a ray passing through a point 94 at a distance r from the origin at a direction φ. As is clear from FIG. 5, the intersection of the light beam traveling through the point 94 in the θ direction and the P axis is
r × sin (φ−θ) (1)
And the points 94 are distributed in a sinusoidal shape in the ray space. More precisely, each ray passing through the point 94 will be distributed sinusoidally in the ray space. The intersection detection unit 41 obtains the position of each pixel in the light beam space of the captured image based on the camera parameters, position, and direction of each camera, and determines the position of each pixel from the model information, that is, φ and r in Expression (1). The curve 80 passing through the pixel 71 is obtained from the camera direction and camera parameters assumed to be installed at the viewpoint positions designated as these, the pixels 51 and 61 are determined, and the intersection information indicating the pixels 51 and 61 is obtained. Is output to the corresponding point detector 42.

仮に、各カメラの設置位置が正確であり、各カメラが正確にその中心を向き、さらに、カメラパラメータのキャリブレーションが完全に行われ、モデル情報が正確である場合、画素51と画素61は、それぞれ、画素71に対応する画素であるが、通常、各カメラの位置及び方向を完全に調整することは難しく、キャリブレーションによりカメラパラメータの特性差を完全に補償することはできず、モデル情報にも誤差がある。したがって、通常、画素51と、画素61は対応する画素とはならない。このため、対応点検出部42は、画素51を中心とする所定範囲の探索領域52と、画素61を中心とする同じ所定範囲の探索領域62を設定し、この範囲において、ブロック・マッチングにより対応するブロックを探索する。つまり、探索領域52内の各ブロックと、探索領域62内の各ブロックのうち、一番相関が高い組合せを探索する。具体的には、例えば、探索領域52内の各ブロックと、探索領域62内の各ブロックの組合せそれぞれに対して、同じ位置にある画素の値の差の絶対値の総和又は値の差の2乗の総和が一番小さいブロックの組合せを求める。図3(b)においては、ブロック53とブロック63が対応するものと判定されている。なお、探索領域の高さ及び幅は、想定されるカメラ設置位置及び方向の誤差、キャリブレーション誤差、モデル情報における対象物位置の誤差に基づき決定する。   If the installation position of each camera is accurate, each camera is accurately directed to the center, and further, the camera parameters are completely calibrated and the model information is accurate, the pixel 51 and the pixel 61 are Each of the pixels corresponds to the pixel 71. However, it is usually difficult to completely adjust the position and direction of each camera, and the camera parameter characteristic difference cannot be completely compensated for by calibration. There is also an error. Therefore, normally, the pixel 51 and the pixel 61 are not the corresponding pixels. For this reason, the corresponding point detection unit 42 sets a search area 52 of a predetermined range centered on the pixel 51 and a search area 62 of the same predetermined range centered on the pixel 61, and supports this by block matching in this range. Search for a block to perform. That is, the combination having the highest correlation among the blocks in the search area 52 and the blocks in the search area 62 is searched. Specifically, for example, for each combination of each block in the search area 52 and each block in the search area 62, the sum of the absolute values of the differences in the values of the pixels at the same position or the difference of 2 Find the combination of blocks with the smallest sum of powers. In FIG. 3B, it is determined that the block 53 and the block 63 correspond to each other. Note that the height and width of the search area are determined based on an assumed camera installation position and direction error, a calibration error, and an object position error in the model information.

対応点検出部42は、一番相関が高いブロックの中心画素、図3(b)の場合、ブロック53の中心にある画素54と、ブロック63の中心にある画素64を、画素71に対応する画素と判定し、画素54及び画素64を示す対応点情報を画素値算出部43に出力する。画素値算出部43は、対応点情報に基づき、以下の式にて画素71の画素値を算出する。
画素71の画素値=a×画素54の画素値+(1−a)×画素64の画素値
ここで、aは、0<a<1であり、光線空間における画素54と画素71の距離と画素64と画素71の距離の和に対する、画素71と画素64の距離に依存する値である。
The corresponding point detection unit 42 corresponds to the pixel 71, the central pixel of the block having the highest correlation, in the case of FIG. 3B, the pixel 54 at the center of the block 53 and the pixel 64 at the center of the block 63. The pixel is determined to be a pixel, and corresponding point information indicating the pixel 54 and the pixel 64 is output to the pixel value calculation unit 43. The pixel value calculation unit 43 calculates the pixel value of the pixel 71 by the following formula based on the corresponding point information.
Pixel value of the pixel 71 = a × pixel value of the pixel 54+ (1−a) × pixel value of the pixel 64 where a is 0 <a <1, and the distance between the pixel 54 and the pixel 71 in the ray space is The value depends on the distance between the pixel 71 and the pixel 64 with respect to the sum of the distance between the pixel 64 and the pixel 71.

この様に、光線空間構築部4は、生成画像の各画素それぞれに対して、上述した様に、計算上対応する撮影画像内の画素を求め、この点を中心とする探索領域に対してブロック・マッチングを行い、これにより、生成画像の画素値のために使用する画素の組を決定する。図3における曲線80は、カメラパラメータや、カメラ位置の誤差等により、実空間上の同じ点を結ぶ線とはならないが、カメラパラメータ及びカメラ位置の誤差が著しく大きくなければ、曲線80の近傍に対応する画素が存在することになる。本発明は、この曲線80により決定される点を中心に探索領域を設定して、ブロック・マッチングにより対応点を探索する。この様に、計算上の位置に基づき探索範囲を制限することで、対応点を簡易に素早く見つけることが可能になる。   As described above, the ray space construction unit 4 obtains a pixel in the captured image corresponding to the calculation for each pixel of the generated image, and blocks the search area centered on this point. Perform matching, thereby determining the set of pixels to use for the pixel values of the generated image. The curve 80 in FIG. 3 is not a line connecting the same points in the real space due to camera parameters, camera position errors, etc., but if the camera parameters and camera position errors are not significantly large, they are close to the curve 80. There will be a corresponding pixel. In the present invention, a search region is set around a point determined by the curve 80, and a corresponding point is searched by block matching. In this way, by limiting the search range based on the calculated position, the corresponding points can be easily and quickly found.

以上、撮影画像を撮影する実際のカメラ及び生成画像のために仮定する仮想的なカメラを円周上で、その中心を向くように配置し、総てのカメラパラメータが同一であるものとする実施形態にて説明したが、実際の及び仮想的なカメラの設置位置、方向及びカメラパラメータは、画素と光線空間の対応関係を求めるために使用するものであり、各画素と光線空間の対応関係が決定できる限り、実際の及び仮想的なカメラの設置位置、方向及びカメラパラメータに制限はない。つまり、被写体が存在する第1の空間と、被写体がなく実際のカメラを配置する第2の空間を明確に区別することを前提とする限り、第2の空間において、実際のカメラを、第1の空間の方向に向けて、例えば、直線、楕円、その他、任意の形状に配置することが可能であり、生成画像のための視点は、第1の空間及び第2の空間の任意の位置に設定することができる。   As described above, an actual camera that captures a captured image and a virtual camera that is assumed for a generated image are arranged on the circumference so as to face the center, and all camera parameters are the same. As described in the embodiment, the actual and virtual camera installation positions, directions, and camera parameters are used to determine the correspondence between the pixels and the light space. As long as it can be determined, there are no restrictions on the installation position, direction and camera parameters of the actual and virtual cameras. In other words, as long as it is premised that the first space where the subject exists and the second space where there is no subject and the actual camera is placed are clearly distinguished, the actual camera in the second space For example, a straight line, an ellipse, or any other shape can be arranged in the direction of the space, and the viewpoint for the generated image is at an arbitrary position in the first space and the second space. Can be set.

また、上述した実施形態においては、探索領域52及び62の高さ及び幅を、あらかじめ決められた固定値としたが、例えば、画素71の撮影画像50及び60に対する光線空間での距離に応じて可変とすることもできる。つまり、例えば、画素71が、撮影画像50に近くなるにつれて、探索領域52を小さくし、離れるにつれて、探索領域52を大きくする形態であっても良い。画素71との距離により誤差の範囲が変化するため、探索領域を、画素71の位置に応じて可変とすることで、より適切な探索領域とすることができる。また、各対象物の位置情報を、撮影画像に基づき判定するのではなく、例えば、非特許文献3に記載のセンサにより取得する形態であっても良い。   In the above-described embodiment, the heights and widths of the search areas 52 and 62 are fixed values determined in advance. For example, according to the distance in the light space with respect to the captured images 50 and 60 of the pixels 71. It can also be variable. That is, for example, the search area 52 may be reduced as the pixel 71 approaches the captured image 50 and the search area 52 may be increased as the pixel 71 moves away. Since the error range varies depending on the distance from the pixel 71, the search area can be made variable according to the position of the pixel 71, so that a more appropriate search area can be obtained. Further, the position information of each object may be acquired by a sensor described in Non-Patent Document 3, for example, instead of being determined based on a captured image.

なお、生成画像の総ての画素の画素値を同じ撮影画像の組に基づき決定する必要はない。例えば、図6に示す様に、カメラ21、22、23を設定して撮影画像を取得し、これら撮影画像からカメラ21とカメラ22の間に設定した視点に想定する仮想カメラ24が撮影するであろう生成画像を生成する場合を考える。なお、符号25及び符号26は被写体、つまり、対象物である。図6(a)に示す様に、対象物25の表面の点95からの光線は、カメラ21及びカメラ22に到達するため、生成画像の点95に対応する画素の画素値については、カメラ21及びカメラ22が撮影した撮影画像の組から生成することが可能である。しかしながら、図6(b)に示す様に、対象物25の表面の点96からの光線は、カメラ21及びカメラ23には到達するが、対象物26により遮蔽されるためカメラ22には到達しない。したがって、生成画像の点96に対応する画素の画素値については、カメラ21及びカメラ23が撮影した撮影画像の組から生成することになる。なお、図6(b)に示す、いわゆるオクルージョンの発生については、モデル情報に基づき判定を行う。   Note that it is not necessary to determine the pixel values of all the pixels of the generated image based on the same set of captured images. For example, as shown in FIG. 6, cameras 21, 22, and 23 are set and captured images are acquired, and a virtual camera 24 that is assumed to be a viewpoint set between the cameras 21 and 22 is captured from these captured images. Consider the case of generating a generated image. Reference numerals 25 and 26 are subjects, that is, objects. As shown in FIG. 6A, since the light rays from the point 95 on the surface of the object 25 reach the camera 21 and the camera 22, the pixel value of the pixel corresponding to the point 95 of the generated image is determined by the camera 21. And a set of captured images captured by the camera 22 can be generated. However, as shown in FIG. 6B, the light rays from the point 96 on the surface of the object 25 reach the camera 21 and the camera 23, but do not reach the camera 22 because they are shielded by the object 26. . Therefore, the pixel value of the pixel corresponding to the point 96 of the generated image is generated from a set of captured images captured by the camera 21 and the camera 23. The occurrence of so-called occlusion shown in FIG. 6B is determined based on the model information.

なお、ある視点における生成画像の画素値決定のために使用する2つの撮影画像は、そのカメラ位置が、視点を挟むように選択することが好ましい。詳しくは、図6にも表わされている様に、生成画像の視点位置において、視点の方向に直線を引いたときに、この直線の両側に配置された2つのカメラが撮影した撮影画像を使用することが好ましい。なお、当然ではあるが、撮影画像は、生成画像の画素値を決定する画素に対応する画素を含むものから選択する。   It should be noted that the two captured images used for determining the pixel value of the generated image at a certain viewpoint are preferably selected so that their camera positions sandwich the viewpoint. Specifically, as shown in FIG. 6, when a straight line is drawn in the direction of the viewpoint at the viewpoint position of the generated image, the captured images taken by the two cameras arranged on both sides of the straight line are taken. It is preferable to use it. Of course, the captured image is selected from those including pixels corresponding to the pixels for determining the pixel value of the generated image.

また、上述した実施形態は、カメラが実際に撮影した撮影画像に基づき生成画像を生成するものであった。しかしがながら、画像生成装置は、撮影画像に基づき生成された生成画像についても、撮影画像と同じく、各画素の光線空間における位置と実空間における位置の情報を有することになるため、生成画像を、さらに他の生成画像の画素の画素値を決定するために使用することができる。この場合、上記実施形態における撮影画像を生成画像と、撮影画像のカメラ位置及び方向を、生成画像の視点位置及び方向と読み替えることになる。つまり、撮影画像は、そのカメラ位置及び方向を視点とする生成画像と見なすことができる。   In the above-described embodiment, the generated image is generated based on the captured image actually captured by the camera. However, the image generation device also has information on the position of each pixel in the light space and the position in the real space for the generated image generated based on the captured image, as in the captured image. And can be used to determine pixel values of pixels of yet other generated images. In this case, the captured image in the above embodiment is replaced with the generated image, and the camera position and direction of the captured image are replaced with the viewpoint position and direction of the generated image. That is, the captured image can be regarded as a generated image with the camera position and direction as the viewpoint.

なお、本発明による画像生成装置は、コンピュータを図1及び図2の各部として機能させるプログラムにより実現することができる。コンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。さらに、本発明の図1、図2に示す各部のうち一部のみをハードウェアで実現し、他の部分をコンピュータプログラムにより実現する、つまり、ハードウェア及びソフトウェアの組合せによっても実現可能である。   The image generation apparatus according to the present invention can be realized by a program that causes a computer to function as each unit in FIGS. 1 and 2. The computer program is stored in a computer-readable storage medium or can be distributed via a network. Furthermore, only a part of each part shown in FIGS. 1 and 2 of the present invention is realized by hardware, and the other part is realized by a computer program, that is, it can be realized by a combination of hardware and software.

本発明による画像生成装置のブロック図である。1 is a block diagram of an image generation apparatus according to the present invention. 光線空間構築部のブロック図である。It is a block diagram of a light space construction part. 光線空間構築部の処理を説明する図である。It is a figure explaining the process of a light space construction part. 本発明による画像生成装置の説明図である。It is explanatory drawing of the image generation apparatus by this invention. 実空間の一点の光線空間における分布を説明する図である。It is a figure explaining distribution in ray space of one point of real space. 生成画像の画素値の決定に使用する撮影画像の関係を説明する図である。It is a figure explaining the relationship of the picked-up image used for determination of the pixel value of a production | generation image.

符号の説明Explanation of symbols

1、11〜18、21〜23 カメラ
11−1〜18−1 撮影画像
2 保存部
24 仮想的なカメラ
25、26 対象物
3 前処理部
4 光線空間構築部
41 交点検出部
42 対応点検出部
43 画素値算出部
50、60 撮影画像
51、61、54、64 撮影画像の画素
52、62 探索領域
53、63 ブロック
70 生成画像
71 生成画像の画素
80 曲線
90 光線
94、95、96 点
DESCRIPTION OF SYMBOLS 1, 11-18, 21-23 Camera 11-1 to 18-1 Photographed image 2 Storage part 24 Virtual camera 25, 26 Object 3 Preprocessing part 4 Ray space construction part 41 Intersection detection part 42 Corresponding point detection part 43 Pixel value calculation unit 50, 60 Captured image 51, 61, 54, 64 Captured image pixel 52, 62 Search area 53, 63 Block 70 Generated image 71 Generated image pixel 80 Curve 90 Ray 94, 95, 96 points

Claims (5)

第1の画像及び第2の画像に基づき、指定された視点における第3の画像の第3の画素の画素値を決定する画像生成装置であって、
第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、実空間の一点からの光線を示す点の該光線空間における分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求める交点検出手段と、
第1の画素を中心とした範囲である第1の探索領域と、第2の画素を中心とした範囲である第2の探索領域内において、所定の画素サイズのブロックによるブロック・マッチングを適用し、最も相関の高い組合せである、第1の探索領域内の第1のブロックと第2の探索領域内の第2のブロックを求める対応点検出手段と、
第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定する画素値算出手段とを備え
前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるようにした画像生成装置。
An image generation device that determines a pixel value of a third pixel of a third image at a specified viewpoint based on a first image and a second image,
Based on the position information of each pixel of the first and second images in the light space and real space, the distribution of points indicating light rays from one point in the real space, and the designated viewpoint, Intersection detection means for determining a first pixel of the first image and a second pixel of the second image corresponding to three pixels;
Block matching using a block of a predetermined pixel size is applied in the first search area that is a range centered on the first pixel and the second search area that is a range centered on the second pixel. Corresponding point detection means for obtaining the first block in the first search region and the second block in the second search region, which is the most highly correlated combination;
A pixel value calculating means for determining a pixel value of the third pixel based on the pixel at the center of the first block and the pixel at the center of the second block ;
An image generating apparatus configured such that ranges of the first search area and the second search area are smaller as the position of the third pixel is closer to the position of the third pixel in the light space, and are larger as the distance is increased .
複数のカメラの位置及び方向と、前記複数のカメラが撮影した撮影画像に基づき、前記複数のカメラのカメラパラメータのキャリブレーションと、前記撮影画像の各画素の実空間での位置情報を求める前処理手段と、
前記撮影画像と、前記撮影画像から生成した生成画像を保存する保存手段と、
を備えており、
前記第1の画像及び前記第2の画像は、それぞれ、前記撮影画像又は前記生成画像であり、
前記生成画像の各画素は、前記交点検出手段、対応点検出手段及び画素値算出手段により決定したものである、
請求項1に記載の画像生成装置。
Based on the positions and directions of a plurality of cameras and the captured images captured by the plurality of cameras, pre-processing for calibrating camera parameters of the plurality of cameras and determining positional information of each pixel of the captured images in real space Means,
Storage means for storing the captured image and a generated image generated from the captured image;
With
The first image and the second image are the captured image and the generated image, respectively.
Each pixel of the generated image is determined by the intersection detection unit, the corresponding point detection unit, and the pixel value calculation unit.
The image generation apparatus according to claim 1.
前記第1の画像及び第2の画像の視点は、前記第3の画像の前記指定された視点において当該視点の方向に伸ばした直線の両側にある、
請求項1または2に記載の画像生成装置。
The viewpoints of the first image and the second image are on both sides of a straight line extending in the direction of the viewpoint at the designated viewpoint of the third image.
The image generating apparatus according to claim 1 or 2.
第1の画像と、第2の画像に基づき、画像生成装置において、指定された視点における第3の画像の第3の画素の画素値を決定する方法であって、
交点検出部が、第1及び第2の画像の各画素の光線空間及び実空間での位置情報と、該光線空間における実空間の各位置の分布と、前記指定された視点に基づき、前記第3の画素に対応する、第1の画像の第1の画素と、第2の画像の第2の画素を求めるステップと、
対応点検出部が、第1の画素を中心とした範囲である矩形の第1の探索領域を第1の画像に、第2の画素を中心とした範囲である矩形の第2の探索領域を第2の画像に設定するステップと、
対応点検出部が、第1の探索領域内にある所定の画素サイズの各ブロックと、第2の探索領域内にある前記所定の画素サイズの各ブロックとの相関をそれぞれ求めることにより、第1の探索領域内の第1のブロックに対応する第2の探索領域内の第2のブロックを求めるステップと、
画素値算出部が、第1のブロックの中心にある画素と、第2のブロックの中心にある画素に基づき、第3の画素の画素値を決定するステップとを備え
前記第1の探索領域及び第2の探索領域の範囲を、光線空間における前記第3の画素の位置に近くなるにつれて小さく、離れるにつれて大きくなるように変化させるようにした方法。
A method of determining a pixel value of a third pixel of a third image at a specified viewpoint in an image generation device based on a first image and a second image,
The intersection detection unit, based on the position information of each pixel of the first and second images in the light space and real space, the distribution of the positions of the real space in the light space, and the designated viewpoint, Determining a first pixel of the first image and a second pixel of the second image corresponding to three pixels;
The corresponding point detection unit sets a rectangular first search region that is a range centered on the first pixel to the first image, and a rectangular second search region that is a range centered on the second pixel. Setting a second image;
The corresponding point detection unit obtains the correlation between each block having a predetermined pixel size in the first search area and each block having the predetermined pixel size in the second search area, thereby obtaining the first Determining a second block in the second search area corresponding to the first block in the search area;
A pixel value calculation unit comprising: determining a pixel value of a third pixel based on a pixel at the center of the first block and a pixel at the center of the second block ;
A method in which the range of the first search area and the second search area is changed so as to become smaller as the position of the third pixel is closer to the position of the third pixel in the ray space and to be larger as the distance is increased .
請求項1ないし3のいずれか1項に記載の画像生成装置としてコンピュータを機能させるプログラム。 A program that causes a computer to function as the image generation apparatus according to claim 1.
JP2008197697A 2008-07-31 2008-07-31 Image generating apparatus, method and program Expired - Fee Related JP5358137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008197697A JP5358137B2 (en) 2008-07-31 2008-07-31 Image generating apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008197697A JP5358137B2 (en) 2008-07-31 2008-07-31 Image generating apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2010033503A JP2010033503A (en) 2010-02-12
JP5358137B2 true JP5358137B2 (en) 2013-12-04

Family

ID=41737851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008197697A Expired - Fee Related JP5358137B2 (en) 2008-07-31 2008-07-31 Image generating apparatus, method and program

Country Status (1)

Country Link
JP (1) JP5358137B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7002007B2 (en) * 2017-05-01 2022-01-20 パナソニックIpマネジメント株式会社 Camera parameter set calculation device, camera parameter set calculation method and program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245195A (en) * 1996-03-08 1997-09-19 Canon Inc Image processing method and its device
JPH1027264A (en) * 1996-07-09 1998-01-27 Canon Inc Image processor and image processing method
JPH10117339A (en) * 1996-10-11 1998-05-06 Yazaki Corp Vehicle periphery monitoring device, obstacle detecting method and medium storing obstacle detection program
JP2000251073A (en) * 1999-03-01 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> Image input condition calculating method, image reproducing method, recording medium, image input condition calculating device, and image reproducing device
JP2000285259A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method for reproducing optional viewpoint image from multiple viewpoint image
JP2001084383A (en) * 1999-09-09 2001-03-30 Univ Tokyo Movement detection method
JP2004145473A (en) * 2002-10-22 2004-05-20 Hiroshima Industrial Promotion Organization Matching arithmetic circuit
JP2004234423A (en) * 2003-01-31 2004-08-19 Seiko Epson Corp Stereoscopic image processing method, stereoscopic image processor and stereoscopic image processing program
JP2005037378A (en) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd Depth measurement method and depth measurement device
JP2005049999A (en) * 2003-07-30 2005-02-24 Ricoh Co Ltd Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored
JP2006126965A (en) * 2004-10-26 2006-05-18 Sharp Corp Composite video generation system, method, program and recording medium
JP4469757B2 (en) * 2005-05-31 2010-05-26 株式会社東芝 Image processing device
JP4382797B2 (en) * 2006-11-09 2009-12-16 株式会社山武 Corresponding point search method and three-dimensional position measurement method
JP4998422B2 (en) * 2008-09-25 2012-08-15 Kddi株式会社 Image generating apparatus, method, communication system, and program
JP5249114B2 (en) * 2009-04-03 2013-07-31 Kddi株式会社 Image generating apparatus, method and program

Also Published As

Publication number Publication date
JP2010033503A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
KR100776649B1 (en) A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
JP2015527764A (en) Multi-frame image calibrator
WO2011125937A1 (en) Calibration data selection device, method of selection, selection program, and three dimensional position measuring device
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
KR101926953B1 (en) Matching method of feature points in planar array of four - camera group and measurement method based theron
JP2010014450A (en) Position measurement method, position measurement device, and program
WO2022052582A1 (en) Image registration method and device, electronic apparatus, and storage medium
Fathi et al. Multistep explicit stereo camera calibration approach to improve Euclidean accuracy of large-scale 3D reconstruction
Ahmadabadian et al. Image selection in photogrammetric multi-view stereo methods for metric and complete 3D reconstruction
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
TWI528783B (en) Methods and systems for generating depth images and related computer products
TWI571099B (en) Device and method for depth estimation
JP5358137B2 (en) Image generating apparatus, method and program
CN112258635B (en) Three-dimensional reconstruction method and device based on improved binocular matching SAD algorithm
KR101741501B1 (en) Apparatus and Method for Estimation of Distance between Camera and Object
KR102288237B1 (en) Image association method, system and device
JP5179784B2 (en) Three-dimensional coordinate measuring apparatus and program executed in three-dimensional coordinate measuring apparatus
KR101142279B1 (en) An apparatus for aligning images in stereo vision system and the method thereof
JPH10289315A (en) Parallax calculation device and method, and distance calculation device and method
JPH11223516A (en) Three dimensional image pickup device
JP2009186369A (en) Depth information acquisition method, depth information acquiring device, program, and recording medium
JP6843552B2 (en) Image processing equipment, image processing methods and programs.
JP6091092B2 (en) Image processing apparatus and image processing method
JP7399632B2 (en) Photography processing device and photography processing method
JPH10289316A (en) Parallax calculator, distance calculator and method for the same

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130425

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5358137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees