JP2010034964A - Image composition apparatus, image composition method and image composition program - Google Patents

Image composition apparatus, image composition method and image composition program Download PDF

Info

Publication number
JP2010034964A
JP2010034964A JP2008196339A JP2008196339A JP2010034964A JP 2010034964 A JP2010034964 A JP 2010034964A JP 2008196339 A JP2008196339 A JP 2008196339A JP 2008196339 A JP2008196339 A JP 2008196339A JP 2010034964 A JP2010034964 A JP 2010034964A
Authority
JP
Japan
Prior art keywords
image
image data
processing range
composition
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008196339A
Other languages
Japanese (ja)
Inventor
Osamu Inoue
理 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008196339A priority Critical patent/JP2010034964A/en
Priority to PCT/JP2009/003600 priority patent/WO2010013471A1/en
Publication of JP2010034964A publication Critical patent/JP2010034964A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40068Modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image composition apparatus capable of reducing the deterioration of image quality caused by variation in a plurality of imaging devices, and composing reference image data into a high-resolution image at high speed. <P>SOLUTION: The image composition apparatus comprises: an image input means for inputting a plurality of image data items obtained by imaging the same subject; an image composition means for composing the plurality of image data items inputted by the image input means to produce composite image data; a composition processing range-selecting means for selecting one of the plurality of image data items as reference image data, comparing image quality of each divided region between the reference image data and the composite image data and selecting a composition processing range including the divided region where the image quality of the composite image data is improved; and a high-resolution image producing means for producing a resolution-improved image by composing the reference image data outside the composition processing range to the composite image data within the composition processing range selected by the composition processing range selecting means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像合成装置、画像合成方法及び画像合成プログラムに関する。   The present invention relates to an image composition device, an image composition method, and an image composition program.

昨今、高精細の映像を得るために高精細カメラの登場が望まれている。しかしながら、高精細カメラに利用される高解像度の撮像デバイスは、その製造の難しさ故、高価であるという問題がある。そこで、安価な低解像度の撮像デバイスを複数使った多眼カメラを用い、撮像デバイスそれぞれにおいて得られた複数の画像を合成することにより高解像度画像を得る試みがなされている。図8は、多眼カメラを使って高解像度画像を合成する手順を示す図である。図8において、3台のカメラ51、52、53により構成する多眼カメラは、ほぼ同一の方向を向いており、十分に離れた被写体4をそれぞれ撮像し、3つの画像P1、P2、P3を出力する。3台のカメラ51、52、53は、同一の画角を有しているが、各画素レベルではお互いにずれるように光軸が調整されている。画像合成部6は、撮像された3つの画像P1、P2、P3それぞれの画素レベルのずれを利用して、画素と画素の間に新しく画素を生成して、見かけ上の画素数を増やして高解像度化することにより、高解像度化された合成画像7を出力する。   Recently, the appearance of a high-definition camera is desired in order to obtain a high-definition image. However, a high-resolution imaging device used for a high-definition camera has a problem that it is expensive because of its difficulty in manufacturing. Therefore, an attempt has been made to obtain a high-resolution image by using a multi-lens camera using a plurality of inexpensive low-resolution imaging devices and synthesizing a plurality of images obtained by the respective imaging devices. FIG. 8 is a diagram illustrating a procedure for synthesizing a high-resolution image using a multi-lens camera. In FIG. 8, the multi-lens camera constituted by the three cameras 51, 52, 53 is directed in substantially the same direction, and images the subject 4 that is sufficiently separated from each other to obtain three images P1, P2, P3. Output. The three cameras 51, 52 and 53 have the same angle of view, but the optical axes are adjusted so as to be shifted from each other at each pixel level. The image synthesizing unit 6 generates a new pixel between the pixels using the difference in pixel level of each of the three captured images P1, P2, and P3, and increases the apparent number of pixels to increase the number of pixels. By increasing the resolution, the synthesized image 7 having a higher resolution is output.

図8に示すように、画素レベルでのずれのある画像を複数用い、これらの複数の画像を合成することにより高解像度画像を得る先行技術として、非特許文献1等に記載された技術が知られている。
Superresolution images reconstructed from aliased images(P.Vandewalle他,2003年)
As shown in FIG. 8, a technique described in Non-Patent Document 1 or the like is known as a prior art for obtaining a high-resolution image by combining a plurality of images having a pixel level shift and combining the plurality of images. It has been.
Superresolution images reconstructed from aliased images (P.Vandewalle et al., 2003)

ところで、多眼カメラを構成する複数の撮像デバイスは、それぞれ光学レンズや光電変換デバイスの取り付けにばらつきがあるため、各撮像デバイスで撮像される画像中に発生する歪に差異が生じる。図9は、2つの撮像デバイスによって得られた画像に発生した歪みの様子を示す説明図である。図9(a)は、歪みが発生しなかった画像を示し、図9(b)は、周囲に歪みが発生した画像を示している。このように、2つの撮像デバイスによって得られた画像に発生した歪みに差異がある場合、非特許文献1などの高解像度化手法を用いて合成処理を実行すると、図9(c)に示すように、歪のある合成画像となってしまう。一般的にレンズによる歪は、中心(光軸)から遠ざかるほど大きくなり、ばらつきも大きくなるため、図9に示すように合成した画像は中心付近ではよく一致して高解像度化されるが、周辺部分には、1画素以上のずれが発生して、高解像度化できないばかりか、画質が劣化してしまう。特に画像の周囲部分(図9(d)に拡大して示す)においては、座標系の不一致が発生して、高解像度を図るために行った画像合成によって得られた画像の画質が逆に劣化してしまうという問題がある。   By the way, since a plurality of imaging devices constituting the multi-lens camera have variations in attachment of optical lenses and photoelectric conversion devices, there is a difference in distortion generated in an image captured by each imaging device. FIG. 9 is an explanatory diagram showing the state of distortion generated in images obtained by two imaging devices. FIG. 9A shows an image with no distortion, and FIG. 9B shows an image with distortion around. As described above, when there is a difference in the distortion generated in the images obtained by the two imaging devices, when the synthesis process is executed using a high resolution technique such as Non-Patent Document 1, as illustrated in FIG. Furthermore, the composite image is distorted. In general, the distortion caused by the lens increases as the distance from the center (optical axis) increases, and the variation increases. Therefore, as shown in FIG. A shift of one pixel or more occurs in the portion, and not only high resolution cannot be achieved but also the image quality deteriorates. In particular, in the peripheral portion of the image (shown enlarged in FIG. 9 (d)), a mismatch in the coordinate system occurs, and the image quality of the image obtained by the image synthesis performed for achieving high resolution is deteriorated conversely. There is a problem of end up.

本発明は、このような事情に鑑みてなされたもので、複数の撮像デバイスの歪みのばらつきによる画質劣化を低減するとともに、高速に高解像度画像を合成することができる画像合成装置、画像合成方法及び画像合成プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image composition apparatus and an image composition method capable of reducing high-quality images at high speed while reducing image quality deterioration due to variations in distortion of a plurality of imaging devices. An object of the present invention is to provide an image composition program.

本発明は、同一の被写体を撮像した複数の画像データを入力する画像入力手段と、前記画像入力手段によって入力した複数の画像データを合成することにより合成画像データを生成する画像合成手段と、前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択手段と、前記合成処理範囲選択手段によって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成手段とを備えることを特徴とする。   The present invention includes an image input unit that inputs a plurality of image data obtained by imaging the same subject, an image combining unit that generates combined image data by combining a plurality of image data input by the image input unit, One of the plurality of image data is selected as the reference image data, and the image quality of the composite image data is improved by comparing the image quality of the divided areas with respect to each of the reference image data and the composite image data. A synthesis processing range selection unit that selects a synthesis processing range that includes the divided area, and the synthesis image data in the synthesis processing range selected by the synthesis processing range selection unit is out of the synthesis processing range. And a high-resolution image generation means for generating a high-resolution image by synthesizing the reference image data.

本発明は、前記分割領域は、画像の周辺を除外した領域であることを特徴とする。   The present invention is characterized in that the divided area is an area excluding the periphery of the image.

本発明は、前記複数の画像データの合成は、画素のシフト量に基づいて重ね、かつ、重ねた座標系上にある画素間の距離による重み値を乗算して新たな画素を生成することを特徴とする。   According to the present invention, the composition of the plurality of image data is performed based on a pixel shift amount, and a new pixel is generated by multiplying a weight value by a distance between pixels on the superimposed coordinate system. Features.

本発明は、前記画像は、モノクロ画像またはカラー画像であることを特徴とする。   The present invention is characterized in that the image is a monochrome image or a color image.

本発明は、画像入力手段と、画像合成手段と、合成処理範囲選択手段と、高解像度画像生成手段とを備える画像合成装置における画像合成方法であって、前記画像入力手段が、同一の被写体を撮像した複数の画像データを入力する画像入力ステップと、前記画像合成手段が、前記画像入力ステップによって入力した複数の画像データを合成することにより合成画像データを生成する画像合成ステップと、前記合成処理範囲選択手段が、前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択ステップと、高解像度画像生成手段が、前記合成処理範囲選択ステップによって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成ステップとを有することを特徴とする。   The present invention is an image composition method in an image composition apparatus comprising an image input means, an image composition means, a composition processing range selection means, and a high resolution image generation means, wherein the image input means detects the same subject. An image input step for inputting a plurality of captured image data; an image combining step for generating combined image data by combining the plurality of image data input by the image combining unit; and the combining process A range selection unit selects one of the plurality of image data as reference image data, compares the image quality of divided areas with respect to each of the reference image data and the composite image data, and outputs the composite image A synthesis processing range selection step for selecting a synthesis processing range including a divided area in which the image quality of data is improved, and a high-resolution image generation means Generating a high-resolution image by synthesizing the reference image data outside the synthesis processing range with the synthesized image data in the synthesis processing range selected by the synthesis processing range selection step. And a step.

本発明は、複数の画像データを合成することにより高解像度画像を出力する画像合成装置上のコンピュータに画像合成処理を行わせるための画像合成プログラムであって、同一の被写体を撮像した複数の画像データを入力する画像入力ステップと、前記画像入力ステップによって入力した複数の画像データを合成することにより合成画像データを生成する画像合成ステップと、前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択ステップと、前記合成処理範囲選択ステップによって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成ステップとをコンピュータに行わせることを特徴とする。   The present invention is an image composition program for causing a computer on an image composition apparatus that outputs a high resolution image by combining a plurality of image data to perform image composition processing, and a plurality of images obtained by capturing the same subject. An image input step for inputting data; an image combining step for generating composite image data by combining a plurality of image data input in the image input step; and one of the plurality of image data as reference image data Comparing the image quality of the divided areas with respect to each of the reference image data and the composite image data, and selecting a composite processing range including a divided area in which the image quality of the composite image data is improved. The synthesis processing range selection step to be selected, and the synthesis of the synthesis processing range selected by the synthesis processing range selection step To the image data, characterized in that to perform a high-resolution image generating step of generating a high resolution image by synthesizing the reference image data outside the range the composition processing in a computer.

本発明によれば、複数枚の画像を合成して高解像度画像を得る画像合成装置において、画像を合成する場合に高解像度化に寄与する画像中の領域の画素を選択して画像合成を行い、高解像度化に寄与しない画素は画像合成を行わないようにしたため、撮像デバイスのばらつきに起因する画質劣化を低減することができるという効果が得られる。また、画像を合成する場合に高解像度化に寄与する画像中の領域の画素のみを選択して画像合成を行うようにしたため、画像合成処理量を低減することができ、高速に高解像度画像を生成することができるという効果も得られる。   According to the present invention, in an image composition device that combines a plurality of images to obtain a high-resolution image, when combining the images, the pixels in the region that contributes to the high resolution are selected and image composition is performed. Since pixels that do not contribute to higher resolution are not subjected to image synthesis, an effect of reducing image quality degradation due to variations in imaging devices can be obtained. In addition, when compositing images, only the pixels in the region that contribute to higher resolution are selected and image compositing is performed, so the amount of image compositing processing can be reduced, and high-resolution images can be created at high speed. The effect that it can produce | generate can also be acquired.

以下、本発明の一実施形態による画像合成装置を図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号11、12は、光学レンズや光電変換素子などで構成する撮像デバイスを備えるカメラである。ここでは、2台のカメラ11、12によって多眼カメラを構成する例を図示したが、多眼カメラを構成するカメラは3台以上であってもよい。符号2は、複数のカメラ11、12から出力される2系統の画像データをそれぞれ入力し、2枚の画像データを合成して、高解像度画像のデータを出力する画像合成装置である。   Hereinafter, an image composition device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numerals 11 and 12 denote cameras provided with an imaging device constituted by an optical lens, a photoelectric conversion element, or the like. Here, an example in which a multi-lens camera is configured by two cameras 11 and 12 is illustrated, but three or more cameras may be included in the multi-lens camera. Reference numeral 2 denotes an image synthesizing apparatus that inputs two sets of image data output from a plurality of cameras 11 and 12, synthesizes two pieces of image data, and outputs high-resolution image data.

符号21は、2台のカメラ11、12が出力する画像データを入力して、2系統それぞれの画像データを保持する画像入力部である。符号22は、画像入力部21に保持されている2枚の画像データを合成して1枚の合成画像データを出力する画像合成部である。符号23は、画像合成部22において合成された合成画像データに基づいて、合成対象の画像データにおいて合成処理を行うべき範囲(領域)を選択する合成処理範囲選択部である。符号24は、合成処理範囲選択部23において選択された合成処理を行うべき範囲のみについて、2系統の画像データを合成するとともに、合成処理を行うべき範囲以外は、入力された画像データを使用することにより高解像度画像を生成して出力する高解像度画像生成部である。   Reference numeral 21 denotes an image input unit that inputs image data output from the two cameras 11 and 12 and holds the image data of each of the two systems. Reference numeral 22 denotes an image combining unit that combines two pieces of image data held in the image input unit 21 and outputs one piece of combined image data. Reference numeral 23 denotes a synthesis processing range selection unit that selects a range (region) to be synthesized in the synthesis target image data based on the synthesized image data synthesized by the image synthesis unit 22. Reference numeral 24 synthesizes two sets of image data for only the range to be subjected to the synthesis process selected by the synthesis process range selection unit 23, and uses the input image data except for the range to be subjected to the synthesis process. This is a high-resolution image generation unit that generates and outputs a high-resolution image.

以下の説明においては、2台のカメラ11、12によって撮像した2枚の画像を合成するものとし、カメラ11、12によって得られる画像の大きさがVGAサイズ(幅640画素、高さ480画素)であり、合成した後の高解像度画像の幅及び高さがそれぞれ2倍のQuadVGAサイズ(幅1280画素、高さ960画素)であるものとして説明する。   In the following description, it is assumed that two images captured by the two cameras 11 and 12 are combined, and the size of the image obtained by the cameras 11 and 12 is VGA size (width 640 pixels, height 480 pixels). In the following description, the width and height of the combined high-resolution image are quad VGA sizes (width 1280 pixels, height 960 pixels).

次に、図2を参照して、図1に示す画像合成装置2の動作を説明する。まず、画像入力部21は、カメラ11、12によって撮像した2系統のほぼ同一画角の画像データ(各画素の画素値列で構成するデータ)を入力し(ステップS1)、2枚の画像データを内部に保持する(内部の記憶装置に記憶する)。続いて、画像合成部22は、画像入力部21に保持されている2枚の画像データを読み出して、2枚の画像データのうち、いずれか一方を基準画像の画像データとする。これは、一例として、カメラ11、12のいずれか一方を予め基準画像を撮像するカメラと決めておき、この基準画像を撮像するカメラが出力した画像データを基準画像とする。ここでは、カメラ11が基準画像を撮像するカメラであるものとして説明する。   Next, the operation of the image composition apparatus 2 shown in FIG. 1 will be described with reference to FIG. First, the image input unit 21 inputs image data (data composed of a pixel value sequence of each pixel) of two systems captured by the cameras 11 and 12 with substantially the same angle of view (step S1), and two pieces of image data Is stored inside (stored in an internal storage device). Subsequently, the image composition unit 22 reads the two pieces of image data held in the image input unit 21 and sets one of the two pieces of image data as the image data of the reference image. As an example, one of the cameras 11 and 12 is determined in advance as a camera that captures a reference image, and image data output by the camera that captures the reference image is used as a reference image. Here, description will be made assuming that the camera 11 is a camera that captures a reference image.

次に、画像合成部22は、基準画像データ(カメラ11の画像データ)の各画素値と他方の画像データ(カメラ12の画像データ)の各画素値との差の合計が最小となるXYシフト量を求める(ステップS2)。ここでいうXYシフト量とは、他方の画像が基準画像に対してXY(縦横)それぞれの方向にどれだけ移動しているかの値(単位;画素)である。例えば、XYシフト量を(−10,−10)〜(+10,+10)の範囲で0.1画素ずつ変化させ、それぞれ画素値の差(絶対値)の合計値を求め、この合計値を最小にするようなXYシフト量を算出する。ここで0.1画素とは、実際の画素と画素の間を10等分した点に位置する画素であり、その画素値は周囲の実際の画素値からバイリニア法やバイキュービック法などの補間計算によって求めることができる。   Next, the image composition unit 22 performs an XY shift that minimizes the sum of differences between the pixel values of the reference image data (camera 11 image data) and the other image data (camera 12 image data). An amount is obtained (step S2). Here, the XY shift amount is a value (unit: pixel) indicating how much the other image has moved in the XY (vertical and horizontal) directions with respect to the reference image. For example, the amount of XY shift is changed by 0.1 pixel in the range of (−10, −10) to (+10, +10), the total value of the difference (absolute value) of the pixel values is obtained, and this total value is minimized. The XY shift amount is calculated as follows. Here, the 0.1 pixel is a pixel located at a point obtained by dividing an actual pixel into 10 equal parts, and the pixel value is interpolated by a bilinear method, a bicubic method, or the like from the surrounding actual pixel value. Can be obtained.

次に、画像合成部22は、2枚(基準画像と他方の画像)の画像データの座標系を2倍に拡大することにより座標系をQuadVGAサイズの座標系に変換する。そして、画像合成部22は、先に求めたXYシフト量に応じて、拡大した座標系を重ねる(ステップS3)。新たに生成するべき高解像度画像の座標系としては基準画像データを拡大した座標系を用いる。   Next, the image composition unit 22 converts the coordinate system into a quad VGA size coordinate system by doubling the coordinate system of the image data of two sheets (the reference image and the other image). Then, the image composition unit 22 superimposes the enlarged coordinate systems according to the previously obtained XY shift amount (step S3). A coordinate system obtained by enlarging the reference image data is used as a coordinate system for a high-resolution image to be newly generated.

次に、画像合成部22は、ステップS3において重ねた座標系上にある画素の画素値との距離による重み値を乗算して、生成するべき高解像度画像の座標系の各画素値を求める(ステップS4)。このステップS2〜S4の処理動作によって、2枚(基準画像と他方の画像)の画像データの全範囲について合成処理が行なわれて合成画像データが生成されたことになる。   Next, the image composition unit 22 multiplies the weight value based on the distance from the pixel value of the pixel on the coordinate system superimposed in step S3 to obtain each pixel value of the coordinate system of the high-resolution image to be generated ( Step S4). Through the processing operations in steps S2 to S4, the combined processing is performed on the entire range of the image data of two sheets (the reference image and the other image) to generate combined image data.

ここで、図3を参照して、図2に示すステップS4の処理動作を詳細に説明する。図3は、ステップS3において重ねた座標系上にある画素の画素値との距離による重みを乗算して、生成するべき高解像度画像の座標系の各画素値を求める動作を示す図である。ここでは、画像1が基準画像であり、画像2が他方の画像であるものとして説明する。図3(a)は画像1と画像2の2つの座標系をXYシフト量(Xシフト量とYシフト量)に従って重ねた様子を示している。図中の○印は画像1の画素であり、図中の△印は画像2の画素であり、画像1の隣り合う画素と画素の間に新たな画素を生成することにより高解像度化する。   Here, the processing operation of step S4 shown in FIG. 2 will be described in detail with reference to FIG. FIG. 3 is a diagram illustrating an operation of obtaining each pixel value of the coordinate system of the high-resolution image to be generated by multiplying the weight by the distance with the pixel value of the pixel on the coordinate system superimposed in step S3. Here, it is assumed that the image 1 is a reference image and the image 2 is the other image. FIG. 3A shows a state in which the two coordinate systems of the image 1 and the image 2 are overlapped according to the XY shift amount (X shift amount and Y shift amount). The circles in the figure are the pixels of the image 1, and the triangles in the figure are the pixels of the image 2. The resolution is increased by generating new pixels between adjacent pixels of the image 1.

図3(b)は、新たな画素(●印)生成する処理動作を示している。対象画素の周辺にある画像1の画素値と画像値2の画素にそれぞれ重み値wi(iは0〜8)を乗算して新たに生成するべき画素の画素値を求める。重み値wiは参照する画素と生成する画素の距離で決定される値で、バイリニア法やバイキュービック法などの補間計算手法と同等である。画像1の画素と、新しく生成した画素をあわせることで、2倍の解像度に高解像度化された画像が得られることになる。合成に用いる画像の数が3以上の場合は、各画像の画素についてwiを計算し、補間計算を行って画素値を求めればよい。この処理は、合成に用いる各画像の画素のズレが1画素より小さいことが要求される。1画素以上のズレでは、全く異なる画素を合成に用いてしまい、補間を行うことで間違った画素値を求めてしまい、結果的に画質が劣化してしまうためである。   FIG. 3B shows a processing operation for generating a new pixel (● mark). The pixel value of the pixel to be newly generated is obtained by multiplying the pixel value of the image 1 and the pixel of the image value 2 around the target pixel by the weight value wi (i is 0 to 8), respectively. The weight value wi is a value determined by the distance between the reference pixel and the generated pixel, and is equivalent to an interpolation calculation method such as a bilinear method or a bicubic method. By combining the pixel of the image 1 and the newly generated pixel, an image with a high resolution of twice the resolution can be obtained. When the number of images used for composition is three or more, it is only necessary to calculate wi for each image pixel and perform interpolation calculation to obtain a pixel value. This processing requires that the pixel shift of each image used for composition is smaller than one pixel. This is because when the shift is one pixel or more, completely different pixels are used for synthesis, and an incorrect pixel value is obtained by performing interpolation, resulting in degradation of image quality.

図2に戻り、次に、合成処理範囲選択部23は、ステップS2〜S4において画像合成部22が生成した合成画像を入力し、この合成画像の画質劣化具合に応じて合成処理範囲を選択する(ステップS5)。ここでいう合成処理範囲とは、所定の大きさを有する長方形の領域であって、その中心が画像の中心と一致するような領域である。図4、図5を参照して、この長方形領域の求め方を説明する。図4に示すように(A)の合成前の基準画像と(B)の合成後の合成画像を同数の分割数になるように(図4に示す例では、横8分割×縦6分割)格子状のブロック(分割領域)に分け、それぞれの格子ブロックについて画素値の空間周波数を求める。   Returning to FIG. 2, next, the composition processing range selection unit 23 inputs the composite image generated by the image composition unit 22 in steps S <b> 2 to S <b> 4, and selects the composition processing range according to the image quality deterioration degree of the composite image. (Step S5). The composition processing range here is a rectangular area having a predetermined size, and the center of which coincides with the center of the image. With reference to FIG. 4 and FIG. 5, how to obtain this rectangular area will be described. As shown in FIG. 4, the reference image before composition in (A) and the composite image after composition in (B) are divided into the same number of divisions (in the example shown in FIG. 4, 8 horizontal divisions × 6 vertical divisions) Divided into grid-like blocks (divided regions), the spatial frequency of the pixel value is determined for each grid block.

図4において、(a)〜(d)は、格子ブロックの空間周波数分布のグラフを表しており、横軸が空間周波数、縦軸がエネルギーである。高精細化された格子ブロックでは、合成前の格子ブロックよりも高い周波数の成分を持ち、高精細化されていないブロックでは、合成前の格子ブロックよりも高い周波数成分を持たないため、この空間周波数の解析結果に基づいて、各格子ブロックが高精細化されたか否かを判定することが可能である。このように判定を行い、各格子ブロックについて高精細化されたか否かをマークする。図4(C)においては高精細化された格子ブロックを○、高精細化されていない格子ブロックを×で表している。   In FIG. 4, (a) to (d) represent graphs of the spatial frequency distribution of the lattice blocks, where the horizontal axis is the spatial frequency and the vertical axis is the energy. This high-definition lattice block has a higher frequency component than the pre-combination lattice block, and the non-high-definition block has no higher frequency component than the pre-synthesis lattice block. Based on the analysis result, it is possible to determine whether or not each lattice block has been refined. A determination is made in this way to mark whether or not each lattice block has been refined. In FIG. 4C, a high-definition lattice block is indicated by a circle, and a non-high-definition lattice block is indicated by a cross.

図5は、全ての格子ブロックに対して○(高精細化された)または×(高精細化されていない)でマークされた後に、合成処理範囲である長方形領域を選択する手順を示す図である。図5(A)は判定結果を示す図である。合成処理範囲である長方形領域は、中心の格子ブロックを含むように格子ブロック単位の大きさで、所定の大きさ以上で、できるだけ大きな長方形であって、長方形内の○のマークの割合ができるだけ高くなるような長方形領域(複数の格子ブロックからなる分割領域)を選択する。一例として周辺部分を除外した種々の長方形領域を任意の数だけ用意して、その内で長方形領域内の○のマークの割合が最大のものを選択する。図5に示す例では、(a)に示す領域や(c)に示す領域よりも(b)に示す領域の方が○のマークの割合が高いため、(b)に示すような長方形領域を選択する。合成処理範囲選択部23は、ここで選択した合成処理範囲である長方形領域の情報を高解像度画像生成部24に対して出力する。   FIG. 5 is a diagram showing a procedure for selecting a rectangular area that is a synthesis processing range after all lattice blocks are marked with ○ (high definition) or × (not high definition). is there. FIG. 5A is a diagram showing the determination result. The rectangular area, which is the compositing range, is the size of a grid block unit so as to include the center grid block, is a rectangle that is as large as possible with a size greater than or equal to a predetermined size, and the ratio of the ○ mark in the rectangle is as high as possible A rectangular area (a divided area composed of a plurality of lattice blocks) is selected. As an example, an arbitrary number of various rectangular areas excluding the peripheral portion are prepared, and among them, the one having the largest ratio of the mark “◯” in the rectangular area is selected. In the example shown in FIG. 5, the area shown in (b) is higher in the area shown in (b) than the area shown in (a) or the area shown in (c). select. The composition processing range selection unit 23 outputs information on the rectangular area that is the composition processing range selected here to the high-resolution image generation unit 24.

図2に戻り、次に、高解像度画像生成部24は、画像入力部21に保持されている新たな2枚の画像データを読み出して合成処理を行い、高解像度の合成画像を生成して出力する(ステップS6)。このとき、高解像度画像生成部24は、合成処理範囲選択部23から出力される合成処理範囲の情報を用いて、画像データの合成処理を行う。ここで、図6を参照して、合成処理範囲の情報を用いて、画像データの合成処理を行う動作を説明する。図6は、合成処理範囲の情報を用いて、画像データの合成処理を行う動作を示す図である。   Returning to FIG. 2, the high resolution image generation unit 24 then reads out the new two pieces of image data held in the image input unit 21, performs synthesis processing, and generates and outputs a high resolution composite image. (Step S6). At this time, the high-resolution image generation unit 24 performs image data synthesis processing using the information on the synthesis processing range output from the synthesis processing range selection unit 23. Here, with reference to FIG. 6, an operation of performing image data composition processing using information of the composition processing range will be described. FIG. 6 is a diagram illustrating an operation of performing image data combining processing using information on a combining processing range.

図6に示す(a)、(b)は、それぞれカメラ11、12によって撮像して得られた画像データであり、(a)は、カメラ11で撮像した基準画像、(b)は、カメラ12で撮像した他方の画像である。図6に示す2枚の画像データ(a)、(b)において、斜線で示す部分が画像合成に用いる領域である。すなわち、基準画像(カメラ11の画像)は全ての領域が合成対象領域となり、他方の画像(カメラ12の画像)は、合成処理範囲選択部23から出力される合成処理範囲で特定される領域が合成対象領域となる。高解像度画像生成部24は、この2つの合成対象領域内の画素値を使用して画像合成処理を行う。このとき、合成処理範囲内の画素については、基準画像と他方の画像の2枚の画像を合成した画像(部分合成画像データ)を適用し、合成処理範囲外の画素については、基準画像を拡大処理した画像を適用する。すなわち、基準画像について補間計算を行って、VGAサイズからQuadVGAサイズに拡大することにより必要とされる画素の画素値を求める。または、隣接する画素の画素値と同一の画素値を必要とされる画素の画素値とする。   6A and 6B are image data obtained by imaging with the cameras 11 and 12, respectively, FIG. 6A is a reference image captured with the camera 11, and FIG. It is the other image imaged by. In the two pieces of image data (a) and (b) shown in FIG. 6, the hatched portion is an area used for image composition. In other words, the reference image (camera 11 image) is the entire region to be combined, and the other image (camera 12 image) is the region specified by the combination processing range output from the combination processing range selection unit 23. It becomes the synthesis target area. The high resolution image generation unit 24 performs image composition processing using the pixel values in the two composition target areas. At this time, an image (partial composite image data) obtained by combining the two images of the reference image and the other image is applied to the pixels within the composition processing range, and the reference image is enlarged for the pixels outside the composition processing range. Apply the processed image. That is, interpolation calculation is performed on the reference image, and the pixel value of the pixel required is obtained by enlarging the VGA size to the Quad VGA size. Alternatively, the same pixel value as that of the adjacent pixel is set as the pixel value of the required pixel.

これにより、図6(c)に示す合成画像データが得られることになる。この合成画像データは、合成処理範囲選択部23において選択された合成処理範囲内は、2枚の画像データを合成することにより、高解像度化が図られ、合成処理範囲外は、合成処理を行うことなく基準画像の画素を用いた画像となる。これにより、画像の歪みの差異がある2枚の画像を合成することにより、逆に画質が劣化してしまうことを防止することができ、従来の画像合成手法に比べ、出力される合成画像の画質を向上させることができる。   Thereby, the composite image data shown in FIG. 6C is obtained. The synthesized image data is increased in resolution by synthesizing two pieces of image data within the synthesis processing range selected by the synthesis processing range selection unit 23, and is synthesized outside the synthesis processing range. The image is obtained using the pixels of the reference image without any problem. As a result, it is possible to prevent the image quality from deteriorating by synthesizing two images having a difference in image distortion. Compared to the conventional image synthesizing method, the synthesized image to be output can be prevented. Image quality can be improved.

図2に戻り、次に、高解像度画像生成部24は、引き続き合成処理を行うか否かを判定し(ステップS7)、処理を継続するのであれば、ステップS6に戻り、合成処理を繰り返す。引き続き合成処理を行うか否かの判定は、例えば、画像合成装置2は、動作をON/OFFする撮像ボタンを備え、撮像ボタンがONである間において、ステップS7の判定結果をYES(継続)と判定し、撮像ボタンがOFFである場合は、NO(終了)と判定する。これにより、合成処理範囲の選択後の画像合成処理は、選択した合成処理範囲内の合成処理のみが行われることになるため、毎回、2枚の画像データの合成処理を繰り返し行う従来の手法に比べ、大幅に処理量を削減でき、処理時間を短縮することができるとともに、高解像度画像生成部24の処理負荷を低減することができる。   Returning to FIG. 2, next, the high resolution image generation unit 24 determines whether or not to continue the synthesis process (step S7). If the process is continued, the process returns to step S6 to repeat the synthesis process. For example, the image composition device 2 includes an imaging button for turning on / off the operation, and the determination result of step S7 is YES (continuation) while the imaging button is on. If the imaging button is OFF, NO (end) is determined. As a result, since the image composition processing after selection of the composition processing range is performed only in the composition processing range within the selected composition processing range, the conventional method of repeating the composition processing of two pieces of image data every time is used. In comparison, the processing amount can be greatly reduced, the processing time can be shortened, and the processing load on the high-resolution image generation unit 24 can be reduced.

次に、前述した本発明の実施形態による画像合成装置の変形例を説明する。
図1に示す画像合成部22及び高解像度画像生成部24は、複数枚の画像を用いて高解像度画像を合成する手段であれば何でもよく、非特許文献1に示す画像合成方法に限るものではない。いわゆる超解像技術であれば、なんでも利用することができる。例えば、画素補間の重み計算方法としてランチョス(Lanczos)法を用いてもよし、補間ではなく、正規化畳み込み演算(Normalized Combolution)と呼ばれる推定演算を用いてもよい。多くの手法は、画質が向上すると、処理量も増加する傾向にあり、用途によって高画質か、低処理量かの最適な手法を用いればよい。
Next, a modified example of the image composition apparatus according to the above-described embodiment of the present invention will be described.
The image composition unit 22 and the high resolution image generation unit 24 shown in FIG. 1 may be any means that synthesizes a high resolution image using a plurality of images, and is not limited to the image composition method shown in Non-Patent Document 1. Absent. Any so-called super-resolution technique can be used. For example, a Lanchos method may be used as a weight calculation method for pixel interpolation, or an estimation operation called a normalized convolution may be used instead of interpolation. Many of the methods tend to increase the processing amount as the image quality improves, and an optimum method of high image quality or low processing amount may be used depending on the application.

また、カメラ11、12が備える撮像デバイスはモノクロであってもよいしカラーであってもよい。例えば、RGBカラーフィルタを装着したカラーカメラであれば、入力した各々の画像データをR(赤)、G(緑)、B(青)成分に分解し、それぞれについて複数の画像データを用いて高解像度画像を合成する基本的な方法のほか、G成分についてのみ複数画像を用いた合成とし、R、B成分については、基準画像をそのまま用いて、再び各成分を合成することで高解像度画像を得るようにしてもよい。また、カラーの画像データをY(輝度)、Cb(色差)、Cr(色差)成分に分解した場合でも、同様にY成分のみ複数画像を用いた合成とし、Cb、Cr成分については、基準画像をそのまま用いるようにしてもよい。なぜなら、人の目が色情報よりも輝度情報をよく判別できるという特性をもっており、この方法による画像は、R、B、Cr、Cbについての解像度を特に高めなくても全体として高解像度画像として認識されるからである。このように構成することで、処理量を削減しながらカラー画像を得ることができる。   In addition, the imaging devices included in the cameras 11 and 12 may be monochrome or color. For example, in the case of a color camera equipped with an RGB color filter, each input image data is decomposed into R (red), G (green), and B (blue) components, and a plurality of image data is used for each. In addition to the basic method of combining resolution images, only the G component is combined using a plurality of images. For the R and B components, the reference image is used as it is, and each component is combined again to generate a high resolution image. You may make it obtain. Even when color image data is decomposed into Y (luminance), Cb (color difference), and Cr (color difference) components, similarly, only the Y component is combined using a plurality of images, and the Cb and Cr components are used as reference images. May be used as they are. This is because the human eye can distinguish luminance information better than color information, and an image obtained by this method is recognized as a high-resolution image as a whole without particularly increasing the resolution of R, B, Cr, and Cb. Because it is done. With this configuration, a color image can be obtained while reducing the processing amount.

また、前述した説明においては、合成処理範囲選択部23が選択する合成処理範囲は中心から所定の大きさを有する長方形として説明したが、これに限るものではない。すなわち、中心以外から始まる長方形であってもよいし、長方形以外の図形、例えば円形であってもよいし、前述の説明で用いた○マークの格子ブロックの全てを合成処理範囲としてもよい。   In the above description, the synthesis processing range selected by the synthesis processing range selection unit 23 has been described as a rectangle having a predetermined size from the center, but is not limited thereto. That is, it may be a rectangle starting from other than the center, may be a figure other than a rectangle, for example, a circle, or all the lattice blocks of the ○ mark used in the above description may be set as the synthesis processing range.

また、合成処理範囲選択部23に、人の顔など、特徴的な画像領域を検出する手段を備え、画像中に、特徴的な画像領域が検出できた場合は、その領域を合成処理範囲としてもよい。図7を参照して、例えば顔を検出する処理について説明する。図7に示す(a)は人の顔を含む画像を白と黒で表現した2値化画像である。(b)はマッチングパターンであり、同じく白と黒の2値化画像である。(b)のマッチングパターンを(a)の画像中で左右上下に座標を動かしながら、それぞれ画素値差分の絶対値を求める。マッチングパターン内の差の合計が所定の値を下回ったとき、その座標には人の顔が存在すると認識し、人の顔を検出することができる。この手法のほかパターンを拡大・回転・縮小したり、多値画像によるマッチングなどを用いればさらに精度良く検出できる。このように構成すれば、用途にあわせて木目細かく高画質化を行う範囲を選択することができる。   Further, the composition processing range selection unit 23 is provided with means for detecting a characteristic image region such as a human face, and when a characteristic image region can be detected in the image, that region is used as the composition processing range. Also good. With reference to FIG. 7, for example, a process for detecting a face will be described. (A) shown in FIG. 7 is a binarized image in which an image including a human face is expressed in white and black. (B) is a matching pattern, which is also a binary image of white and black. The absolute value of the pixel value difference is obtained while moving the coordinates of the matching pattern of (b) vertically and horizontally in the image of (a). When the sum of the differences in the matching pattern falls below a predetermined value, it is recognized that a human face exists at the coordinates, and the human face can be detected. In addition to this method, the pattern can be detected with higher accuracy by enlarging / rotating / reducing the pattern or using matching using a multi-valued image. With this configuration, it is possible to select a range in which fine image quality is improved according to the application.

また、合成処理範囲選択部23が選択する合成処理範囲は中心からある大きさを持った領域の外の範囲としてもよい。この合成処理範囲選択方法は、撮像デバイスの特性を考慮したものである。一般的な光学レンズを用いて撮像することにより得られた画像は中心部分(光軸近傍)の画質が比較的よく、周辺ほど画質が悪くなる。このため、中心部分は高画質化を行う必要がなく、一方、周辺部分で高画質化を行う必要がある撮像系に応用することができる。   The composition processing range selected by the composition processing range selection unit 23 may be a range outside an area having a certain size from the center. This synthesis processing range selection method takes into consideration the characteristics of the imaging device. An image obtained by imaging using a general optical lens has a relatively good image quality at the central portion (near the optical axis), and the image quality becomes worse at the periphery. For this reason, it is not necessary to improve the image quality in the central portion, and it can be applied to an imaging system in which the image quality needs to be improved in the peripheral portion.

また、前述した説明では、合成処理範囲選択部23が行う合成処理範囲の選択は画像合成装置2が起動するたびに行われる処理動作であったが、図示しない合成処理範囲保存手段を備え、一度選択された合成処理範囲の情報を合成処理範囲保存手段に保存し、次回以降に画像合成装置2が起動するときは、合成処理範囲保存手段に保存しておいた合成処理範囲の情報を読み込んで利用して、高解像度画像生成部24が画像合成処理を行うようにしてもよい。このように構成することにより、画像合成装置2の起動時に、速やかに画像合成処理を開始することができるため、操作性を向上させることができる。   In the above description, the selection of the synthesis processing range performed by the synthesis processing range selection unit 23 is a processing operation performed every time the image synthesis apparatus 2 is activated. Information on the selected composition processing range is stored in the composition processing range storage means, and when the image composition apparatus 2 is activated next time, the information on the composition processing range stored in the composition processing range storage means is read. The high-resolution image generation unit 24 may use the image composition process. With this configuration, the image composition process can be started promptly when the image composition apparatus 2 is activated, so that the operability can be improved.

さらに、一度選択した合成処理範囲の情報は、合成処理範囲データとして装置の外部の装置に出力し、使用するときに、外部の装置から合成処理範囲の情報を読み込んで利用してもよい。このように構成すれば、撮像条件に合わせた合成処理範囲データを複数保存しておくことができ、それらを条件に合わせて選択して再利用することで、条件が変更になっても合成処理範囲の選択処理を省略することができるようになるほか、これらデータを条件によらず意図的に選択して、各々のデータを使った合成処理の結果を確認できるようになる。   Further, the information on the synthesis processing range once selected may be output as synthesis processing range data to a device outside the apparatus, and when used, the information on the synthesis processing range may be read from the external device and used. With this configuration, it is possible to save a plurality of composite processing range data that matches the imaging conditions, and select and reuse them according to the conditions, so that the composite processing can be performed even if the conditions change. In addition to being able to omit the range selection process, these data can be selected intentionally regardless of the conditions, and the result of the synthesis process using each data can be confirmed.

また、前述した説明においては、合成処理範囲の選択に用いる画質劣化具合の判定方法として合成した画像の空間周波数成分を調べる方法を用いたが、合成処理範囲選択部23は、さらに予め用意された基準画像を入力し、この基準画像とステップS2〜S4で得られた合成画像との比較を行うことで劣化を判断してもよい。具体的には、2つの画像を細かい領域に分割し、各領域でPSNR値(Peak Signal to Noise Ratio;基準画像と評価対象の画像の歪みの比率を対数で表した値)を求める。そして、求められたPSNR値の平均値などを使って閾値を決定し、あるいは予め決定しておいた閾値以上のPSNR値を持つ領域を合成処理範囲とすればよい。このような構成にすれば、画質劣化の判断として、撮像する画像の影響を受けにくくなり、より効果的な合成処理範囲の選択を行うことができる。   In the above description, the method of examining the spatial frequency component of the synthesized image is used as the image quality degradation determination method used for selecting the synthesis processing range. However, the synthesis processing range selection unit 23 is further prepared in advance. Deterioration may be determined by inputting a reference image and comparing the reference image with the composite image obtained in steps S2 to S4. Specifically, the two images are divided into fine regions, and PSNR values (Peak Signal to Noise Ratio; a value representing the distortion ratio of the reference image and the image to be evaluated in logarithm) are obtained in each region. Then, a threshold value is determined using the average value of the obtained PSNR values, or an area having a PSNR value equal to or greater than a predetermined threshold value may be set as the synthesis processing range. With such a configuration, the determination of image quality deterioration is less affected by the image to be captured, and a more effective synthesis processing range can be selected.

また、合成処理範囲選択部23は、所定のチャートを撮像した画像を処理する構成でもよい。所定のチャートは、例えば、解像度チャートやマスメチャートである。解像度チャートとは、それを撮像することによって、撮像系の解像能力を測定できるように作られたチャートである。解像度チャートを所定の条件で撮像し、合成画像の解像度を調べることで、画質の劣化を詳しく調べることができる。マスメチャートとは格子や市松模様のチャートである。マスメチャートを所定の条件で撮像し、格子の交点・線の位置や歪みを調べることで、画質の劣化を調べることができる。このように所定のチャートを用いる方法であれば、実際の被写体を撮像しないので、条件によらず、合成処理範囲の選択処理を安定させることができる。   Further, the composition processing range selection unit 23 may be configured to process an image obtained by capturing a predetermined chart. The predetermined chart is, for example, a resolution chart or a mass chart. A resolution chart is a chart created so that the resolution capability of an imaging system can be measured by imaging the resolution chart. By taking a resolution chart under predetermined conditions and examining the resolution of the composite image, it is possible to examine in detail the deterioration of the image quality. A mass chart is a lattice or checkered chart. Image degradation can be examined by imaging a mass chart under predetermined conditions and examining the positions and distortions of intersections and lines of the lattice. In this way, with the method using a predetermined chart, since an actual subject is not imaged, the selection process of the synthesis processing range can be stabilized regardless of the conditions.

また、合成処理範囲選択部23において、3枚以上の画像から合成処理範囲を選択するようにしてもよい。この場合、全ての画像の組み合わせについて、前述した合成処理範囲選択の処理を行い、最も効果が高い画像の組み合わせを合成処理範囲とする。このようにすれば、著しく合成に寄与する、または寄与しない画像が存在していても適当な合成処理範囲を選択することができる。   Further, the synthesis processing range selection unit 23 may select a synthesis processing range from three or more images. In this case, the combination processing range selection process described above is performed for all image combinations, and the combination of images having the highest effect is set as the combination processing range. In this way, it is possible to select an appropriate synthesis processing range even if there are images that contribute significantly or do not contribute to the synthesis.

また、合成処理範囲選択部23は、図示しないカウンタ(計数手段)を備え、処理を行うたびにカウントを行い、カウント値に応じて合成処理範囲を決めてもよい。具体的には、カウンタは0、1などの繰り返しカウンタであり、カウント値が1のときは、基準画像以外の全ての画像を合成処理選択としない、すなわち、基準画像をそのまま出力する構成としてもよい。このように構成することで、例えば、画像合成装置2において1秒当たり、複数枚の動画像を生成することができる場合、1枚おきに高画質化されることになる。このような動画像が1秒間に充分な枚数表示されると、錯覚によって全体的に高画質になったように観測される。このように構成することで、画像合成装置2を動画カメラとして用いた場合に処理量を低減することができる。   Further, the synthesis processing range selection unit 23 may include a counter (counting unit) (not shown), counts each time processing is performed, and determines the synthesis processing range according to the count value. Specifically, the counter is a repetitive counter such as 0, 1 and the like. When the count value is 1, all the images other than the reference image are not selected for synthesis processing, that is, the reference image may be output as it is. Good. With this configuration, for example, when a plurality of moving images can be generated per second in the image composition device 2, the image quality is improved every other frame. When a sufficient number of such moving images are displayed per second, it is observed that the overall image quality is improved by the illusion. With this configuration, the processing amount can be reduced when the image composition device 2 is used as a moving image camera.

なお、より高画質な画像を生成するために、カメラ11、12内に備える撮像デバイスのパラメータを変更してもよい。ここでいうパラメータとは合焦や絞り、画角などであり、可変レンズを用いた場合はそのパラメータも含まれる。これらを変更する方法としては、種々のパラメータの組み合わせのうち、全てまたは一部を用いて撮像を行い、それぞれについて合成を行い、その中からもっとも良いパラメータを選択する方法がある。また、例えば絞りが画像の明るさに影響するなど、パラメータが撮像する画像にどのように影響するかがわかっている場合であって、その影響を画像から測定する手段があれば、改善するようにパラメータを順次調整する、フィードバック制御方法を用いても良い。   Note that the parameters of the imaging devices provided in the cameras 11 and 12 may be changed in order to generate a higher quality image. The parameters here are in-focus, aperture, angle of view, etc., and when a variable lens is used, the parameters are also included. As a method of changing these, there is a method of performing imaging using all or a part of various combinations of parameters, combining each of them, and selecting the best parameter from them. In addition, if it is known how the parameter affects the image to be captured, for example, the aperture affects the brightness of the image, and if there is a means for measuring the effect from the image, it will be improved. Alternatively, a feedback control method of sequentially adjusting parameters may be used.

以上説明したように、複数枚の画像を合成して高解像度画像を得る画像合成装置において、画像を合成する場合に高解像度化に寄与する画像中の領域の画素を選択して画像合成を行い、高解像度化に寄与しない画素は画像合成を行わないようにしたため、撮像デバイスのばらつきに起因する画質劣化を低減するとともに、画像合成処理量を低減し、高速に高解像度画像を生成することができる。   As described above, in an image composition device that combines a plurality of images to obtain a high resolution image, when compositing the images, the pixels in the region that contributes to high resolution are selected and image composition is performed. Since pixels that do not contribute to higher resolution are not subjected to image synthesis, image quality degradation caused by variations in imaging devices can be reduced, image synthesis processing amount can be reduced, and high-resolution images can be generated at high speed. it can.

なお、図1に示す画像合成部22、合成処理範囲選択部23及び高解像度画像生成部24の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムを画像合成装置2に内蔵するコンピュータシステムに読み込ませ、実行することにより画像合成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS等のソフトウェアや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing the functions of the image composition unit 22, the composition processing range selection unit 23, and the high-resolution image generation unit 24 shown in FIG. 1 is recorded on a computer-readable recording medium and recorded on the recording medium. The image composition processing may be performed by causing the computer system incorporated in the image composition apparatus 2 to read and execute the program. Here, the “computer system” includes software such as an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

本発明による画像合成装置は、動画や静止画を撮像する多眼の電子カメラに応用することができ、特に複数の撮像デバイスで撮像した画像を合成し高精細な画像を高速に合成する装置に利用することできる。   The image synthesizing apparatus according to the present invention can be applied to a multi-lens electronic camera that captures moving images and still images, and particularly, to an apparatus that synthesizes images captured by a plurality of imaging devices and synthesizes a high-definition image at high speed. It can be used.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示す画像合成装置2の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image composition device 2 illustrated in FIG. 1. 複数の画像を合成することにより高解像度画像を生成する動作を示す説明図である。It is explanatory drawing which shows the operation | movement which produces | generates a high resolution image by synthesize | combining a some image. 合成画像が高精細化されたか否かを判定する動作を示す説明図である。It is explanatory drawing which shows the operation | movement which determines whether the synthesized image was highly defined. 合成処理範囲を選択する動作を示す説明図である。It is explanatory drawing which shows the operation | movement which selects a synthetic | combination process range. 合成処理範囲を使用して、画像を合成する動作を示す説明図である。It is explanatory drawing which shows the operation | movement which synthesize | combines an image using a synthetic | combination process range. 顔検出処理に用いるマッチングパターンの一例を示す説明図である。It is explanatory drawing which shows an example of the matching pattern used for a face detection process. 多眼カメラを用いて高解像度画像を生成する処理動作を示す説明図である。It is explanatory drawing which shows the processing operation which produces | generates a high-resolution image using a multiview camera. 高解像度化手法を用いた画像合成による画質劣化の一例を示す説明図である。It is explanatory drawing which shows an example of the image quality degradation by the image composition using the high resolution technique.

符号の説明Explanation of symbols

11、12・・・カメラ、2・・・画像合成装置、21・・・画像入力部、22・・・画像合成部、23・・・合成処理範囲選択部、24・・・高解像度画像生成部   DESCRIPTION OF SYMBOLS 11, 12 ... Camera, 2 ... Image composition apparatus, 21 ... Image input part, 22 ... Image composition part, 23 ... Composition processing range selection part, 24 ... High-resolution image generation Part

Claims (6)

同一の被写体を撮像した複数の画像データを入力する画像入力手段と、
前記画像入力手段によって入力した複数の画像データを合成することにより合成画像データを生成する画像合成手段と、
前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択手段と、
前記合成処理範囲選択手段によって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成手段と
を備えることを特徴とする画像合成装置。
Image input means for inputting a plurality of image data obtained by imaging the same subject;
Image combining means for generating composite image data by combining a plurality of image data input by the image input means;
One of the plurality of image data is selected as reference image data, and the image quality of the composite image data is improved by comparing the image quality of divided areas with respect to each of the reference image data and the composite image data. A synthesis processing range selection means for selecting a synthesis processing range including the divided area,
High-resolution image generation means for generating a high-resolution image by combining the reference image data outside the synthesis processing range with the synthesized image data in the synthesis processing range selected by the synthesis processing range selection means An image composition device comprising:
前記分割領域は、画像の周辺を除外した領域であることを特徴とする請求項1に記載の画像合成装置。   The image synthesis apparatus according to claim 1, wherein the divided area is an area excluding the periphery of the image. 前記複数の画像データの合成は、画素のシフト量に基づいて重ね、かつ、重ねた座標系上にある画素間の距離による重み値を乗算して新たな画素を生成することを特徴とする請求項1または2に記載の画像合成装置。   The synthesis of the plurality of image data is performed based on a shift amount of pixels, and a new pixel is generated by multiplying a weight value according to a distance between pixels on the superimposed coordinate system. Item 3. The image composition device according to Item 1 or 2. 前記画像は、モノクロ画像またはカラー画像であることを特徴とする請求項1から3のいずれかに記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the image is a monochrome image or a color image. 画像入力手段と、画像合成手段と、合成処理範囲選択手段と、高解像度画像生成手段と
を備える画像合成装置における画像合成方法であって、
前記画像入力手段が、同一の被写体を撮像した複数の画像データを入力する画像入力ステップと、
前記画像合成手段が、前記画像入力ステップによって入力した複数の画像データを合成することにより合成画像データを生成する画像合成ステップと、
前記合成処理範囲選択手段が、前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択ステップと、
高解像度画像生成手段が、前記合成処理範囲選択ステップによって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成ステップと
を有することを特徴とする画像合成方法。
An image composition method in an image composition device comprising an image input means, an image composition means, a composition processing range selection means, and a high resolution image generation means,
An image input step in which the image input means inputs a plurality of image data obtained by imaging the same subject;
An image compositing step in which the image compositing means generates composite image data by compositing a plurality of image data input in the image input step;
The synthesis processing range selection means selects one of the plurality of image data as reference image data, compares the image quality of the divided areas with respect to each of the reference image data and the synthesized image data, A synthesis processing range selection step for selecting a synthesis processing range including a divided area where the image quality of the composite image data is improved;
High-resolution image generation means combines the reference image data outside the synthesis processing range with the synthesized image data in the synthesis processing range selected in the synthesis processing range selection step, thereby generating a high-resolution image. And a high-resolution image generation step for generating the image.
複数の画像データを合成することにより高解像度画像を出力する画像合成装置上のコンピュータに画像合成処理を行わせるための画像合成プログラムであって、
同一の被写体を撮像した複数の画像データを入力する画像入力ステップと、
前記画像入力ステップによって入力した複数の画像データを合成することにより合成画像データを生成する画像合成ステップと、
前記複数の画像データのうちの1つを基準画像データとして選択し、前記基準画像データと前記合成画像データのそれぞれに対して、分割領域の画質を比較して、前記合成画像データの画質が向上している分割領域が含まれている合成処理範囲を選択する合成処理範囲選択ステップと、
前記合成処理範囲選択ステップによって選択された前記合成処理範囲の前記合成画像データに対して、前記合成処理範囲外の前記基準画像データを合成することにより高解像度化画像を生成する高解像度画像生成ステップと
をコンピュータに行わせることを特徴とする画像合成プログラム。
An image composition program for causing a computer on an image composition apparatus that outputs a high resolution image by combining a plurality of image data to perform image composition processing,
An image input step of inputting a plurality of image data obtained by imaging the same subject;
An image compositing step for generating composite image data by compositing a plurality of image data input in the image input step;
One of the plurality of image data is selected as reference image data, and the image quality of the composite image data is improved by comparing the image quality of divided areas with respect to each of the reference image data and the composite image data. A synthesis processing range selection step for selecting a synthesis processing range including the divided area,
A high-resolution image generation step of generating a high-resolution image by combining the reference image data outside the combination processing range with the combined image data in the combination processing range selected by the combination processing range selection step. An image composition program characterized by causing a computer to perform.
JP2008196339A 2008-07-30 2008-07-30 Image composition apparatus, image composition method and image composition program Pending JP2010034964A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008196339A JP2010034964A (en) 2008-07-30 2008-07-30 Image composition apparatus, image composition method and image composition program
PCT/JP2009/003600 WO2010013471A1 (en) 2008-07-30 2009-07-29 Image synthesis device, image synthesis method, and image synthesis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008196339A JP2010034964A (en) 2008-07-30 2008-07-30 Image composition apparatus, image composition method and image composition program

Publications (1)

Publication Number Publication Date
JP2010034964A true JP2010034964A (en) 2010-02-12

Family

ID=41610185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008196339A Pending JP2010034964A (en) 2008-07-30 2008-07-30 Image composition apparatus, image composition method and image composition program

Country Status (2)

Country Link
JP (1) JP2010034964A (en)
WO (1) WO2010013471A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219574A (en) * 2009-03-12 2010-09-30 Ricoh Co Ltd Image compositing device and image compositing program
JP2011234121A (en) * 2010-04-27 2011-11-17 Fujifilm Corp Photographing apparatus and panoramic photographing method
KR101374330B1 (en) * 2010-07-08 2014-03-14 가부시키가이샤 리코 Image processing unit, image processing method, and computer-readable recording medium having recorded therein image processing program
EP2731334A1 (en) * 2011-07-08 2014-05-14 Olympus Corporation Image pickup apparatus and image generating method
JP2016219861A (en) * 2015-05-14 2016-12-22 リコーイメージング株式会社 Photographing device, image file generation device, image file processing device, data structure of image file, and program
JP2017005552A (en) * 2015-06-12 2017-01-05 リコーイメージング株式会社 Imaging device and imaging method, control device and control method, and program
US9749523B2 (en) 2015-05-19 2017-08-29 Ricoh Imaging Company, Ltd. Photographing apparatus, photographing method, image processor, image-processing method, and program
US9871964B2 (en) 2015-06-12 2018-01-16 Ricoh Imaging Company, Ltd. Photographing apparatus, photographing controller, photographing control method, and photographing control program
CN111953862A (en) * 2019-05-16 2020-11-17 株式会社摩如富 Image processing apparatus, image processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5956808B2 (en) 2011-05-09 2016-07-27 キヤノン株式会社 Image processing apparatus and method
JP5719480B2 (en) * 2012-07-13 2015-05-20 富士フイルム株式会社 Image deformation apparatus and operation control method thereof

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05292478A (en) * 1992-04-06 1993-11-05 Nippon Telegr & Teleph Corp <Ntt> Moving picture input device
JPH0915548A (en) * 1995-06-27 1997-01-17 Olympus Optical Co Ltd Display device
JPH09149305A (en) * 1995-11-17 1997-06-06 Olympus Optical Co Ltd Image pickup device
JPH10126665A (en) * 1996-10-14 1998-05-15 Sharp Corp Image composing device
JPH11134500A (en) * 1997-10-24 1999-05-21 Sharp Corp Image processor
JP2002281514A (en) * 2001-03-21 2002-09-27 Mitsubishi Electric Corp Image pickup device
JP2004120092A (en) * 2002-09-24 2004-04-15 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2004274649A (en) * 2003-03-12 2004-09-30 Seiko Epson Corp Printing capable of non-uniform resolution conversion
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images
JP2005244916A (en) * 1998-08-28 2005-09-08 Imax Corp Image processor
JP2005354125A (en) * 2004-06-08 2005-12-22 Seiko Epson Corp Image processor and image display apparatus
JP2006025037A (en) * 2004-07-06 2006-01-26 Seiko Epson Corp Image processing system
JP2006092450A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Image processor and image processing method
JP2006115540A (en) * 2005-12-05 2006-04-27 Olympus Corp Image compositing device
JP2007235466A (en) * 2006-02-28 2007-09-13 Fujifilm Corp Imaging apparatus and imaging method
WO2007142109A1 (en) * 2006-05-31 2007-12-13 Nec Corporation Image resolution increasing device, image resolution increasing method, and program
WO2008026518A1 (en) * 2006-08-31 2008-03-06 Panasonic Corporation Image processing device, image processing method, and image processing program

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05292478A (en) * 1992-04-06 1993-11-05 Nippon Telegr & Teleph Corp <Ntt> Moving picture input device
JPH0915548A (en) * 1995-06-27 1997-01-17 Olympus Optical Co Ltd Display device
JPH09149305A (en) * 1995-11-17 1997-06-06 Olympus Optical Co Ltd Image pickup device
JPH10126665A (en) * 1996-10-14 1998-05-15 Sharp Corp Image composing device
JPH11134500A (en) * 1997-10-24 1999-05-21 Sharp Corp Image processor
JP2005244916A (en) * 1998-08-28 2005-09-08 Imax Corp Image processor
JP2002281514A (en) * 2001-03-21 2002-09-27 Mitsubishi Electric Corp Image pickup device
JP2004120092A (en) * 2002-09-24 2004-04-15 Canon Inc Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2004274649A (en) * 2003-03-12 2004-09-30 Seiko Epson Corp Printing capable of non-uniform resolution conversion
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images
JP2005354125A (en) * 2004-06-08 2005-12-22 Seiko Epson Corp Image processor and image display apparatus
JP2006025037A (en) * 2004-07-06 2006-01-26 Seiko Epson Corp Image processing system
JP2006092450A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Image processor and image processing method
JP2006115540A (en) * 2005-12-05 2006-04-27 Olympus Corp Image compositing device
JP2007235466A (en) * 2006-02-28 2007-09-13 Fujifilm Corp Imaging apparatus and imaging method
WO2007142109A1 (en) * 2006-05-31 2007-12-13 Nec Corporation Image resolution increasing device, image resolution increasing method, and program
WO2008026518A1 (en) * 2006-08-31 2008-03-06 Panasonic Corporation Image processing device, image processing method, and image processing program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219574A (en) * 2009-03-12 2010-09-30 Ricoh Co Ltd Image compositing device and image compositing program
JP2011234121A (en) * 2010-04-27 2011-11-17 Fujifilm Corp Photographing apparatus and panoramic photographing method
US8983140B2 (en) 2010-07-08 2015-03-17 Ricoh Company, Ltd. Image processing unit, image processing method, and image processing program to correct blurs and noise in an image
KR101374330B1 (en) * 2010-07-08 2014-03-14 가부시키가이샤 리코 Image processing unit, image processing method, and computer-readable recording medium having recorded therein image processing program
US9338364B2 (en) 2011-07-08 2016-05-10 Olympus Corporation Imaging device and image generation method
EP2731334A4 (en) * 2011-07-08 2015-02-25 Olympus Corp Image pickup apparatus and image generating method
EP2731334A1 (en) * 2011-07-08 2014-05-14 Olympus Corporation Image pickup apparatus and image generating method
JP2016219861A (en) * 2015-05-14 2016-12-22 リコーイメージング株式会社 Photographing device, image file generation device, image file processing device, data structure of image file, and program
US9749523B2 (en) 2015-05-19 2017-08-29 Ricoh Imaging Company, Ltd. Photographing apparatus, photographing method, image processor, image-processing method, and program
JP2017005552A (en) * 2015-06-12 2017-01-05 リコーイメージング株式会社 Imaging device and imaging method, control device and control method, and program
US9871964B2 (en) 2015-06-12 2018-01-16 Ricoh Imaging Company, Ltd. Photographing apparatus, photographing controller, photographing control method, and photographing control program
CN111953862A (en) * 2019-05-16 2020-11-17 株式会社摩如富 Image processing apparatus, image processing method, and program
CN111953862B (en) * 2019-05-16 2022-06-24 株式会社摩如富 Image processing apparatus, image processing method, and computer-readable recording medium

Also Published As

Publication number Publication date
WO2010013471A1 (en) 2010-02-04

Similar Documents

Publication Publication Date Title
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
US8659672B2 (en) Image processing apparatus and image pickup apparatus using same
JP5797016B2 (en) Image processing apparatus, image processing method, and program
JP5284537B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus using the same
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
JP5677040B2 (en) Image processing apparatus and control method thereof
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
CA2702165C (en) Image generation method and apparatus, program therefor, and storage medium which stores the program
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8520099B2 (en) Imaging apparatus, integrated circuit, and image processing method
WO2019146226A1 (en) Image processing device, output information control method, and program
JP4649171B2 (en) Magnification Chromatic Aberration Correction Device, Magnification Chromatic Aberration Correction Method, and Magnification Chromatic Aberration Correction Program
JP2008227945A (en) Image processing apparatus and image processing program
JPWO2003058554A1 (en) Image processing apparatus and image processing program for determining similarity of pixels
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP2009005166A (en) Color interpolation device and image processing system
JP2009047734A (en) Imaging apparatus and image processing program
JP6056511B2 (en) Image processing apparatus, method, program, and imaging apparatus
JP6957665B2 (en) Image processing equipment, image processing methods and programs
KR102470242B1 (en) Image processing device, image processing method and program
JP2008219230A (en) Imaging apparatus, and image processing method
JP2018067868A (en) Imaging apparatus
JP2011151597A (en) Apparatus and program for processing image, and electronic camera
JPWO2015083502A1 (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712