WO2004036498A1 - 複数の画像データのパノラマ合成処理 - Google Patents

複数の画像データのパノラマ合成処理 Download PDF

Info

Publication number
WO2004036498A1
WO2004036498A1 PCT/JP2003/013217 JP0313217W WO2004036498A1 WO 2004036498 A1 WO2004036498 A1 WO 2004036498A1 JP 0313217 W JP0313217 W JP 0313217W WO 2004036498 A1 WO2004036498 A1 WO 2004036498A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
plane
spherical
cylindrical
Prior art date
Application number
PCT/JP2003/013217
Other languages
English (en)
French (fr)
Inventor
Makoto Ouchi
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to JP2004544960A priority Critical patent/JP4487775B2/ja
Priority to EP03756628A priority patent/EP1553521A4/en
Priority to US10/531,192 priority patent/US20060062487A1/en
Publication of WO2004036498A1 publication Critical patent/WO2004036498A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to an image processing technique for combining a plurality of image data.
  • the image generated by the digital still camera has distortion especially in the peripheral portion. This distortion has caused a problem of deteriorating the image quality of the connected image area when combining a plurality of image data.
  • One cause of this distortion is that light input from the optical system of the digital still camera is projected onto an image sensor having a flat light receiving surface.
  • the present invention has been made to solve the above-described problems in the conventional technology, and has a technique for suppressing the deterioration of image quality that occurs in a process of combining a plurality of pieces of image data generated using a planar image sensor.
  • the purpose is to provide.
  • a first aspect of the present invention provides a method according to a plurality of image files including image data configured as a planar image in which a plurality of planar pixels are arranged on a plane.
  • An image processing apparatus for generating image data representing one continuous continuous plane image obtained by combining a plurality of image data included in the plurality of image files, wherein the spherical image is formed around a predetermined point.
  • a combining area setting unit for setting a projection plane as an area for combining the plurality of image data; And generating a plurality of spherical images by projecting the two-dimensional images represented by, onto the projection surface, and extracting a feature point which is an area having a predetermined feature from each of the plurality of spherical images.
  • a feature point extraction unit, a correspondence determination unit that determines the correspondence between the extracted feature points among the plurality of spherical images, and each of the spherical images according to the determined correspondence.
  • a spherical image combining unit that generates continuous spherical image data, which is image data representing one continuous spherical image, by combining a plurality of image data representing the continuous spherical image, and displays the continuous plane image from the continuous spherical image data.
  • a planar image generation unit that generates image data.
  • a spherical projection surface centered on a predetermined point is set as an area for synthesizing the plurality of image data, and the plurality of image data
  • a plurality of spherical images are generated by projecting each planar image represented by each of them onto a set projection plane, and the spherical images are combined.
  • the images are synthesized on the spherical projection surface, it is possible to suppress the deterioration of the image quality that occurs in the synthesis processing of a plurality of image data generated using the planar imaging device.
  • the plurality of image files further include image attribute information that is attribute information of the image data
  • the image processing apparatus further includes a focal length determining unit that determines a focal length of the optical system used to generate the plurality of image data for each of the image data according to the image attribute information,
  • the spherical image generation unit arranges each planar image represented by each image data at a position away from the predetermined point toward the projection plane by the focal length corresponding to each image data, and A plurality of spherical images may be generated by projecting onto a projection surface.
  • the image attribute information includes a lens focal length representing an actual focal length of a photographing lens, a focal plane resolution unit defining a unit of resolution on a focal plane of the optical system, and the focal plane resolution unit.
  • a focal plane height resolution representing the number of pixels in the height direction of the image per unit, and a focal plane width resolution representing the number of pixels in the width direction of the image per the focal plane resolution unit The focal length determination unit determines the lens focal length to be the focal length, and the spherical image generation unit divides the focal plane resolution unit by the resolution of the width of the focal plane to thereby determine the width direction of the pixel.
  • the size of the pixel in the height direction may be determined by determining the size and dividing the focal plane resolution unit by the resolution of the height of the focal plane.
  • the image attribute information includes a 35 mm equivalent lens focal length, which is a value of a focal length converted to a 35 mm film camera, and the focal length determining unit determines the 35 mm equivalent lens focal length as the focal length.
  • the distance may be determined, and the spherical image generating unit may determine the 35 mm film size as the size of the planar image.
  • the image attribute information represents a focal plane resolution unit that defines a resolution unit on a focal plane of the optical system, and a number of pixels in a height direction of the image per the focal plane resolution unit.
  • the spherical image generating unit includes a focal plane height resolution and a focal plane width resolution representing the number of pixels in the width direction of the image of the focal plane resolution unit.
  • the resolution unit is divided in the height direction by an angle divided by the maximum focal length that is the largest one of the determined focal lengths and the resolution of the height
  • the focal plane resolution unit is A spherical pixel setting unit that sets each area divided in the width direction at an angle divided by a maximum focal length and the resolution of the width as a spherical pixel on the spherical surface, and a plane projected onto each of the spherical pixels.
  • a spherical pixel value determining unit that determines each of the pixel values of the face pixels.
  • the spherical pixels are set based on the largest one of the determined focal lengths, the information amount of the planar image having the smallest pixel can be reduced.
  • the panorama synthesis processing can be performed without increasing the information amount of the spherical image generated from the planar image.
  • a plurality of image data each including image data configured as a planar image in which a plurality of planar pixels are arranged on a plane and image attribute information that is attribute information of the image data are provided.
  • An image processing apparatus for generating image data representing one continuous continuous plane image in which a plurality of image data included in the plurality of image files are combined according to an image file, wherein the image attribute information includes Accordingly, a focal length determining unit that determines the focal length of the optical system used to generate the plurality of image data for each of the image data, and a cylindrical projection surface centered on a predetermined axis.
  • a combining area setting unit that sets the plurality of pieces of image data as an area for combining the plurality of pieces of image data.
  • a cylindrical image generating unit that generates a plurality of cylindrical images by arranging the cylindrical images at a predetermined position and projecting the cylindrical images on the projection plane; and a feature point that is an area having predetermined characteristics from each of the plurality of cylindrical images.
  • a correspondence point deciding section for deciding the correspondence of the extracted feature points between the plurality of cylindrical images, and the cylinder image according to the decided correspondence.
  • a cylindrical image synthesizing unit that generates continuous cylindrical image data, which is image data representing one continuous cylindrical image, by synthesizing a plurality of image data representing each of the image data, and the continuous plane from the continuous cylindrical image data.
  • a plane image generation unit that generates image data representing an image.
  • the cylindrical image generating section sets the axis in parallel with a height direction set in the image data.
  • FIG. 1 is an explanatory diagram showing an image processing system as one embodiment of the present invention.
  • FIG. 2 is a block diagram schematically showing a configuration of a digital still camera as an input device for generating image data.
  • FIG. 3 is a block diagram schematically showing the configuration of a computer PC and a color printer as output devices for outputting image data.
  • FIG. 4 is an explanatory diagram schematically showing the structure of the image file GF in the embodiment of the present invention.
  • FIG. 5 is an explanatory diagram showing an example of accessory information stored in the Exif IFD of the image file GF.
  • FIG. 6 is a flowchart showing a processing routine of the panorama synthesis processing in the computer PC.
  • FIGS. 7 (a) and 7 (b) are explanatory diagrams showing the standing relationship between the plane RGB data and the cylindrical coordinate system.
  • FIG. 8 is an explanatory diagram showing a processing routine of the coordinate conversion processing according to the first embodiment of the present invention.
  • FIGS. 9 (a) and 9 (b) are explanatory diagrams showing the positional relationship between the plane RGB and the projection plane CYL viewed from the direction of the axis Caxis.
  • FIG. 10 is an explanatory diagram showing image distortion that occurs when image data is generated using a planar imaging device.
  • FIG. 11 is an explanatory diagram showing the relationship between the plane RGB data and the spherical coordinate system.
  • Figures 12 (a), 2 (b), and 12 (c) show the same focal length from the scenery.
  • FIG. 3 is an explanatory diagram showing a state in which one of two cylindrical image data is generated.
  • FIGS. 13 (a), 13 (b), and 13 (c) are explanatory diagrams showing feature points extracted from each cylindrical image data.
  • FIG. 14 is an explanatory diagram showing how the corresponding point search processing is performed.
  • FIGS. 15 (a) and 15 (b) are explanatory diagrams showing the contents of the combining process.
  • Figures 16 (a), 16 (b), and 16 (c) show how image data representing one continuous image is generated from two image data with different focal lengths FIG.
  • FIG. 17 is an explanatory diagram showing how two cylindrical image data are generated from two image data having different focal lengths.
  • FIG. 1 is an explanatory diagram showing an image processing system 10 as one embodiment of the present invention.
  • the image processing system 10 includes a digital still camera 12 as an input device that generates original image data, and an image processing device that performs image processing on the original image data generated by the digital still camera 12. It has a personal computer PC and a color printer 20 as an output device for outputting processed images. ing.
  • the digital still camera 12, the personal computer PC, and the power printer 20 can be connected to each other by a cable CV.
  • the digital still camera 12 and the like can transmit and receive image files via the cable C V.
  • the digital still camera 12 and the like can exchange image files using the memory card MC.
  • FIG. 2 is a block diagram schematically showing the configuration of a digital still camera 12 as an input device for generating image data.
  • the digital still camera 12 is a camera that electrically records still images by forming an image on a charge-coupled device (CCD) through an optical lens.
  • CCD charge-coupled device
  • the digital still camera 12 has an optical circuit 12 1 having a CCD for converting an optical signal into an electric signal, and an image acquiring circuit 12 2 for controlling the optical circuit 12 1 to acquire an image.
  • An image processing circuit 123 for processing image data and a control circuit 124 for controlling these circuits are provided.
  • the digital still camera 12 further includes a selection / decision button 126 as a user interface, and a liquid crystal display 127 used as a preview of a captured image and a user interface.
  • the shooting process (acquisition process of image data) by the digital still camera 12 includes (1) setting of shooting mode by the user, (2) shooting (input of image data), (3) image processing, and (4) image file Are recorded in the order of recording.
  • the setting of the shooting mode includes the setting of the lens focal length.
  • the setting of the lens focal length is performed by replacing a lens (not shown) or operating a zoom lens (not shown).
  • Imaging is performed by a user pressing a shutter.
  • a shutter When the shutter is pressed, an image is captured at a focal length that can be used by a lens attached to the digital still camera 12.
  • a lens attached to the digital still camera 12 For example, a zoom lens whose focal length can be changed by user operation
  • the image is taken at the focal length set by the user, and the original image data is generated.
  • image processing for storage is performed on the image data.
  • This image processing is a pre-processing for storing in the memory card MC.
  • the original image data is converted to a JPEG format suitable for storing photographic images.
  • the image information is added to the converted image data to generate an image file.
  • the shooting information PI is information indicating shooting conditions, and includes information indicating the selected metering method.
  • the image data acquisition processing in the digital still camera 12 is completed by recording the image file on the memory card MC. The configuration of the image file will be described later.
  • FIG. 3 is a block diagram schematically showing the configurations of a computer PC and a color printer 20 as output devices for outputting image data.
  • the computer PC includes a slot 22 from which an image file can be read from the memory card MC, and a print data generation circuit 23 for generating print data for causing the color printer 20 to perform printing. I have.
  • the print data generation circuit 23 includes an arithmetic processing unit (CPU) 231 that executes arithmetic processing for generating print data, and a hard disk that stores programs executed by the CPU 231, arithmetic processing results in the CPU 231 and other data. 232 and a random access memory (RAM) 233 for temporarily storing these programs and data.
  • the color printer 20 is a printer capable of outputting a color image.
  • the color printer 20 forms a dot pattern by discharging, for example, four color inks of cyan (C), magenta (M), yellow (Y), and black ( ⁇ ) onto a print medium.
  • This is an ink-jet type printer for forming a printer.
  • FIG. 4 is a schematic diagram illustrating the structure of the image file GF in the embodiment of the present invention.
  • the image file GF has a file structure that conforms to the digital still camera image file format standard (Exif). This standard is defined by the Japan Electronics and Information Technology Industries Association (JEI TA). This standard stipulates that JPEG-Exif files that store compression-type JPEG data as image data are included in Exif files (Ex-standard files).
  • Image file G is composed of an SOI marker segment 101 indicating the beginning of the compressed data, an APP1 marker segment 102 storing Exif attached information, and an APP2 marker segment 103 storing Exif extended data.
  • a DQT marker segment 104 that defines the quantization table
  • a DHT marker segment 105 that defines the Huffman table
  • a DRI marker segment 106 that defines the restart marker insertion interval
  • various frame-related parameters The SO (major segment 107) indicates the various parameters related to scanning
  • the SOS main segment (108) indicates the various parameters related to scanning
  • the EOI marker segment (109) indicates the end of the compressed data
  • the APP1 key segment 102 stores an APP1 marker 1021, an Exif identification code 1022, a TIFF header and other attached information 1023, and a thumbnail image 1024.
  • This ancillary information 10023 has a TIFF structure including a file header (TIFF header).
  • TIFF header In Exif-JPEG, an Oth IFD that stores ancillary information related to compressed image data and an Ex. ExIncludes Ex IFD that stores unique auxiliary information and 1stIFD that stores auxiliary information related to thumbnail images. ExiflFD is pointed to by the offset from the TIFF header stored in Oth IFD. In IFD, tags are used to identify each piece of information, and each piece of information is sometimes referred to by a tag name.
  • FIG. 5 is an explanatory diagram showing an example of accessory information stored in the Exif IFD of the image file GF.
  • the additional information includes tags related to the version and tags related to the shooting conditions.
  • Tags including tags.
  • Tags related to shooting conditions include exposure time, lens F value, ISO sensitivity, shutter speed, aperture value, brightness value, lens focal length, focal plane width resolution, focal plane height resolution, focal plane resolution unit , 35 mm equivalent lens focal length, and other parameter values are stored as shooting information PI according to a predetermined offset. Recording of the shooting information PI is performed at the time of shooting with the digital still camera 12 as described above.
  • FIG. 6 is a flowchart showing a processing routine of the panorama synthesis processing in the computer PC.
  • the CPU 231 reads out the image file GF from the memory card MC inserted into the slot 22 and stores it in the RAM 233 of the print data generation circuit 23.
  • the image file GF stores image data in the J PEG file format as image data GD.
  • the image data in the JPEG file format is configured as compressed YCbCr data.
  • step S110 the CPU 231 expands the compressed YCbCr data and then performs a color conversion process.
  • the YCbCr data is converted into RGB data.
  • the conversion into RGB data is because RGB data is used in image processing in the personal computer PC and the color printer 20.
  • Each of the RGB data and the YCbCr data is configured as a planar image in which a plurality of planar pixels (also referred to as planar pixels in this specification) are arranged on a planar surface.
  • step S120 the CPU 231 performs a coordinate system conversion process on the RGB data.
  • the coordinate conversion process is a process of generating image data on a cylindrical surface by projecting RGB data as a planar image onto a cylindrical surface arranged on a cylindrical coordinate system.
  • the image data generated in this manner is called cylindrical RGB data, and the RGB data configured as a planar image is referred to as planar RGB data. Call it overnight.
  • FIGS. 7A and 7B are explanatory diagrams showing the positional relationship between the plane RGB data M I and the projection plane CYL on the cylindrical coordinate system.
  • FIG. 7A shows the positional relationship between the optical system of the digital still camera 12 and the image sensor. This optical system is shown as lens L.
  • the imaging device is configured as a CCD (Charge-CoupledDevice) having a flat light receiving surface.
  • the lens L is obtained by replacing a plurality of lenses of the optical system of the digital still camera 12 with a single lens having the same effect.
  • the center of the lens L is called a principal point, and a plane passing through the principal point and perpendicular to the optical axis Laxis is called a principal plane.
  • an object plane indicating the subject and an imaging plane for forming an image of light from the subject are further defined.
  • the object plane and the imaging plane are defined at positions separated by the subject side distance a and the imaging plane side distance b, respectively, in the optical axis direction from the main plane.
  • the image pickup device is arranged so that the light receiving surface matches the image forming surface. As a result, light from the subject on the object plane passes through the lens L and is focused on the light receiving surface of the image sensor.
  • FIG. 7 (b) shows how the plane RGB data MI is projected on the projection plane CYL. Since the plane RGB data MI is image data generated using an image sensor, the pixel value of each plane pixel PXL was originally generated according to the light incident on the imaging pixels arranged on the image plane. It will be a value.
  • the projection plane CY L is set as a part of a cylindrical surface which is a set of a plurality of points separated by an imaging plane distance b from the axis Ca xis of the cylindrical coordinate system.
  • the axis Ca x ⁇ s is an axis extending in the vertical direction of the plane RGB data MI through the point PP corresponding to the principal point in FIG. 7 (a). It has been found that the image plane side distance b is almost equal to the lens focal length.
  • the lens focal length can be the one stored in ExiflFD of the image file GF (Fig. 5). As a result, a cylindrical image having a plurality of cylindrical pixels defined by the size Zo in the axis Ca xis direction and the angle ⁇ 0 is projected onto the projection plane C. Configurable on YL.
  • FIG. 8 is an explanatory diagram showing a processing routine of the coordinate conversion processing according to the first embodiment of the present invention.
  • the CPU 231 reads out data used for the coordinate conversion process from the image file GF.
  • the data used for the coordinate transformation process includes a lens focal length, a focal plane resolution unit, a focal plane width resolution, and a focal plane height resolution.
  • the lens focal length is the actual focal length of the photographing lens, and substantially coincides with the distance from the center of one virtual convex lens to the image sensor where light is imaged as described above.
  • the focal plane resolution unit specifies the unit of measurement for the resolution of the focal plane width and the resolution of the focal plane height.
  • the focal plane width resolution represents the number of pixels in the image width direction per focal plane resolution unit.
  • the focal plane height resolution indicates the number of pixels in the image height direction per focal plane resolution unit.
  • the focal plane is an imaging plane for imaging light from a subject, and coincides with the light receiving surface of the image sensor as described above.
  • CPU 231 performs the following processing.
  • a cylindrical surface centered on the axis C a X is of the cylindrical coordinate system is set on the cylindrical coordinate system.
  • the lens focal length is set to the above-mentioned fixed distance for easy understanding.
  • the plane RGB data is arranged at a predetermined position on the cylindrical coordinate system.
  • the plane RGB data is arranged at a position away from the axis Caxis by the lens focal length in such a direction that the center line CL extending in the height direction of the plane RGB data is parallel to the axis Caxis. Placing the center line CL extending in the height direction of the plane RGB data parallel to the axis C axis is generally used in the panorama synthesis processing that is often connected in the width direction. This is to suppress distortion.
  • step S230 the CPU 231 determines the size of the planar pixels of the planar RGB data. And the size of the cylindrical pixel on the projection plane CYL. Specifically, the pixel size in the width direction is obtained by dividing the focal plane resolution unit by the focal plane width resolution to obtain the focal plane resolution unit as the focal plane height resolution. By dividing, the size of the pixel in the height direction can be determined. If the data obtained from the image sensor is not resampled, the size of the planar pixel determined in this way matches the pixel size of the image sensor.
  • FIG. 9 (a) and 9 (b) are explanatory diagrams showing the positional relationship between the plane RGBD and the projection plane CYL viewed from the direction of the axis Caxis.
  • FIG. 9A is a view of FIG. 7B viewed from above.
  • FIG. 9 (b) is an enlarged view of a part of FIG. 9 (a).
  • FIG. 9A shows a plurality of plane pixel columns C in the plane RGB data MI.
  • the plane pixel row C is a pixel row composed of a plurality of plane pixels arranged in the height direction in the plane RGB data MI.
  • planar pixel column C5L shows 11 planar pixel columns from the planar pixel column C5L to the planar pixel column C5R.c
  • the planar pixels included in each planar pixel column C are all the same. Height Zo (axis C a X is direction).
  • FIG. 9A further shows a plurality of cylindrical pixel rows P in the projection plane CYL.
  • the cylindrical pixel row P is a pixel row composed of a plurality of cylindrical pixels arranged in the height direction in the projection plane CYL.
  • FIG. 9 (a) shows nine cylindrical pixel rows P from a cylindrical pixel row P 4L to a cylindrical pixel row P 4R.
  • Each cylindrical pixel row P has the same width of the same angle ⁇ .
  • the cylindrical pixels included in each cylindrical pixel column ⁇ have the same height Zo (not shown) as the planar pixels.
  • the angle ⁇ 0 representing the width of the cylindrical pixel is set based on the plane pixel PXL near the optical axis La Xis. Specifically, the cylindrical pixel row P 0 is determined by projecting the plane pixel row CO onto the projection plane CYL, and the determined angle ⁇ 0 of the cylindrical pixel row PO is the angle of each cylindrical pixel row. By setting the cylindrical pixels (not shown) in this way, it is possible to compose a cylindrical image on the projection plane CYL (step S 240).
  • step S250 the CPU 231 calculates each pixel value of the cylindrical pixel from each pixel value of the plane pixel of the plane RGB data M I.
  • FIG. 9 (b) is an enlarged view of a part of FIG. 9 (a) as described above, and is a diagram for explaining a method of calculating each pixel value of a cylindrical pixel by bilinear interpolation. is there.
  • the plane RGB data is assumed to be one-dimensional data having only one row of plane pixels in the height direction. By performing the processing, it can be easily extended to two-dimensional data.
  • FIG. 9 (b) shows a cylindrical pixel P 3 R, a center line P 3 RC L of the cylindrical pixel P 3 R, and a projection point X 1 of the center line P 3 RC L onto the plane RGB image data MI. It has been done.
  • the center line P 3 RC L is a line extending from the axis Ca X is (FIG. 9 (a)) toward the center of the cylindrical pixel P 3 R.
  • the pixel value of the cylindrical pixel P 3 R can be calculated from the pixel values of the plane pixels C 3 R and C 4 R as follows.
  • the projection point X 1 is projected in the plane pixel C 3 R, and is located at a distance of 50 a from the center position of the plane pixel C 3 R and a distance of 50 b from the center position of the plane pixel C 4 R. .
  • These distances 50a and 5Ob can be obtained from the plane RGB data and the lens focal length by CPU231.
  • the pixel value of the cylindrical pixel P 3 R is calculated by the following formula in the case of bilinear interpolation ((pixel value of plane pixel C 3 R X distance 50 b + pixel value of plane pixel C 4 R X distance 50 a) (Distance 50a + distance 50b)).
  • a calculation method there is a third-order convolution interpolation method and other calculation methods.
  • the reason for projecting the plane RGB data MI onto the cylindrical surface prior to the synthesis of the image data as described above is as follows.
  • FIG. 10 is an explanatory diagram showing image distortion that occurs when image data is generated using a planar imaging device.
  • the same subject m is Two plane RGB data M 1 and M 2 generated by shooting at an angle are shown.
  • the two planes R, G, and B data M 1, M 2 are taken with two optical axes, La Xis 1 and La Xis 2, respectively.
  • the subject m is located at the center of the image, whereas in the plane RGB data M2, the subject m is located at the left end of the image.
  • the subject m has almost the same apparent size as the plane pixel in the plane RGB data M1, whereas the object m has a larger apparent size than the plane pixel in the plane RGB data M2.
  • the apparent size of the subject m in the plane RGB data differs depending on where the subject m is located in the image. This results in image distortion.
  • the apparent size of the subject m is the same regardless of the position of the subject m on the image.
  • the above-described distortion in the width direction can be reduced by projecting the planar image on the cylindrical projection surface and converting the image into the cylindrical image. Further, by projecting on a spherical coordinate plane as shown in FIG. 11, distortion generated in both the height direction and the width direction can be reduced. Such a configuration has a remarkable effect when combining a plurality of images in the height direction.
  • FIG. 12 is an explanatory diagram showing how two cylindrical image data having the same focal length are generated from the landscape view.
  • the two cylindrical image data are data generated by photographing in two frames Fa 1 and F b 1 shown in FIG. 12 (a).
  • the image data shown in Fig. 12 (b) is obtained by expanding the data captured in frame F a1 and converted to a cylindrical image.
  • the image data shown in Fig. 12 (c) is This is an expanded version of the data captured at F b 1 and converted to a cylindrical image.
  • step S130 CPU 231 performs a special point extraction process on the two cylindrical image data.
  • the feature point extraction process improves the appearance characteristics of the subject in the image. This is a process for extracting feature points to be represented.
  • FIGS. 13 (a), 13 (b), and 13 (c) are explanatory diagrams showing feature points extracted from each cylindrical image data. Note that each feature point does not necessarily have to be the size of one pixel, and may be an area composed of a plurality of pixels.
  • the feature point extraction processing can be performed, for example, by the following method.
  • the CPU 231 extracts a contour as a set of points using a Sobel filter or another contour extraction filter.
  • Figure 13 (a) shows the cylindrical image data P I CT a
  • the CPU 231 extracts feature points from the set of points as the extracted contour lines by using an S RA (S ⁇ deeffectres ampling AI goritm) or another resampling algorithm.
  • S RA S ⁇ deeffectres ampling AI goritm
  • the feature point data PICTa2 generated by performing the feature point extraction processing on the contour data PICTa1 is shown in Fig. 13 (c). 2 shows feature point data PICT b2 generated by performing feature point extraction processing on the notch (not shown).
  • the feature point data PICT a2 includes two feature points C a1 and C a2, and the feature point data PICT b2 includes two feature points C b1 and C b2.
  • contour lines are superimposed for easy understanding.
  • step S140 the CPU 231 performs a corresponding point search process on the two special point data PICTa2 and PICTb2.
  • the corresponding point search process is a process of searching for a corresponding feature point among a plurality of images. This processing is for determining the same part in the same subject among a plurality of image data to be subjected to panorama synthesis.
  • a set of a plurality of feature points satisfying the following criteria is searched. Can be processed.
  • the difference between the pixel values of pixels around the feature point (for example, 3x3 pixels) is within a predetermined threshold value.
  • the feature points associated in this way are called approximate feature points.
  • FIG. 14 is an explanatory diagram showing how the corresponding point search processing is performed.
  • the feature point data PICT a2 includes two feature points C a1 and C a2, and the PI C T b2 includes two feature points C b1 and C b2. Since the feature point C a1 and the feature point C b 1 represent the same subject, the pixel values of surrounding pixels are similar. As a result, feature point Ca 1 and feature point C b 1 become corresponding approximate feature points, respectively. In addition, the feature point Ca 2 and the feature point C b 2 also become corresponding approximate feature points.
  • the approximate feature point Ca2 is located on the upper right side of the approximate feature point Ca1.
  • an approximate feature point Cb2 that approximates the approximate feature point Ca2 is located above the approximate feature point Cb1 that approximates the approximate feature point Ca1.
  • C indicates that in each of the feature point data PICTa2 and PICTb2, a plurality of approximate feature points have the same positional relationship.
  • the feature point C a1 of the feature point data PICT a 2 corresponds to the feature point C b 1 of the feature point data PICT b 2
  • the feature point C a 2 of the feature point data PICT a 2 is It can be determined that the data PICT b2 corresponds to the feature point Cb2.
  • step S150 the CPU 231 performs a combining process of the two cylindrical image data.
  • the combining process is a process of combining a plurality of image data so that corresponding feature points match.
  • FIGS. 15 (a) and 15 (b) are explanatory diagrams showing the contents of the combining process.
  • the synthesis processing after determining the positional relationship between the two images so that the corresponding feature points come closer, each image is locally deformed so that the positions of the corresponding feature points match. Is performed by
  • FIG. 15 (a) shows a state in which two feature point data PICTa2 and PICTb2 are arranged so that the corresponding feature points approach.
  • the feature point C a1 of the feature point data PICT a2 exists near the right side of the feature point C b1 of the feature point data PICT b2.
  • the feature point C a2 of the feature point data PICT a2 exists near the left side of the feature point C b2 of the feature point data PICT b2.
  • the distance between the feature point C a1 and the feature point C a2 due to the distortion of each image is such that the feature point C b1 and the feature point C b 2 This is because the distance between is smaller than that due to image distortion.
  • the distortion of each image exists because the distortion of the image shown in FIG. 10 is suppressed, but distortion due to lens aberration remains.
  • it is preferable to determine the positional relationship between the two images so that, for example, the sum of the squares of the distances of the corresponding feature points is minimized.
  • each corresponding point is generated as vector data.
  • This vector data is used when locally affine-transforming each image data so that each corresponding point coincides.
  • FIG. 15 (b) One cylindrical image synthesized in this way is shown in FIG. 15 (b). By developing this cylindrical image in the width direction, a continuous planar image can be generated (step S160).
  • the same focal length can be obtained. Since the distortion of the image in the width direction that occurs when an image is generated using a planar image sensor is reduced, the deterioration of the image quality that occurs in the synthesis processing of a plurality of image data generated using the planar image sensor is reduced. It can be suppressed.
  • the focal length determining unit, the combining area setting unit, and the spherical image in the claims The functions of the generation unit, the feature point extraction unit, the correspondence determination unit, the spherical image synthesis unit, and the plane image generation unit are performed by the CPU 231.
  • Figure 16 (3), Figure 16 (b), and Figure 16 (c) show how image data representing one continuous image is generated from two image data with different focal lengths FIG.
  • the two cylindrical image data are image data generated by photographing in two frames F f1 and F n1 shown in FIG. 16 (a).
  • the size (angle of view) of the two frames F f1 and F n1 is different because the focal length has been changed by operating the zoom lens or replacing the lens.
  • image data of frame F f1 is generated with a relatively long focal length
  • image data of frame F n1 is generated with a relatively short focal length.
  • FIG. 16 (b) shows a frame F3 of one image data generated from two image data.
  • the size of the frame F3 has a width of an image generated by combining the two frames Ff1 and Fn1, and the focal length of the two frames Ff1 and Fn1 is longer (angle of view Is trimmed to the height of the side frame F f 1.
  • FIG. 16 (c) shows a continuous plane image PICT2 generated so as to have the frame F3 determined in this way.
  • FIG. 17 is an explanatory diagram showing how two cylindrical image data are generated from two image data having different focal lengths.
  • the plane RGB data MIn is image data generated by shooting in the frame Fn1.
  • the plane RGB data MI f is image data generated by photographing in frame F f 1 (FIG. 16 (a)).
  • the plane RGB data MI n and the plane RGB data MI f are arranged at positions away from the axis Ca xis of the cylindrical coordinate system by the focal length R n and the focal length R f, respectively, in the optical axis L axi S direction.
  • the focal length Rn and the focal length Rf are the values of the lens focal length read from the EX if IFD of each image file GF.
  • the projection plane CY L on the cylindrical coordinate system is a projection plane set with the focal length R f as a radius around the axis Ca xis of the cylindrical coordinate system.
  • the focal length R f is the longer of the two different focal lengths set in the photographing of the two plane RGB data MI n and MI f.
  • the angle ⁇ representing the width of the cylindrical pixel is set in the same manner as in the first embodiment (FIG. 9 (a)) with reference to the plane pixel (not shown) of the plane RGB data MIf.
  • the reason that the angle ⁇ 0 of the cylindrical pixel is set with reference to the plane pixel of the plane RGB data MI f is that the angle ⁇ 0 of the cylindrical pixel with respect to the plane RGB data MI f is set with respect to the plane RGB data MI f. Is excessive, and the information in the plane RGB data MI f is lost. On the other hand, if the angle ⁇ 0 of the cylindrical pixel is further reduced, the data amount of the cylindrical image becomes excessive with respect to the information included in the plane RGB data MI f and MI n.
  • the pixel value of the cylindrical pixel P 4 L can be calculated as follows from the pixel values of the plane pixels of the plane RGB data M If and M In as in the first embodiment.
  • the pixel P 4 L of the cylindrical image generated by converting the plane RGB data M If is calculated from the pixel values of the two pixels C 4 L f and C 5 L f of the plane RGB data M If.
  • the pixel P4L of the cylindrical image generated by converting the plane RGB data MIn is calculated from the pixel values of the two pixels C2Ln and C3Ln of the plane RGB data MIn.
  • the present invention can be applied to a case where panorama synthesis processing is performed on two image data having different focal lengths.
  • the cylindrical image placed on the projection surface having the cylindrical shape One continuous planar image is generated by expanding the data.
  • one continuous continuous image is projected by projecting image data composed on a cylindrical or spherical projection surface onto a plane.
  • a planar image may be generated.
  • the plane image generation unit used in the present invention may be any one that is configured to generate image data representing a continuous plane image from image data such as spherical image data and cylindrical image data.
  • the coordinates are converted into the cylindrical coordinate system using the lens focal length stored in EXIFIFD of each image file GF.
  • the coordinates are stored in EXIFIFD of each image file GF.
  • the coordinates may be converted to a cylindrical coordinate system using the 35 mm conversion lens focal length.
  • the size of the plane pixel of the plane RGB data can be determined according to the 35 mm film size and the number of pixels. Specifically, the height of a pixel can be calculated by dividing the length in the height direction of the 35 mm film size by the number of pixels in the height direction, and the width of the pixel is 35 mm It can be calculated by dividing the width of the film size in the width direction by the number of pixels in the width direction.
  • the panorama synthesizing process is performed after converting the YCbCr data into RGB data.
  • the panoramic synthesizing process is performed before converting the YCbCr data into RGB data. May be performed. In the latter case, for example, it can be configured to extract feature points and search for corresponding points based only on luminance information with high human sensitivity. In this way, there is an advantage that the panorama synthesis processing can be realized with a small amount of calculation without excessively deteriorating the image quality.
  • the personal computer functions as the image processing device.
  • a color printer or a digital still camera may have the function of the image processing device.
  • the present invention is applicable not only to color printing but also to monochrome printing.
  • an ink jet color printer is used as an output device.
  • the present invention relates to a monitor such as a CRT display or an LCD display, and a projector or other device capable of displaying images. Applicable when used as
  • the software can be provided in a form stored in a computer-readable recording medium.
  • the “computer readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but may also be an internal storage device in a computer such as various RAMs and ROMs, It also includes external storage devices such as hard disks that are fixed to the computer. Industrial applicability
  • the present invention is applicable to an output device of a computer.

Abstract

本発明は、複数の平面画素が平面上に配列された平面画像として構成された画像データと画像属性情報とを含む複数の画像ファイルに応じて、1つの連続する連続平面画像を表す画像データを生成する画像処理装置である。本画像処理装置は、球面状あるいは円筒状の投影面を、複数の画像データを合成するための領域として設定する。

Description

明細書
複数の画像データのパノラマ合成処理
技術分野
本発明は、 複数の画像データを合成する画像処理技術に関する。
背景技術
近年、 デジタルスチルカメラ (D S C ) を用いて写真を撮影し、 その写真を表 す画像データをコンピュータ内に保存することが日常的に行われるようになって きた。 また、 複数の画像データを合成して連続する 1つの画像を表す画像データ を生成するパノラマ合成処理と呼ばれる処理も行われている。
しカヽし、 デジタルスチルカメラによって生成された画像は、 特に周辺部におい て歪みを有している。 この歪みは、 複数の画像データを合成する場合において、 接続される画像領域の画質を劣化させるという問題の原因となっていた。 この歪 みの 1つの要因は、 デジタルスチルカメラの光学系から入力された光が平面の受 光面を有する撮像素子に投影されることに起因するものである。
発明の開示
この発明は、従来技術における上述の課題を解決するためになされたものであ リ、平面の撮像素子を用いて生成された複数の画像データの合成処理において生 ずる画質の劣化を抑制する技術を提供することを目的とする。
上述の課題の少なくとも一部を解決するため、本発明の第 1の態様は、複数の 平面画素が平面上に配列された平面画像として構成された画像データを含む複 数の画像ファィルに応じて、前記複数の画像ファィルに含まれた複数の画像デー 夕が合成された 1つの連続する連続平面画像を表す画像データを生成する画像 処理装置であって、所定の点を中心とする球面状の投影面を、前記複数の画像デ ータを合成するための領域として設定する合成領域設定部と、前記各画像データ が表す各平面画像を、前記投影面に投影することにより複数の球面画像を生成す る球面画像生成部と、前記複数の球面画像の各々から所定の特徴を有する領域で ある特徴点を抽出する特徴点抽出部と、前記複数の球面画像相互間において、前 記抽出された特徴点の対応関係を決定する対応関係決定部と、前記決定された対 応関係に応じて、前記球面画像の各々を表す複数の画像データを合成することに よって、一つの連続する球面画像を表す画像データである連続球面画像データを 生成する球面画像合成部と、前記連続球面画像データから前記連続平面画像を表 す画像データを生成する平面画像生成部と、 を備えることを特徴とする。
本発明の第 1の態様によれば、所定の点を中心とする球面状の投影面が、 これ らの複数の画像データを合成するための領域として設定されるとともに、これら の複数の画像データの各々が表す各平面画像を、設定された投影面に投影するこ とにより複数の球面画像が生成され、 この球面画像が合成される。 このように本 態様では、球面状の投影面上で画像が合成されるので、平面の撮像素子を用いて 生成された複数の画像データの合成処理において生ずる画質の劣化を抑制する ことができる。
上記画像処理装置において、 前記複数の画像ファイルは、 さらに、 前記画像 データの属性情報である画像属性情報を含み、
前記画像処理装置は、 さらに、 前記画像属性情報に応じて、 前記複数の画像 データの生成に用いられた光学系の焦点距離を前記各画像データ毎に決定する 焦点距離決定部を備え、
前記球面画像生成部は、前記各画像データが表す各平面画像を、前記各画像デ 一夕に対応する前記焦点距離だけ前記所定の点から前記投影面側に離れた位置 に配置して、前記投影面に投影することによリ複数の球面画像を生成するように しても良い。
こうすれば、複数の画像データがたとえば撮影時におけるズーム操作によって 異なる倍率で生成されていてもパノラマ合成を行うことができる。 上記画像処理装置において、前記画像属性情報は、撮影レンズの実焦点距離を 表すレンズ焦点距離と、前記光学系の焦点面における解像度の単位を規定する焦 点面解像度単位と、前記焦点面解像度単位あたりの画像の高さ方向の画素数を表 す焦点面の高さの解像度と、前記焦点面解像度単位あたりの画像の幅方向の画素 数を表す焦点面の幅の解像度とを含んでおり、前記焦点距離決定部は、前記レン ズ焦点距離を前記焦点距離に決定し、前記球面画像生成部は、前記焦点面解像度 単位を前記焦点面の幅の解像度で除することにより幅方向の画素の大きさを決 定するとともに、前記焦点面解像度単位を前記焦点面の高さの解像度で除するこ とにより高さ方向の画素の大きさを決定するようにしても良いし、
前記画像属性情報は、 3 5 m mフィルムカメラに換算した焦点距離の値である 3 5 m m換算レンズ焦点距離を含んでおり、前記焦点距離決定部は、前記 3 5 m m換算レンズ焦点距離を前記焦点距離に決定し、前記球面画像生成部は、 3 5 m mフィルムサイズを前記平面画像のサイズに決定するようにしても良い。
上記画像処理装置において、前記画像属性情報は、前記光学系の焦点面におけ る解像度の単位を規定する焦点面解像度単位と、前記焦点面解像度単位あたりの 画像の高さ方向の画素数を表す焦点面の高さの解像度と、前記焦点面解像度単位 あたリの画像の幅方向の画素数を表す焦点面の幅の解像度とを含んでおリ、前記 球面画像生成部は、前記焦点面解像度単位を、前記決定された焦点距離のうちの 最大のものである最大焦点距離と、前記高さの解像度とで除した角度で高さ方向 に分割されるとともに、前記焦点面解像度単位を前記最大焦点距離と前記幅の解 像度とで除した角度で幅方向に分割された各領域を球面画素として前記球面上 に設定する球面画素設定部と、前記球面画素の各々に投影される平面画素の画素 値に応じて、前記球面画素の各々の画素値を決定する球面画素値決定部とを備え るようにすることが好ましい。
このように、決定された焦点距離のうちの最大のものを基準にして球面画素を 設定するようにすれば、最も小さな画素を有する平面画像の情報量を減らすこと なく、 さらに、平面画像から生成される球面画像の情報量を過大とすることもな くパノラマ合成処理を行うことができる。
本発明の第 2の態様は、複数の平面画素が平面上に配列された平面画像として 構成された画像データと、前記画像データの属性情報である画像属性情報とをそ れぞれ含む複数の画像ファィルに応じて、前記複数の画像フアイルに含まれた複 数の画像データが合成された 1つの連続する連続平面画像を表す画像データを 生成する画像処理装置であって、前記画像属性情報に応じて、前記複数の画像デ 一夕の生成に用いられた光学系の焦点距離を前記各画像データ毎に決定する焦 点距離決定部と、所定の軸を中心とする円筒状の投影面を、前記複数の画像デー タを合成するための領域として設定する合成領域設定部と、前記各画像データが 表す各平面画像を、前記各画像データに対応する前記焦点距離だけ前記所定の軸 から前記投影面側に離れた位置に配置して、前記投影面に投影することによリ複 数の円筒画像を生成する円筒画像生成部と、前記複数の円筒画像の各々から所定 の特徴を有する領域である特徴点を抽出する特徴点抽出部と、前記複数の円筒画 像相互間において、前記抽出された特徴点の対応関係を決定する対応関係決定部 と、前記決定された対応関係に応じて、前記円筒画像の各々を表す複数の画像デ ータを合成することによって、一つの連続する円筒画像を表す画像データである 連続円筒画像データを生成する円筒画像合成部と、前記連続円筒画像データから 前記連続平面画像を表す画像データを生成する平面画像生成部とを備えること を特徴とする。
上記画像処理装置において、前記円筒画像生成部は、前記画像データにおいて 設定された高さ方向と平行に前記軸を設定するようにすることが好ましい。
こうすれば、一般に幅方向に接続される場合が多いパノラマ合成処理において, 各画像の幅方向の画像の歪みを抑制することができる。
なお、本発明は、種々の態様で実現することが可能であり、 たとえば画像処理 方法、それらの方法または装置の機能を実現するためのコンピュータプログラム, そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラム を含み搬送波内に具現化されたデータ信号、 等の態様で実現することができる。 図面の簡単な説明 図 1は、 本発明の一実施例としての画像処理システムを示す説明図である。 図 2は、 画像データを生成する入力装置としてのデジタルスチルカメラの構 成の概略を示すブロック図である。
. 図 3は、 画像データを出力する出力装置としてのコンピュータ PCとカラ一 プリンタの構成の概略を示すプロック図である。
図 4は、 本発明の実施例における画像ファイル G Fの構造の概略示す説明図 である。
図 5は、 画像ファイル G Fの Exif IFDに格納される付属情報の一例を示す 説明図である。
図 6は、 コンピュータ PCにおけるパノラマ合成処理の処理ルーチンを示す フローチヤ一卜である。
図 7 (a) および図 7 (b) は、 平面 RG Bデータと円筒座標系との間の立 置関係を示す説明図である。
図 8は、 本発明の第 1実施例における座標変換処理の処理ルーチンを示す説 明図である。
図 9 (a) および図 9 (b) は、 軸 C a x i sの方向から見た平面 R G Bデ 一夕と投影面 C Y Lとの間の位置関係を示す説明図である。
図 1 0は、 平面の撮像素子を用いて画像データを生成する際に生ずる画像の 歪みを示す説明図である。
図 1 1は、 平面 RG Bデータと球座標系との間の関係を示す説明図である。 図 1 2 (a)、 図 Ί 2 (b)、 および図 1 2 (c) は、 風景から焦点距離が同 一の 2つの円筒画像データが生成される様子を示す説明図である。
図 1 3 (a)、 図 1 3 (b)、 および図 1 3 (c) は、 各円筒画像データにお いて抽出された特徴点を示す説明図である。
図 1 4は、 対応点探索処理が行われる様子を示す説明図である。
図 1 5 (a) および図 1 5 (b) は、 合成処理の内容を示す説明図である。 図 1 6 (a)、 図 1 6 (b)、 および図 1 6 (c) は、 焦点距離が異なる 2つ の画像データから連続する 1つの画像を表す画像データが生成される様子を示す 説明図である。
図 1 7は、 焦点距離が異なる 2つの画像データから 2つの円筒画像データが 生成される様子を示す説明図である。 発明を実施するための最良の形態
次に、 本発明を実施するための最良の形態を実施例に基づいて以下の順序で 説明する。
A. 画像処理システムの構成:
B. 画像ファイルの構成:
C. 第 1実施例におけるパノラマ合成処理:
D. 第 2実施例におけるパノラマ合成処理:
E . 変形例:
A. 画像処理システムの構成:
図 1は、 本発明の一実施例としての画像処理システム 1 0を示す説明図であ る。 画像処理システム 1 0は、 元画像データを生成する入力装置としてのデジ タルスチルカメラ 1 2と、 デジタルスチルカメラ 1 2で生成された元画像デー 夕に対して画像処理を行う画像処理装置としてのパーソナルコンピュ一夕 P C と、 処理された画像を出力する出力装置としてのカラープリン夕 20とを備え ている。
デジタルスチルカメラ 1 2、 パーソナルコンピュータ P C、 および力ラープ リンタ 2 0は、 相互にケーブル C Vで接続可能である。 ケーブル C Vにより接 続されている場合には、 デジタルスチルカメラ 1 2等は、 ケーブル C Vを経由 して画像ファイルを送受信することが可能である。 ケーブル C Vで接続されて いない場合にも、 デジタルスチルカメラ 1 2等は、 メモリカード M Cを用いて 画像ファイルのやりとリを行うことができる。
図 2は、 画像データを生成する入力装置としてのデジタルスチルカメラ 1 2 の構成の概略を示すブロック図である。 デジタルスチルカメラ 1 2は、 光学レ ンズを通して電荷結合素子 (C C D ) 上にイメージを結像することにより、 電 気的に静止画を記録するカメラである。
デジタルスチルカメラ 1 2は、 光信号を電気信号に変換する C C Dを有する 光学回路 1 2 1と、 光学回路 1 2 1を制御して画像を取得するための画像取得 回路 1 2 2と、 取得した画像データを加工処理するための画像処理回路 1 2 3 と、 これらの各回路を制御する制御回路 1 2 4とを備えている。 デジタルスチ ルカメラ 1 2は、 さらに、 ユーザインタ一フェースとしての選択 '決定ポタン 1 2 6と、 撮影画像のプレビューやユーザインターフェースとして用いられる 液晶ディスプレイ 1 2 7とを備えている。
デジタルスチルカメラ 1 2による撮影処理(画像データの取得処理)は、 (1 ) ユーザによる撮影モードの設定、 (2 )撮像(画像データの入力)、 (3 )画像処 理、 (4 )画像ファイルの記録の順に行われる。撮影モードの設定には、 レンズ 焦点距離の設定が含まれている。 レンズ焦点距離の設定は、 レンズ(図示せず) の交換やズームレンズ (図示せず) の操作によって行われる。
撮像は、 ユーザがシャッターを押すことにより行われる。 シャッターが押さ れると、 デジタルスチルカメラ 1 2に装着されたレンズで利用可能な焦点距離 で撮像が行われる。 たとえばユーザの操作で焦点距離を変更可能なズームレン ズを使用して撮影した場合には、 ユーザによって設定された焦点距離で撮像が 行われ、 元画像データが生成されることになる。
元画像データが生成されると、 この画像データに保存用の画像処理が施され る。 この画像処理は、 メモリカード MCに保存するための前処理である。 一般 的には、 元画像データは写真画像の保存に適した J PEG形式に変換される。
J P EG形式に変換された後、 この変換された画像データに撮影情報 P Iが加 えられて画像ファイルが生成される。
撮影情報 P Iとは、 撮影条件を表す情報であり、 選択された測光方式を表す 情報を含んでいる。 デジタルスチルカメラ 1 2における画像データの取得処理 は、 画像ファイルをメモリカード MCに記録することにより完了する。 なお、 画像ファイルの構成については後述する。
図 3は、 画像データを出力する出力装置としてのコンピュータ P Cとカラー プリンタ 20の構成の概略を示すブロック図である。 コンピュータ PCは、 メ モリカード MCから画像ファイルを読み出すことが可能なスロット 22と、 力 ラープリンタ 20に印刷を行わせるための印刷データを生成するための印刷デ ータ生成回路 23とを備えている。 印刷データ生成回路 23は、 印刷データ生 成のための演算処理を実行する演算処理装置 (CPU) 231 と、 CPU 23 1において実行されるプログラムや CPU 231における演算処理結果その他 のデータを格納するハードディスク 232と、 これらのプログラムやデータを 一時的に格納するランダムアクセスメモリ (RAM) 233とを備えている。 カラ一プリンタ 20は、 カラー画像の出力が可能なプリンタである。 カラー プリンタ 20は、 たとえば、 シアン (C)、 マゼンタ (M)、 イェロー (Y)、 ブ ラック(Κ)の 4色のインクを印刷媒体上に吐出してドットパターンを形成し、 これにより印刷画像を形成するインクジエツ卜方式のプリンタである。
Β. 画像ファイルの構造:
図 4は、 本発明の実施例における画像ファイル G Fの構造の概略を示す説明 図である。 画像ファイル G Fは、 デジタルスチルカメラ用画像ファイルフォー マット規格 (Exif) に従ったファイル構造を有している。 この規格は、 日本電 子情報技術産業協会 (J E I TA) によって定められている。 この規格では、 画像データとして圧縮タイプの J P EGデータを格納する JPEG-Exif フアイ ルを、 Exifファイル (Ex 規格のファイル) に含めることが規定されている。 画像ファイル G「は、 圧縮データの先頭を示す SO Iマーカセグメント 1 0 1 と、 Exif の付属情報を格納する A P P 1マーカセグメント 1 02と、 Exif 拡張データを格納する AP P 2マーカセグメント 1 03と、 量子化テーブルを 定義する DQTマーカセグメント 1 04と、 ハフマンテーブルを定義する DH Tマーカセグメント 1 05と、 リスター卜マーカの揷入間隔を定義する DR I マーカセグメント 1 06と、 フレームに関する各種パラメータを示す SO「マ 一力セグメン卜 1 07と、 スキャンに関する各種パラメータを示す SOSマ一 力セグメント 1 08と、 圧縮データの終了を示す EO Iマーカセグメント 1 0 9と、 画像データ格納領域 1 1 0とを含んでいる。
A P P 1マ一力セグメ ト 1 02は、 A P P 1マーカ 1 021と、 Exif識別 コード 1 022と、 T I F Fへッダその他の付属情報 1 023と、 サムネイル 画像 1 024とを格納している。この付属情報 1 023は、ファイルヘッダ(T I F Fヘッダ) を含む TIFFの構造を取つておリ、 Exif- JPEGでは、 圧縮画像 データに関する付属情報を格納する Oth IFD と、 撮影情報 P Iを始めとする Exぱ固有の付属情報を格納する Ex IFDと、 サムネイル画像に関する付属情 報を格納する 1 stIFDとを含んでいる。 ExiflFDは、 Oth IFDに格納されて いる TIFFヘッダからのオフセットでポイントされる。 IFDでは、 各情報を特 定するためにタグが用いられておリ、 各情報はタグ名によつて呼ばれることが あ 。
図 5は、 画像ファイル G Fの Exif IFDに格納される付属情報の一例を示す 説明図である。 付属情報には、 バージョンに関するタグや撮影条件に関するタ グを含む各種のタグが含まれている。 撮影条件に関するタグには、 露出時間や レンズ F値、 I SO感度、 シャッタースピード、 絞り値、 輝度値、 レンズ焦点 距離、 焦点面の幅の解像度、 焦点面の高さの解像度、 焦点面解像度単位、 35 mm換算レンズ焦点距離その他の各パラメータ値が既定のオフセッ卜に従って 撮影情報 P I として格納されている。 撮影情報 P Iの記録は、 前述のようにデ ジタルスチルカメラ 1 2において撮影時に行われる。
C. 第 1実施例におけるパノラマ合成処理:
図 6は、 コンピュータ P Cにおけるパノラマ合成処理の処理ルーチンを示す フローチヤ一トである。 ステップ S 1 00では、 C P U 231は、 スロット 2 2に差し込まれたメモリカード MCから画像ファイル G Fを読み出すとともに、 これを印刷データ生成回路 23が有する RAM 233に格納する。 画像フアイ ル G Fは、 J PEGファイル形式の画像データを画像データ GDとして格納し ている。 J P EGファイル形式の画像データは、 圧縮された Y C b C rデータ として構成されている。
ステップ S 1 1 0では、 C P U 231は、 圧縮された Y C b C rデータを伸 張した上で色変換処理を行う。 この色変換処理により、 YCb C rデータは R GBデータに変換される。 RGBデータに変換するのは、 パーソナルコンビュ ータ P Cやカラープリンタ 20における画像処理では、 RGBデータが用いら れているからである。 なお、 RG Bデータと Y C b C rデータは、 いずれも複 数の平面の画素(本明細書では平面画素とも呼ばれる。)が平面上に配列された 平面画像として構成されている。
ステップ S 1 20では、 CPU 231は、 RGBデータに対して座標系変換 処理を行う。 この座標変換処理は、 具体的には、 平面画像である RGBデータ を円筒座標系上に配置された円筒面に投影して円筒面上の画像データを生成す る処理である。 なお、 以下では、 このようにして生成された画像データを円筒 RGBデータと呼び、 平面画像として構成された RGBデータを平面 RGBデ 一夕と呼ぶ。
図 7 (a) および図 7 (b) は、 平面 RGBデータ M I と円筒座標系上の投 影面 CY Lとの間の位置関係を示す説明図である。 図 7 (a) は、 デジタルス チルカメラ 1 2の光学系と撮像素子との間の位置関係を示している。 この光学 系は、 レンズ Lとして示されている。 撮像素子は、 平面の受光面をする CCD (Ch a r g e— Co u p l e d D e v i c e) として構成されている。 レンズ Lは、 デジタルスチルカメラ 1 2の光学系が有する複数のレンズを、 同一の効果を有する 1枚のレンズに置き換えたものである。 レンズ Lの中心は 主点と呼ばれ、 主点を通り光軸 L a x i sに垂直な面は主平面と呼ばれる。 レ ンズ Lに関しては、 さらに被写体を示す物体面と、 被写体からの光を結像する 結像面とが定義されている。 物体面および結像面は、 主平面から光軸方向に、 それぞれ被写体側距離 a, 結像面側距離 bだけ離れた位置に定義されている。 撮像素子は、 この結像面に受光面を一致させるように配置されている。 これ によリ物体面上の被写体からの光がレンズ Lを通つて撮像素子の受光面上に結 I»口 像されることになる。
図 7 (b) は、 平面 RGBデータ M Iが投影面 CY L上に投影される様子を 示している。 平面 RGBデータ M Iは撮像素子を用いて生成された画像データ なので、 その各平面画素 PX Lの画素値は、 もともとは結像面に配置された撮 像画素に入射した光に応じて生成された値ということになる。
投影面 CY Lは、 円筒座標系の軸 Ca x i sから結像面側距離 bだけ離れた 複数の点の集合である円筒面の一部として設定されている。 軸 Ca x ί sは、 図 7 (a) の主点に対応する点 P Pを通り平面 RGBデータ M Iの上下方向に 伸びる軸である。 結像面側距離 bは、 レンズ焦点距離にほぼ一致することが分 かっている。 レンズ焦点距離は、 画像ファイル G Fの ExiflFD (図 5) に格納 されているものを利用することができる。 これにより、 軸 Ca x i s方向の大 きさ Zoと角度 θ0とで定義された複数の円筒画素を有する円筒画像を投影面 C Y L上に構成可能となる。
図 8は、 本発明の第 1実施例における座標変換処理の処理ルーチンを示す説 明図である。 ステップ S 2 1 0では、 C P U 2 3 1は、 画像ファイル G Fから 座標変換処理に用いるデータを読み出す。 座標変換処理に用いるデータには、 レンズ焦点距離と、 焦点面解像度単位と、 焦点面の幅の解像度と、 焦点面の高 さの解像度とが含まれている。 レンズ焦点距離とは、 撮影レンズの実焦点距離 であり、 前述のように仮想の 1枚の凸レンズの中心から光が結像する撮像素子 までの距離とほぼ一致する。
焦点面解像度単位とは、 焦点面の幅の解像度および焦点面の高さの解像度の 測定単位を規定している。 焦点面の幅の解像度は、 焦点面解像度単位あたりの 画像幅方向の画素数を表している。 焦点面の高さの解像度は、 焦点面解像度単 位あたりの画像高さ方向の画素数を表している。 ここで焦点面とは、 被写体か らの光を結像する結像面であり、 前述のように撮像素子の受光面と一致する。 ステップ S 2 2 0では、 C P U 2 3 1は以下の処理を行う。
( 1 ) 図 7 ( b ) に示される円筒座標系を定義する。
( 2 ) 円筒座標系上に円筒座標系の軸 C a X i sを中心とする円筒面を設定す る。 なお、 本実施例では、 説明を分かりやすくするためにレンズ焦点距離を上 述の一定の距離としている。
( 3 ) 円筒座標系上の所定の位置に平面 R G Bデータを配置する。
平面 R G Bデータの配置は、 軸 C a x i sからレンズ焦点距離だけ離れた位 置に、 平面 R G Bデータの高さ方向に伸びる中心線 C Lが軸 C a X i sと平行 となる向きで行われる。 平面 R G Bデータの高さ方向に伸びる中心線 C Lが軸 C a x i sと平行となる向きに配置するのは、 一般に幅方向に接続される場合 が多いパノラマ合成処理において、 各画像の幅方向の画像の歪みを抑制するた めである。
ステップ S 2 3 0では、 C P U 2 3 1は、 平面 R G Bデータの平面画素の大 きさと、 投影面 CY L上の円筒画素の大きさとを決定する。 平面画素の大きさ は、 具体的には、 焦点面解像度単位を焦点面の幅の解像度で除することにより 幅方向の画素の大きさが、 焦点面解像度単位を焦点面の高さの解像度で除する ことにより高さ方向の画素の大きさが、 それぞれ決定できる。 このようにして 決定された平面画素の大きさは、 撮像素子から得られるデータをリサンプリン グしない場合には、 撮像素子の画素の大きさに一致することになる。
図 9 (a) および図 9 (b) は、 軸 C a x i sの方向から見た平面 R G Bデ 一夕と投影面 CY Lとの間の位置関係を示す説明図である。 図 9 (a) は、 図 7 (b) を上方から見た図である。 図 9 (b) は、 図 9 (a) の一部を拡大し た図である。 図 9 (a) には、 平面 RG Bデータ M I内に複数の平面画素列 C が示されている。 平面画素列 Cとは、 平面 RGBデータ M I内において高さ方 向に並ぶ複数の平面画素から構成される画素列である。 図 9 (a) には、 平面 画素列 C 5 Lから平面画素列 C 5 Rまでの 1 1列の平面画素列が示されている c 各平面画素列 Cに含まれる平面画素は、すべて同一の高さ Zo (軸 C a X i s方 向) を有している。
図 9 (a) には、 さらに投影面 CY L内に複数の円筒画素列 Pが示されてい る。 円筒画素列 Pは、 投影面 CY L内において高さ方向に並ぶ複数の円筒画素 から構成される画素列である。 図 9 (a) には、 円筒画素列 P 4 Lから円筒画 素列 P 4 Rまでの 9列の円筒画素列 Pが示されている。 各円筒画素列 Pは、 す ベて同一の角度 θοの幅を有している。 各円筒画素列 Ρに含まれる円筒画素は、 平面画素と同様にすベて同一の高さ Zo (図示せず) を有している。
円筒画素の幅を表す角度 θ0は、光軸 L a X i sの近傍の平面画素 PX Lを基 準に設定される。 具体的には、 平面画素列 COを投影面 CY Lに投影すること により円筒画素列 P 0が決定され、 この決定された円筒画素列 P Oの角度 θ0 が各円筒画素列の角度となる。 このように円筒画素 (図示せず) を設定するこ とにより、 投影面 CY Lに円筒画像を構成することが可能となる (ステップ S 240)。
ステップ S 250では、 CP U 231は、 平面 RGBデータ M Iの平面画素 の各画素値から円筒画素の各画素値を算出する。 図 9 (b) は、 前述のように 図 9 (a) の一部を拡大した図であり、 共 1次内挿法で円筒画素の各画素値を 算出する方法を説明するための図である。 なお、 以下の算出例では、 説明を分 かりやすくするために平面 RGBデータは、 高さ方向に 1行のみの平面画素を 有する 1次元のデータと仮定しているが、 高さ方向に同様の処理を行うことに よリ容易に 2次元データへも拡張することができる。
図 9 (b)には、円筒画素 P 3 Rと、円筒画素 P 3 Rの中心線 P 3 RC Lと、 中心線 P 3 RC Lの平面 RGB画像データ M Iへの投影点 X 1とが示されてい る。 中心線 P 3 RC Lは、軸 C a X i s (図 9 (a)) から円筒画素 P 3 Rの中 心に向かって伸びる線である。
円筒画素 P 3 Rの画素値は、 平面画素 C3 R、 C 4 Rの画素値から以下のよ うにして算出することができる。 投影点 X 1は、 平面画素 C 3 R中に投影され ており、 平面画素 C 3 Rの中心位置から距離 50 a、 平面画素 C 4 Rの中心位 置から距離 50 bだけ離れた位置にある。 これらの距離 50 a、 5 O bは、 C P U 231によって平面 RGBデータとレンズ焦点距離とから求めることがで きる。
円筒画素 P 3 Rの画素値は、共 1次内挿法による場合には計算式((平面画素 C 3 Rの画素値 X距離 50 b +平面画素 C 4 Rの画素値 X距離 50 a ) (距離 50 a +距離 50 b))で容易に 出することができる。なお、計算方法として は、 3次畳み込み内挿法その他の算出方法がある。 このように、 画像データの 合成に先立って平面 RGBデータ M Iを円筒面に投影する理由は以下のとおり である。
図 1 0は、 平面の撮像素子を用いて画像データを生成する際に生ずる画像の 歪みを示す説明図である。 この図には、 同一地点から同一の被写体 mを別々の 角度で撮影することにより生成された 2つの平面 RGBデータ M 1 , M2が示 されている。 2つの平面 RG Bデータ M 1, M2は、 それぞれ 2つの光軸 L a X i s 1、 L a X i s 2で撮影されたものである。平面 R G Bデータ M 1では、 被写体 mは画像の中央部に配置されているのに対し、 平面 R G Bデータ M 2で は、 被写体 mは画像の左端部に配置されている。
図 1 0から分かるように、 被写体 mは、 平面 RGBデータ M 1では平面画素 とほぼ同一の見かけ大きさを有するのに対して、 平面 RG Bデータ M2では平 面画素より大きな見かけの大きさを有する。 このように、 被写体 mの平面 RG Bデータにおける見かけの大きさは、 被写体 mが画像のどの位置に配置されて いるかで異なる。 この結果、 画像の歪みが生ずることになる。
一方、 図 1 0から分かるように、 円筒面上に生成された円筒画像では、 被写 体 mの画像上の位置に拘わらず被写体 mの見かけ上の大きさが同一である。 こ のように、 平面画像を円筒状の投影面に投影して円筒画像に変換することによ リ上記の幅方向の歪みを小さくすることが可能である。 また、 図 1 1に示され るような球座標面に投影するようにすれば、 高さ方向と幅方向の双方に生ずる 歪みを小さくすることができる。 このような構成は、 複数の画像を高さ方向に 合成する場合に顕著な効果を奏する。
図 1 2は、 風景 V i ewから焦点距離が同一の 2つの円筒画像データが生成 される様子を示す説明図である。 2つの円筒画像データは、 図 1 2 (a) に示 される 2つのフレーム Fa 1、 F b 1で撮影することにより生成されたデータ である。 図 1 2 (b) に示される画像データは、 フレーム F a 1で撮影され円 筒画像に変換されたデータを展開したものであり、 図 1 2 (c) に示される画 像データは、 フレーム F b 1で撮影され円筒画像に変換されたデータを展開し たものである。
ステップ S 1 30では、 CPU 231は、 2つの円筒画像データに対して特 徵点抽出処理を行う。 特徴点抽出処理は、 画像中の被写体の外観的特徴を良く 表す特徴点を抽出するための処理である。 図 1 3 (a)、 図 1 3 (b)、 および 図 1 3 (c) は、 各円筒画像データにおいて抽出された特徴点を示す説明図で ある。 なお、 各特徴点は、 必ずしも画素 1個分の大きさである必要はなく、 複 数の画素から構成される領域であっても良い。
特徴点抽出処理は、たとえば以下に示す方法で行うことが可能である。まず、 CPU 231は、 ソーベルフィルタその他の輪郭線抽出フィルタを用いて点の 集合としての輪郭線を抽出する。 図 1 3 (a) は、 円筒画像データ P I CT a
0 (図 1 2 (b)) に対して輪郭線抽出処理を行って生成された輪郭線データ P
1 CT a 1を示している。
つぎに CPU 231は、抽出された輪郭線としての点の集合から S RA(S ί d e e f f e c t r e s amp l i n g A I g o r i t mノその他の再 標本化アルゴリズムを用いて特徴点を抽出する。 図 1 3 (b) は、 輪郭線デー タ P I CT a 1に対して特徴点抽出処理を行って生成された特徴点データ P I CT a 2を示している。 図 1 3 (c) は、 輪郭線データ P I CT b 1 (図示せ ず) に対して特徴点抽出処理を行って生成された特徴点データ P I CT b 2を 示している。
特徴点データ P I C T a 2は、 2つの特徴点 C a 1 , C a 2を含んでおリ、 特徴点データ P I C T b 2は、 2つの特徵点 C b 1 , C b 2を含んでいる。 な お、 図 1 3 (b) および図 1 3 (c) では、 説明を分かりやすくするために輪 郭線が重畳して示されている。
ステップ S 1 40では、 C P U 231は、 2つの特徵点データ P I CT a 2、 P I CT b 2に対して対応点探索処理を行う。 対応点探索処理とは、 複数の画 像相互間において対応する特徴点を探索する処理である。 この処理は、 パノラ マ合成の対象となる複数の画像データ相互間において同一の被写体中の同一の 部位を決定するための処理である。
対応点探索処理は、 たとえば以下の基準を満たす複数の特徴点の集合を探索 することにより処理することができる。
(1 ) 特徵点の周囲の画素 (たとえば 3x3の画素) の画素値の差が所定の闘 値内である。 このようにして対応づけられた特徴点を近似特徴点と呼ぶ。
(2) 各特徴点データにおいて複数の近似特徴点が同一の位置関係を有する。 このようにして対応づけられた近似特徴点が対応点と判断される。
図 1 4は、 対応点探索処理が行われる様子を示す説明図である。 特徴点デー タ P I C T a 2は、 2つの特徵点 C a 1 , C a 2を含んでおリ、 P I C T b 2 は、 2つの特徴点 C b 1, C b 2を含んでいる。 特徴点 C a 1 と特徵点 C b 1 は、 同一の被写体を表しているので周囲の画素の画素値が近似している。 この 結果、 特徴点 Ca 1 と特徴点 C b 1は、 それぞれ対応する近似特徴点となる。 また、 特徴点 Ca 2と特徴点 C b 2も同様に対応する近似特徴点となる。
特徴点データ P I CT a 2においては、 近似特徴点 C a 1の上方右側に近似 特徴点 C a 2が配置されているという位置関係が認められる。 一方、 特徴点デ ータ P I C T b 2においては、 近似特徴点 C a 1に近似する近似特徴点 C b 1 の上方お側に近似特徴点 C a 2に近似する近似特徴点 C b 2が配置されている c このように各特徴点データ P I CT a 2、 P I CT b 2において複数の近似特 徵点が同一の位置関係を有していることが分かる。 これにより、 特徴点データ P I CT a 2の特徴点 C a 1は、 特徴点データ P I C T b 2の特徴点 C b 1に 対応し、 特徴点データ P I C T a 2の特徴点 C a 2は、 特徴点データ P I CT b 2の特徴点 C b 2に対応していることが判断できる。
ステップ S 1 50では、 CPU231は、 2つの円筒画像データの合成処理 を行う。 合成処理とは、 対応する特徴点が一致するように複数の画像データを 合成する処理である。
図 1 5 (a) および図 1 5 (b) は、 合成処理の内容を示す説明図である。 合成処理は、 対応する特徴点が近づくように 2つの画像の位置関係を決定した 後に、 対応する特徴点の位置が一致するように各画像を局所的に変形させるこ とにより行われる。
図 1 5 ( a ) は、 対応する特徴点が近づくように 2つの特徴点データ P I C T a 2、 P I C T b 2が配置された様子を示している。 この例では、 特徴点デ ータ P I C T a 2が有する特徴点 C a 1は、 特徴点データ P I C T b 2が有す る特徴点 C b 1の右側近傍に存在する。 また、 特徴点データ P I C T a 2が有 する特徴点 C a 2は、 特徴点データ P I C T b 2が有する特徴点 C b 2の左側 近傍に存在する。
このような配置となっているのは、 本実施例では、 各画像の歪みにより特徴 点 C a 1と特徴点 C a 2との間の距離が、 特徴点 C b 1と特徴点 C b 2との間 の距離よりも、 画像の歪みによって小さくなつているからである。 各画像の歪 みが存在するのは、 図 1 0に示される画像の歪みが抑制されているものの、 レ ンズの収差による歪みが残つているからである。 このように各画像が歪んでい ることを想定する場合には、 たとえば対応する特徴点の距離の二乗和が最小と なるように 2つの画像の位置関係を決定することが好ましい。
つぎに各対応点の位置関係をべクトルデータとして生成する。 このべク トル データは、 各対応点が一致するように各画像データを局所的にァフィン変換す る際に用いられる。 このようにして、合成された 1つの円筒画像が図 1 5 ( b ) に示されている。 この円筒画像を幅方向に展開することにより連続する平面画 像を生成することができる (ステップ S 1 6 0 )。
このように、 本実施例では、 デジタルスチルカメラ 1 2において画像データ を生成する際の光学系と撮像素子の位置関係を再現した円筒座標系で画像を合 成することにより、 同一の焦点距離で平面の撮像素子を用いて画像を生成する 際に生ずる幅方向の画像の歪みが低減されているので、 平面の撮像素子を用い て生成された複数の画像データの合成処理において生ずる画質の劣化を抑制す ることができる。
なお、 特許請求の範囲における焦点距離決定部、 合成領域設定部、 球面画像 生成部、 特徴点抽出部、 対応関係決定部、 球面画像合成部、 および平面画像生 成部の機能は、 CPU 231によって果たされる。
D. 第 2実施例におけるパノラマ合成処理:
図 1 6 ( 3)、 図1 6 (b)、 および図 1 6 (c) は、 焦点距離が異なる 2つ の画像データから連続する 1つの画像を表す画像データが生成される様子を示 す説明図である。 2つの円筒画像データは、 図 1 6 (a) に示される 2つのフ レーム F f 1、 F n 1で撮影することにより生成された画像データである。 2 つのフレーム F f 1、 F n 1のサイズ (画角) が異なっているのは、 ズームレ ンズの操作やレンズの交換によって焦点距離が変更されているからである。 具 体的には、 比較的長い焦点距離でフレーム F f 1の画像データが生成され、 比 較的短い焦点距離でフレーム F n 1の画像データが生成されている。
図 1 6 (b) は、 2つの画像データから生成される 1つの画像データのフレ —ム F 3を示している。 フレーム F 3のサイズは、 2つのフレーム F f 1、 F n 1を合成して生成された画像の幅を有し、 2つのフレーム F f 1、 F n 1の うち焦点距離が長い (画角が小さい) 側のフレーム F f 1が有する高さにトリ ムされている。 図 1 6 (c) は、 このようにして決定されたフレーム F3を有 するように生成された連続平面画像 P I CT 2を示している。
図 1 7は、 焦点距離が異なる 2つの画像データから 2つの円筒画像データが 生成される様子を示す説明図である。 平面 RGBデータ M I nは、 フレーム F n 1で撮影することにより生成された画像データである。 平面 RGBデータ M I f は、 フレーム F f 1 (図 1 6 (a)) で撮影することにより生成された画像 データである。 平面 RGBデータ M I nと平面 RGBデータ M I f は、 円筒座 標系の軸 Ca x i sから光軸 L a x i S方向に、 それぞれ焦点距離 R nと焦点 距離 R f だけ離れた位置に配置されている。 焦点距離 R nおよび焦点距離 R f は、各画像ファイル G Fの E X i f I F Dから読み出されたレンズ焦点距離の 値である。 円筒座標系上の投影面 CY Lは、 円筒座標系の軸 Ca x i sを中心にして焦 点距離 R f を半径として設定された投影面である。 焦点距離 R f は、 2つの平 面 RGBデータ M I n、 M I f の撮影で設定された異なる 2つの焦点距離のう ち長い方である。円筒画素の幅を表す角度 θοは、平面 RGBデータ M I f の平 面画素 (図示せず) を基準にして第 1実施例と同様の方法 (図 9 (a)) で設定 される。
平面 RGBデータ M I f の平面画素を基準にして円筒画素の角度 θ0を設定 しているのは、 平面 RGBデータ M I nを基準とすると、 平面 RGBデータ M I f に対して円筒画素の角度 θ0が過大となって平面 RGBデータ M I f が有 する情報を失うことになるからである。一方、 円筒画素の角度 θ0をこれ以上に 小さくすると、 円筒画像のデータ量が平面 RGBデータ M I f 、 M I nが有す る情報に対して過大となるからである。
円筒画素 P 4 Lの画素値は、 第 1実施例と同様に平面 RGBデータ M I f 、 M I nの平面画素の画素値から以下のようにして算出することができる。 平面 RGBデータ M I f を変換して生成される円筒画像の画素 P 4 Lは、 平面 RG Bデータ M I f の 2つの画素 C 4 L f 、 C 5 L f の画素値から算出される。一 方、 平面 RGBデータ M I nを変換して生成される円筒画像の画素 P 4 Lは、 平面 RGBデータ M I nの 2つの画素 C 2 L n、 C 3 L nの画素値から算出さ れる。
このように、 本発明は、 焦点距離が異なる 2つの画像データに対してパノラ マ合成処理を行う場合にも適用することができる。
E. 変形例:
なお、 この発明は上記の実施例や実施形態に限られるものではなく、 その要 旨を逸脱しない範囲において種々の態様において実施することが可能であり、 例えば次のような変形も可能である。
E— 1. 上記各実施例では、 円筒形状を有する投影面上に配置された円筒画像 データを展開することによって連続する 1つの平面画像を生成しているが、 た とえば円筒形状や球形状を有する投影面上に構成された画像データを平面に投 影することによって連続する 1つの平面画像を生成するようにしても良い。 本 発明で使用される平面画像生成部は、 一般に、 球面画像データや円筒画像デー タといった画像データから連続する平面画像を表す画像データを生成するよう に構成されたものであれば良い。
E - 2 . 上記各実施例では、 各画像ファイル G Fの E X I F I F Dに格納さ れたレンズ焦点距離を用いて円筒座標系に座標変換しているが、 たとえば各画 像ファイル G Fの E X I F I F Dに格納された 3 5 m m換算レンズ焦点距離 を用いて円筒座標系に座標変換するようにしても良い。
この場合には、 平面 R G Bデータの平面画素の大きさは、 3 5 m mフィルム サイズと画素数とに応じて決定することができる。具体的には、画素の高さは、 3 5 mmフィルムサイズの高さ方向の長さを高さ方向の画素数で除することに よって算出することができ、 画素の幅は、 3 5 m mフィルムサイズの幅方向の 長さを幅方向の画素数で除することによって算出することができる。
E— 3 .上記各実施例では、 Y C b C rデータを R G Bデータに変換した後に、 パノラマ合成処理が行われているが、 Y C b C rデータを R G Bデータに変換 する前に、 パノラマ合成処理を行うようにしても良い。 後者の場合には、 たと えば人間の感度が高い輝度情報のみに基づいて特徴点の抽出や対応点の探索を 行うように構成することができる。 こうすれば、 画質を過度に劣化させること なく少ない計算量でパノラマ合成処理を実現することができるという利点があ る。
E— 4 . 上記実施例では、 パーソナルコンピュータが画像処理装置として機能 しているが、 たとえばカラ一プリンタやデジタルスチルカメラが画像処理装置 の機能を有するようにしても良い。 また、 本発明は、 カラー印刷だけでなくモ ノクロ印刷にも適用可能である。 E-5. 上記実施例では、 出力装置としてインクジェットカラープリンタが使 用されているが、 本発明は、 CRTディスプレイや LCDディスプレイといつ たモニタの他プロジェクタその他の画像を表示可能な装置を出力装置として用 いる場合に適用できる。
本発明の機能の一部または全部がソフトウエアで実現される場合には、 その ソフトウエア (コンピュータプログラム) は、 コンピュータ読み取り可能な記 録媒体に格納された形で提供することができる。この発明において、 「コンビュ ータ読み取り可能な記録媒体」 とは、 フレキシブルディスクや CD— ROMの ような携帯型の記録媒体に限らず、 各種の RAMや ROM等のコンピュータ内 の内部記憶装置や、 ハードディスク等のコンピュータに固定されている外部記 憶装置も含んでいる。 産業上の利用可能性
この発明は、 コンピュータの出力装置に適用可能である。

Claims

請求の範囲
1 . 複数の平面画素が平面上に配列された平面画像として構成された画像 データを含む複数の画像ファイルに応じて、 前記複数の画像ファイルに含まれ た複数の画像データが合成された 1つの連続する連続平面画像を表す画像デー タを生成する画像処理装置であって、
所定の点を中心とする球面状の投影面を、 前記複数の画像データを合成する ための領域として設定する合成領域設定部と、
前記各画像データが表す各平面画像を、 前記投影面に投影することにょリ複 数の球面画像を生成する球面画像生成部と、
前記複数の球面画像の各々から所定の特徴を有する領域である特徴点を抽出 する特徴点抽出部と、
前記複数の球面画像相互間において、 前記抽出された特徴点の対応関係を決 定する対応関係決定部と、
前記決定された対応関係に応じて、 前記球面画像の各々を表す複数の画像デ 一夕を合成することによって、 一つの連続する球面画像を表す画像データであ る連続球面画像データを生成する球面画像合成部と、
前記連続球面画像データから前記連続平面画像を表す画像データを生成する 平面画像生成部と、
を備えることを特徴とする、 画像処理装置。
2 . 請求項 1記載の画像処理装置であって、
前記複数の画像ファイルは、 さらに、 前記画像データの属性情報である画像 属性情報を含み、
前記画像処理装置は、 さらに、 前記画像属性情報に応じて、 前記複数の画像 データの生成に用いられた光学系の焦点距離を前記各画像データ毎に決定する 焦点距離決定部を備え、 前記球面画像生成部は、 前記各画像データが表す各平面画像を、 前記各画像 データに対応する前記焦点距離だけ前記所定の点から前記投影面側に離れた位 置に配置して、 前記投影面に投影することにより複数の球面画像を生成する、 画像処理装置。
3 . 請求項 1または 2に記載の画像処理装置であって、
前記画像属性情報は、 撮影レンズの実焦点距離を表すレンズ焦点距離と、 前 記光学系の焦点面における解像度の単位を規定する焦点面解像度単位と、 前記 焦点面解像度単位あたりの画像の高さ方向の画素数を表す焦点面の高さの解像 度と、 前記焦点面解像度単位あたりの画像の幅方向の画素数を表す焦点面の幅 の解像度とを含んでおり、
前記焦点距離決定部は、 前記レンズ焦点距離を前記焦点距離に決定し、— 前記球面画像生成部は、 前記焦点面解像度単位を前記焦点面の幅の解像度で 除することにより幅方向の画素の大きさを決定するとともに、 前記焦点面解像 度単位を前記焦点面の高さの解像度で除することにより高さ方向の画素の大き さを決定する、 画像処理装置。
4 . 請求項 1または 2に記載の画像処理装置であって、
前記画像属性情報は、 3 5 m mフイルムカメラに換算した焦点距離の値であ る 3 5 m m換算レンズ焦点距離を含んでおり、
前記焦点距離決定部は、 前記 3 5 m m換算レンズ焦点距離を前記焦点距離に 決定し、
前記球面画像生成部は、 3 5 m mフイルムサイズを前記平面画像のサイズに 決定する、 画像処理装置。
5 . 請求項〗ないし 4のいずれかに記載の画像処理装置であって、 前記画像属性情報は、 前記光学系の焦点面における解像度の単位を規定する 焦点面解像度単位と、 前記焦点面解像度単位あたりの画像の高さ方向の画素数 を表す焦点面の高さの解像度と、 前記焦点面解像度単位あたりの画像の幅方向 の画素数を表す焦点面の幅の解像度とを含んでおリ、
前記球面画像生成部は、
前記焦点面解像度単位を、 前記決定された焦点距離のうちの最大のものであ る最大焦点距離と、 前記高さの解像度とで除した角度で高さ方向に分割される とともに、 前記焦点面解像度単位を前記最大焦点距離と前記幅の解像度とで除 した角度で幅方向に分割された各領域を球面画素として前記球面上に設定する 球面画素設定部と、
前記球面画素の各々に投影される平面画素の画素値に応じて、 前記球面画素 の各々の画素値を決定する球面画素値決定部と、
を備える画像処理装置。
6 . 複数の平面画素が平面上に配列された平面画像として構成された画像 データを含む複数の画像ファィルに応じて、 前記複数の画像ファィルに含まれ た複数の画像データが合成された 1つの連続する連続平面画像を表す画像デー タを生成する画像処理装置であって、
所定の軸を中心とする円筒状の投影面を、 前記複数の画像データを合成する ための領域として設定する合成領域設定部と、
前記各画像データが表す各平面画像を、 前記投影面に投影することによリ複 数の円筒画像を生成する円筒画像生成部と、
前記複数の円筒画像の各々から所定の特徴を有する領域である特徴点を抽出 する特徴点抽出部と、
前記複数の円筒画像相互間において、 前記抽出された特徴点の対応関係を決 定する対応関係決定部と、
前記決定された対応関係に応じて、 前記円筒画像の各々を表す複数の画像デ ータを合成することによって、 一つの連続する円筒画像を表す画像データであ る連続円筒画像データを生成する円筒画像合成部と、
前記連続円筒画像データから前記連続平面画像を表す画像データを生成する 平面画像生成部と、
を備えることを特徴とする、 画像処理装置。
7 . 請求項 6記載の画像処理装置であって、
前記複数の画像ファイルは、 さらに、 前記画像データの属性情報である画像 属性情報を含み、
前記画像処理装置は、 さらに、 前記画像属性情報に応じて、 前記複数の画像 データの生成に用いられた光学系の焦点距離を前記各画像データ毎に決定する 焦点距離決定部を備え、
前記円筒画像生成部は、 前記各画像データが表す各平面画像を、 前記各画像 データに対応する前記焦点距離だけ前記所定の軸から前記投影面側に離れた位 置に配置して、 前記投影面に投影することにより複数の円筒画像を生成する、 画像処理装置。
8 . 請求項 6または 7に記載の画像処理装置であって、
前記円筒画像生成部は、 前記画像データにおいて設定された高さ方向と平行 に前記軸を設定する、 画像処理装置。
9 . 請求項 6ないし 8のいずれかに記載の画像処理装置であって、 前記画像属性情報は、 撮影レンズの実焦点距離を表すレンズ焦点距離と、 前 記光学系の焦点面における解像度の単位を規定する焦点面解像度単位と、 前記 焦点面解像度単位あたりの画像の高さ方向の画素数を表す焦点面の高さの解像 度と、 前記焦点面解像度単位あたりの画像の幅方向の画素数を表す焦点面の幅 の解像度とを含んでおり、
前記焦点距離決定部は、 前記レンズ焦点距離を前記焦点距離に決定し、 前記球面画像生成部は、 前記焦点面解像度単位を前記焦点面の幅の解像度で 除することにより幅方向の画素の大きさを決定するとともに、 前記焦点面解像 度単位を前記焦点面の高さの解像度で除することにより高さ方向の画素の大き さを決定する、 画像処理装置。
1 0 . 請求項 6ないし 8のいずれかに記載の画像処理装置であって、 前記画像属性情報は、 3 5 m mフイルムカメラに換算した焦点距離の値であ る 3 5 m m換算レンズ焦点距離を含んでおリ、
前記焦点距離決定部は、 前記 3 5 m m換算レンズ焦点距離を前記焦点距離と して決定し、
前記球面画像生成部は、 3 5 m mフィルムサイズを前記平面画像のサイズと して決定する、 画像処理装置。
1 1 . 請求項 6ないし 1 0のいずれかに記載の画像処理装置であって、 前記画像属性情報は、 前記光学系の焦点面における解像度の単位を規定する 焦点面解像度単位と、 前記焦点面解像度単位あたりの画像の高さ方向の画素数 を表す焦点面の高さの解像度と、 前記焦点面解像度単位あたリの画像の幅方向 の画素数を表す焦点面の幅の解像度とを含んでおリ、
前記円筒画像生成部は、
前記焦点面解像度単位を、 前記決定された焦点距離のうちの最大のものであ る最大焦点距離と、 前記高さの解像度とで値で前記軸方向に分割されるととも に、 前記焦点面解像度単位を前記最大焦点距離と前記幅の解像度とで除した角 度で幅方向に分割された各領域を円筒画素として前記円筒上に設定する円筒画 素設定部と、
前記円筒画素の各々に投影される平面画素の画素値に応じて、 前記円筒画素 の各々の画素値を決定する円筒画素値決定部と、
を備える画像処理装置。
1 2 . 複数の平面画素が平面上に配列された平面画像として構成された画 像データを含む複数の画像ファイルに応じて、 前記複数の画像ファィルに含ま れた複数の画像データが合成された 1つの連続する連続平面画像を表す画像デ ータを生成する画像処理方法であって、
( a ) 所定の点を中心とする球面状の投影面を、 前記複数の画像データを合成 するための領域として設定する工程と、
(b) 前記各画像データが表す各平面画像を、 前記投影面に投影することによ リ複数の球面画像を生成する工程と、
(c) 前記複数の球面画像の各々から所定の特徴を有する領域である特徴点を 抽出する工程と、
(d) 前記複数の球面画像相互間において、 前記抽出された特徴点の対応関係 を決定する工程と、
(e) 前記決定された対応関係に応じて、 前記球面画像の各々を表す複数の画 像データを合成することによって、 一つの連続する球面画像を表す画像データ である連続球面画像データを生成する工程と、
( f ) 前記連続球面画像データから前記連続平面画像を表す画像データを生成 する工程と、
を備えることを特徴とする、 画像処理方法。
1 3. 複数の平面画素が平面上に配列された平面画像として構成された画 像データを含む複数の画像ファイルに応じて、 前記複数の画像ファイルに含ま れた複数の画像データが合成された 1つの連続する連続平面画像を表す画像デ -タを生成する画像処理方法であって、
(a) 所定の軸を中心とする円筒状の投影面を、 前記複数の画像データを合成 するための領域として設定する工程と、
(b) 前記各画像データが表す各平面画像を、 前記各画像データに対応する前 記焦点距離だけ前記所定の軸から前記投影面側に離れた位置に配置して、 前記 投影面に投影することにより複数の円筒画像を生成する工程と、
(c) 前記複数の円筒画像の各々から所定の特徴を有する領域である特徴点を 抽出する工程と、
(d) 前記複数の円筒画像相互間において、 前記抽出された特徴点の対応関係 を決定する工程と、 ( e ) 前記決定された対応関係に応じて、 前記円筒画像の各々を表す複数の画 像データを合成することによって、 一つの連続する円筒画像を表す画像データ である連続円筒画像データを生成する工程と、
( f ) 前記連続円筒画像データから前記連続平面画像を表す画像データを生成 する工程と、
を備えることを特徴とする、 画像処理方法。
1 4 . 複数の平面画素が平面上に配列された平面画像として構成された画 像データを含む複数の画像ファィルに応じて、 前記複数の画像ファィルに含ま れた複数の画像データが合成された 1つの連続する連続平面画像を表す画像デ 一夕の生成をコンピュータに行わせるためのコンピュータプログラム製品であ つて、
コンピュータ読み取り可能な媒体と、
前記コンピュータ読み取リ可能な媒体に格納されたコンピュータプログラム を備え、
前記コンピュータプログラムは、
所定の点を中心とする球面状の投影面を、 前記複数の画像データを合成する ための領域として前記コンピュータに設定させる第 1のプログラムと、 前記各画像データが表す各平面画像を、 前記投影面に投影することによリ複 数の球面画像を前記コンピュータに生成させる第 2のプログラムと、
前記複数の球面画像の各々から所定の特徴を有する領域である特徴点を前記 コンピュータに抽出させる第 3のプログラムと、
前記複数の球面画像相互間において、 前記抽出された特徴点の対応関係を前 記コンピュータに決定させる第 4のプログラムと、
前記決定された対応関係に応じて、 前記球面画像の各々を表す複数の画像デ ータを合成することによって、 一つの連続する球面画像を表す画像データであ る連続球面画像データを前記コンピュータに生成させる第 5のプログラムと、 前記連続球面画像データから前記連続平面画像を表す画像データを前記コン ピュータに生成させる第 6のプログラムと、
を備えるコンピュータプログラム製品。
1 5 . 複数の平面画素が平面上に配列された平面画像として構成された画 像データを含む複数の画像ファィルに応じて、 前記複数の画像ファィルに含ま れた複数の画像データが合成された 1つの連続する連続平面画像を表す画像デ 一夕の生成をコンピュータに行わせるためのコンピュータプログラム製品であ つて、
コンピュータ読み取り可能な媒体と、
前記コンピュータ読み取リ可能な媒体に格納されたコンピュータプログラム を備え、
所定の軸を中心とする円筒状の投影面を、 前記複数の画像データを合成する ための領域として前記コンピュータに設定させる第 1のプログラムと、 前記各画像データが表す各平面画像を、 前記投影面に投影することによリ複 数の円筒画像を前記コンピュータに生成させる第 2のプログラムと、
前記複数の円筒画像の各々から所定の特徴を有する領域である特徴点をコン ピュータに抽出させる第 3のプログラムと、
前記複数の円筒画像相互間において、 前記抽出された特徴点の対応関係を前 記コンピュータに決定させる第 4のプログラムと、
前記決定された対応関係に応じて、 前記円筒画像の各々を表す複数の画像デ 一夕を合成することによって、 一つの連続する円筒画像を表す画像データであ る連続円筒画像データを前記コンピュータに生成させる第 5のプログラムと、 前記連続円筒画像データから前記連続平面画像を表す画像データを前記コン ピュータに生成させる第 6のプログラムと、 を備えるコンピュータプログラム製品。
PCT/JP2003/013217 2002-10-15 2003-10-15 複数の画像データのパノラマ合成処理 WO2004036498A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004544960A JP4487775B2 (ja) 2002-10-15 2003-10-15 複数の画像データのパノラマ合成処理
EP03756628A EP1553521A4 (en) 2002-10-15 2003-10-15 PANORAMIC SYNTHESIS PROCESSING MULTIPLE IMAGE DATA
US10/531,192 US20060062487A1 (en) 2002-10-15 2003-10-15 Panorama synthesis processing of a plurality of image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002299772 2002-10-15
JP2002-299772 2002-10-15

Publications (1)

Publication Number Publication Date
WO2004036498A1 true WO2004036498A1 (ja) 2004-04-29

Family

ID=32104964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/013217 WO2004036498A1 (ja) 2002-10-15 2003-10-15 複数の画像データのパノラマ合成処理

Country Status (5)

Country Link
US (1) US20060062487A1 (ja)
EP (1) EP1553521A4 (ja)
JP (1) JP4487775B2 (ja)
CN (1) CN100401320C (ja)
WO (1) WO2004036498A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168147A (ja) * 2013-02-28 2014-09-11 Nikon Corp 画像処理プログラムおよびデジタルカメラ
JP2017501005A (ja) * 2013-12-23 2017-01-12 アールエスビーブイ,リミティド ライアビリティ カンパニー 広視野網膜画像取得システム及び方法
JP2017511057A (ja) * 2013-12-09 2017-04-13 シゼイ シジブイ カンパニー リミテッド マルチプロジェクション映像の生成方法及びそのシステム
JP2020034759A (ja) * 2018-08-30 2020-03-05 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
WO2024004134A1 (ja) * 2022-06-30 2024-01-04 株式会社ソニー・インタラクティブエンタテインメント 画像送信装置および画像送信方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7589729B2 (en) * 2002-05-15 2009-09-15 Mental Images Gmbh Image synthesis by rank-1 lattices
JP2007104519A (ja) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd 画像符号化装置、画像復号化装置、画像符号化方法および画像復号化方法
US20100289922A1 (en) * 2006-05-29 2010-11-18 Bit-Side Gmbh Method and system for processing data sets of image sensors, a corresponding computer program, and a corresponding computer-readable storage medium
JP4771539B2 (ja) * 2006-07-26 2011-09-14 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
US8102394B2 (en) * 2006-12-14 2012-01-24 Mental Images Gmbh Computer graphics using meshless finite elements for light transport
CN101743569A (zh) * 2007-05-25 2010-06-16 谷歌公司 渲染、查看和注释全景图像及其应用
US7990394B2 (en) 2007-05-25 2011-08-02 Google Inc. Viewing and navigating within panoramic images, and applications thereof
WO2007101887A2 (en) * 2007-05-31 2007-09-13 Sinar Ag Method of manufacturing a picture and image taking apparatus with enhanced imaging capabilities
EP2018049B1 (en) 2007-07-18 2013-05-01 Samsung Electronics Co., Ltd. Method of assembling a panoramic image and camera therefor
US8068693B2 (en) * 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
US8717412B2 (en) * 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
US20100039562A1 (en) * 2008-04-09 2010-02-18 University Of Kentucky Research Foundation (Ukrf) Source and output device-independent pixel compositor device adapted to incorporate the digital visual interface (DVI)
US8294748B2 (en) * 2009-12-11 2012-10-23 DigitalOptics Corporation Europe Limited Panorama imaging using a blending map
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20110141229A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging using super-resolution
EP2545411B1 (en) 2009-12-11 2014-02-12 DigitalOptics Corporation Europe Limited Panorama imaging
US20110141224A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Using Lo-Res Images
US20110141225A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama Imaging Based on Low-Res Images
US20110141226A1 (en) * 2009-12-11 2011-06-16 Fotonation Ireland Limited Panorama imaging based on a lo-res map
CN102375715B (zh) * 2010-08-25 2014-04-16 北京中科亚创科技有限责任公司 自动调整镜头的方法及装置
JP2012199752A (ja) * 2011-03-22 2012-10-18 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2013070212A (ja) * 2011-09-22 2013-04-18 Fuji Xerox Co Ltd 画像処理装置、画像処理プログラム
KR101804199B1 (ko) * 2011-10-12 2017-12-05 삼성전자주식회사 입체 파노라마 영상을 생성하는 장치 및 방법
NL2008639C2 (en) * 2012-04-13 2013-10-16 Cyclomedia Technology B V Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
TWI486057B (zh) * 2012-05-17 2015-05-21 Altek Corp 影像擷取裝置及其影像合成方法
CN103945103B (zh) * 2013-01-17 2017-05-24 成都国翼电子技术有限公司 基于柱面的多平面二次投影消除全景摄像机图像畸变的方法
KR20150058871A (ko) * 2013-11-21 2015-05-29 한국전자통신연구원 촬상 장치 및 촬상 이미지 스티칭 방법
CN104935829A (zh) * 2015-06-02 2015-09-23 无锡天脉聚源传媒科技有限公司 一种图像处理方法及装置
WO2016199608A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 情報処理装置および情報処理方法
US10217283B2 (en) 2015-12-17 2019-02-26 Google Llc Navigation through multidimensional images spaces
CN105894454A (zh) * 2016-06-25 2016-08-24 北京方瑞博石数字技术有限公司 一种吻合地形地貌的全息显示系统
KR102522565B1 (ko) * 2016-08-31 2023-04-17 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
CN108734666B (zh) * 2017-04-13 2021-03-26 杭州海康威视数字技术股份有限公司 一种鱼眼图像校正方法及装置
EP4009622B1 (en) * 2020-12-01 2024-04-03 Continental Autonomous Mobility Germany GmbH Method for capturing and processing a digital panoramic image
CN115205716B (zh) * 2022-08-11 2023-04-07 北京林业大学 油橄榄果实含油率预估方法、装置及系统和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514751A (ja) * 1991-06-28 1993-01-22 Nippon Hoso Kyokai <Nhk> パノラマ画像取り込み装置
JPH064660A (ja) * 1992-06-18 1994-01-14 Matsushita Electric Ind Co Ltd 画像合成装置
JPH076227A (ja) * 1992-12-29 1995-01-10 Philips Electron Nv 隣接する複数画像より画像を形成する画像処理方法及び装置
JPH1173489A (ja) * 1997-08-29 1999-03-16 Ricoh Co Ltd 画像保存方法及び機械読み取り可能媒体
JPH11205648A (ja) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd 画像合成装置
JPH11331696A (ja) * 1998-03-10 1999-11-30 Canon Inc 画像処理方法、装置および記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438380A (en) * 1992-08-17 1995-08-01 Fuji Photo Film Co., Ltd. Lens-fitted photographic film unit and photofinishing method using the same
US5819103A (en) * 1993-09-21 1998-10-06 Kabushiki Kaisha Toshiba Information recording/reproducing apparatus and method
US6031541A (en) * 1996-08-05 2000-02-29 International Business Machines Corporation Method and apparatus for viewing panoramic three dimensional scenes
US5987164A (en) * 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6486908B1 (en) * 1998-05-27 2002-11-26 Industrial Technology Research Institute Image-based method and system for building spherical panoramas
US7176960B1 (en) * 1999-09-20 2007-02-13 The Trustees Of Columbia University In The City Of New York System and methods for generating spherical mosaic images
US6757418B2 (en) * 2000-09-07 2004-06-29 Siemens Corporate Research, Inc. Method and system for automatic computed radiography (CR) image composition by white band detection and consistency rechecking
US6498908B2 (en) * 2001-02-20 2002-12-24 Hewlett-Packard Company Electrophotographic measurement system
US6831643B2 (en) * 2001-04-16 2004-12-14 Lucent Technologies Inc. Method and system for reconstructing 3D interactive walkthroughs of real-world environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514751A (ja) * 1991-06-28 1993-01-22 Nippon Hoso Kyokai <Nhk> パノラマ画像取り込み装置
JPH064660A (ja) * 1992-06-18 1994-01-14 Matsushita Electric Ind Co Ltd 画像合成装置
JPH076227A (ja) * 1992-12-29 1995-01-10 Philips Electron Nv 隣接する複数画像より画像を形成する画像処理方法及び装置
JPH1173489A (ja) * 1997-08-29 1999-03-16 Ricoh Co Ltd 画像保存方法及び機械読み取り可能媒体
JPH11205648A (ja) * 1998-01-09 1999-07-30 Olympus Optical Co Ltd 画像合成装置
JPH11331696A (ja) * 1998-03-10 1999-11-30 Canon Inc 画像処理方法、装置および記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1553521A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168147A (ja) * 2013-02-28 2014-09-11 Nikon Corp 画像処理プログラムおよびデジタルカメラ
JP2017511057A (ja) * 2013-12-09 2017-04-13 シゼイ シジブイ カンパニー リミテッド マルチプロジェクション映像の生成方法及びそのシステム
JP2017501005A (ja) * 2013-12-23 2017-01-12 アールエスビーブイ,リミティド ライアビリティ カンパニー 広視野網膜画像取得システム及び方法
JP2020034759A (ja) * 2018-08-30 2020-03-05 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
JP7309333B2 (ja) 2018-08-30 2023-07-18 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記録媒体
WO2024004134A1 (ja) * 2022-06-30 2024-01-04 株式会社ソニー・インタラクティブエンタテインメント 画像送信装置および画像送信方法

Also Published As

Publication number Publication date
EP1553521A4 (en) 2006-08-02
EP1553521A1 (en) 2005-07-13
CN1703725A (zh) 2005-11-30
CN100401320C (zh) 2008-07-09
JP4487775B2 (ja) 2010-06-23
US20060062487A1 (en) 2006-03-23
JPWO2004036498A1 (ja) 2006-02-16

Similar Documents

Publication Publication Date Title
JP4487775B2 (ja) 複数の画像データのパノラマ合成処理
US8878956B2 (en) Digital camera and storage medium for image signal processing for white balance control
JP4469019B2 (ja) 画像データを生成する装置、方法およびプログラム
JP4556813B2 (ja) 画像処理装置、及びプログラム
US8442354B2 (en) Image processing apparatus and image processing method capable of transmission/reception and recording of image file obtained by panoramic image shot
US20040247175A1 (en) Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus
JP2005026800A (ja) 画像処理方法、撮像装置、画像処理装置及び画像記録装置
JP2007074578A (ja) 画像処理装置、撮影装置、及びプログラム
JP2002199410A (ja) 撮像装置、画像劣化補正処理方法及び記憶媒体
JP2000003437A (ja) 収差補正方法、電子スチルカメラ及び画像処理システム
JP2003092726A (ja) 撮像装置
US20030193567A1 (en) Digital camera media scanning methods, digital image processing methods, digital camera media scanning systems, and digital imaging systems
JP5609555B2 (ja) 画像処理装置、プログラムおよび画像処理方法
JP2003219246A (ja) 電子カメラ及び電子カメラシステム
JP3223972B2 (ja) デジタルカメラおよび画像データ処理方法
JP4096828B2 (ja) 画像処理装置
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム
JP3922706B2 (ja) 分割画像合成処理装置、分割画像合成処理方法および分割画像合成処理プログラム
JP5195317B2 (ja) カメラ装置、及び撮影方法、撮影制御プログラム
JP2000276581A (ja) 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
JPH11220683A (ja) 画像処理装置及び方法並びに記憶媒体
JP2003179783A (ja) 撮像装置、撮像システム、検出装置、及びプログラム
JP2005033503A (ja) 画像データの出力画像調整
JP2003348532A (ja) 撮像装置
JP5625832B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004544960

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2006062487

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 20038A13263

Country of ref document: CN

Ref document number: 10531192

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003756628

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003756628

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10531192

Country of ref document: US