WO2012039307A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2012039307A1
WO2012039307A1 PCT/JP2011/070706 JP2011070706W WO2012039307A1 WO 2012039307 A1 WO2012039307 A1 WO 2012039307A1 JP 2011070706 W JP2011070706 W JP 2011070706W WO 2012039307 A1 WO2012039307 A1 WO 2012039307A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
eye
detection unit
unit
Prior art date
Application number
PCT/JP2011/070706
Other languages
English (en)
French (fr)
Inventor
良太 小坂井
靖二郎 稲葉
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN2011800443856A priority Critical patent/CN103109537A/zh
Priority to KR1020137006521A priority patent/KR20140000205A/ko
Priority to US13/819,238 priority patent/US20130155205A1/en
Publication of WO2012039307A1 publication Critical patent/WO2012039307A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program. More specifically, the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for generating an image for displaying a three-dimensional image (3D image) using a plurality of images taken while moving a camera. .
  • the first method is a method using a so-called multi-view camera in which an object is simultaneously imaged from different viewpoints using a plurality of camera units.
  • the second method is a method using a so-called monocular camera in which an imaging device is moved using a single camera unit and images from different viewpoints are continuously captured.
  • the multi-view camera system used in the first method has a configuration in which lenses are provided at distant positions and an object from different viewpoints can be photographed simultaneously.
  • a multiview camera system has a problem that the camera system becomes expensive because a plurality of camera units are required.
  • the monocular camera system used in the second method may be configured to include one camera unit similar to a conventional camera.
  • a camera provided with one camera unit is moved to continuously capture images from different viewpoints, and a plurality of captured images are used to generate a three-dimensional image.
  • it can be realized as a relatively inexpensive system, with only one camera unit similar to a conventional camera.
  • Non-Patent Document 1 ““Acquisition of distance information of omnidirectional view” (The Journal of the Institute of Electronics, Information and Communication Engineers, D -II, Vol. J74-D-II, No. 4, 1991)].
  • Non-Patent Document 2 ["Omni-Directional Stereo” IEEE Transaction On Pattern Analysis And Machine Intelligence, VOL. 14, no. 2, February 1992] also describes a report having the same content as that of Non-Patent Document 1.
  • the camera is fixedly installed on a circumference separated by a fixed distance from the center of rotation on the rotation table, and two images are continuously taken while rotating the rotation table Discloses a method of obtaining distance information of an object using two images obtained through a vertical slit of.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 11-164326
  • Patent Document 1 Japanese Patent Application Laid-Open No. 11-164326
  • a configuration is disclosed for acquiring a panoramic image for the left eye and a panoramic image for the right eye applied to a three-dimensional image display by using two images obtained through two slits.
  • Patent Document 2 Japanese Patent No. 3928222
  • Patent Document 3 Japanese Patent No. 4293053
  • a plurality of photographed images by movement of the camera are used.
  • the above non-patent documents 1 and 2 and the above-mentioned patent document 1 apply a plurality of images taken by the same photographing process as the panoramic image generation process, and cut out and connect an image of a predetermined area to obtain a three-dimensional image. The principle of obtaining the left-eye image and the right-eye image is described.
  • an image for a predetermined area is cut out from a plurality of photographed images captured by moving the camera by an operation of swinging a camera held by the user in a hand, and connecting the image for the left eye and the image for the right eye as a three-dimensional image
  • a two-dimensional panoramic image may not be generated.
  • meaningless image data is recorded on the medium as recording data, and a situation may occur in which an image not conforming to the user's intention is reproduced at the time of reproduction or reproduction is not possible.
  • the present invention has been made, for example, in view of the above-mentioned problems, and it is an image for the left eye and an image for the right eye to be applied to three-dimensional image display from a plurality of images taken by moving the camera.
  • the configuration that generates the image it is possible to perform optimal image generation processing according to the rotation or movement state of the camera, or to warn the user to that effect when 2D panoramic image or 3D image can not be generated.
  • An image processing device, an imaging device, an image processing method, and a program are provided.
  • the first aspect of the present invention is A plurality of images taken from different positions are input, and an image combining unit is provided which connects strip regions cut out of the respective images to generate a combined image;
  • the image combining unit Based on the movement information of the imaging device at the time of image shooting, (A) Composite image generation processing of a composite image for the left eye and a composite image for the right eye to be applied to three-dimensional image display, or (B) Composite image generation processing of 2D panoramic image, or (C) Cancel composite image generation,
  • the present invention is an image processing apparatus that determines one of the processing modes and performs the determined processing.
  • the image processing apparatus includes a rotational momentum detection unit that acquires or calculates rotational momentum ( ⁇ ) of the imaging device at the time of imaging, and
  • the translational momentum detector detects or calculates translational momentum (t), and the image combining unit detects rotational momentum (.theta.) Detected by the rotational momentum detector and translational momentum (.theta.) Detected by the translational momentum detector. Determine the processing mode based on t).
  • the image processing apparatus has an output unit for presenting to the user a warning or a notification according to the determination information of the image combining unit.
  • the image combining unit generates a combined image of a three-dimensional image and a two-dimensional panoramic image when the rotational momentum ( ⁇ ) detected by the rotational momentum detector is zero. Stop processing.
  • the image combining unit is configured such that the rotational momentum ( ⁇ ) detected by the rotational momentum detection unit is not zero and the translational momentum detected by the translational momentum detection unit ( When t) is 0, either a composite image generation process of a two-dimensional panoramic image or a composite image generation stop is executed.
  • the image combining unit is configured such that the rotational momentum ( ⁇ ) detected by the rotational momentum detection unit is not zero and the translational momentum detected by the translational momentum detection unit ( t) If not 0, either a three-dimensional image or a composite image generation process of a two-dimensional panoramic image is executed.
  • the image combining unit is configured such that the rotational momentum ( ⁇ ) detected by the rotational momentum detection unit is not zero and the translational momentum detected by the translational momentum detection unit ( When t) is also not 0, and when ⁇ ⁇ t ⁇ 0 and ⁇ ⁇ t> 0, processing is performed to reverse the setting of the LR image of the 3D image to be generated.
  • the rotational momentum detection unit is a sensor that detects the rotational momentum of the image processing apparatus.
  • the translational momentum detecting unit is a sensor that detects a translational momentum of the image processing apparatus.
  • the rotational momentum detection unit is an image analysis unit that detects a rotational momentum at the time of capturing an image by analyzing a captured image.
  • the translational momentum detection unit is an image analysis unit that detects a translational momentum at the time of image shooting by analyzing a shot image.
  • An imaging apparatus comprising: an imaging unit; and an image processing unit configured to execute the image processing according to any one of claims 1 to 11.
  • An image processing method to be executed in the image processing apparatus The image combining unit executes an image combining step of inputting a plurality of images captured from different positions and connecting strip regions cut out from the respective images to generate a combined image;
  • the image combining step is Based on the movement information of the imaging device at the time of image shooting, (A) Composite image generation processing of a composite image for the left eye and a composite image for the right eye to be applied to three-dimensional image display, or (B) Composite image generation processing of 2D panoramic image, or (C) Cancel composite image generation, One of the processing modes is determined, and the image processing method is a step of performing the determined processing.
  • a program that causes an image processing apparatus to execute image processing A plurality of images captured from different positions are input to the image combining unit, and an image combining step of connecting strip regions cut out from each image to generate a combined image is executed;
  • the image combining step Based on the movement information of the imaging device at the time of image shooting, (A) Composite image generation processing of a composite image for the left eye and a composite image for the right eye to be applied to three-dimensional image display, or (B) Composite image generation processing of 2D panoramic image, or (C) Cancel composite image generation, It is in the program which determines any process aspect and performs the determined process.
  • the program of the present invention is, for example, a program that can be provided by a storage medium or communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a storage medium or communication medium that provides various program codes in a computer-readable format to an information processing apparatus or computer system capable of executing the program code.
  • a system is a logical set composition of a plurality of devices, and the device of each composition is not limited to what exists in the same case.
  • a configuration for determining an image and generating a determined composite image is realized.
  • a configuration in which strip regions cut out from a plurality of images are connected to generate a two-dimensional panoramic image a composite image for left eye and a composite image for right eye for three-dimensional image display, motion information of an imaging device at the time of image capturing is analyzed. Then, it is determined whether or not a two-dimensional panoramic image or a three-dimensional image can be generated, and a generation process of a synthetic image that can be generated is performed.
  • A Composite image generation processing for composite image for left eye and composite image for right eye to be applied to three-dimensional image display according to rotational momentum ( ⁇ ) of camera and translational momentum (t) at the time of image capturing, or b) Two-dimensional panoramic image composite image generation processing or (c) suspension of composite image generation, one of the processing modes (a) to (c) is determined, and the determined processing is performed. In addition, notification and warning of processing contents to the user are executed.
  • FIG. 18 is a diagram for describing an example of a process of connecting strip regions and a process of generating a 3D left-eye synthesized image (3D panorama L image) and a 3D right-eye synthesized image (3D panorama R image). It is a figure explaining the example of a movement processing example of an ideal camera in the case of cutting out a strip area from each of a plurality of pictures continuously taken while moving a camera and generating a 3D image or a 2D panoramic image. It is a figure explaining the example of movement processing of the camera which cuts out a strip area from each of a plurality of pictures continuously taken while moving a camera, and can not generate a 3D image or a 2D panoramic image.
  • the present invention is applied to three-dimensional (3D) image display by using a plurality of images captured continuously while moving an imaging device (camera), connecting regions (strip regions) cut out in strips from each image.
  • the present invention relates to processing for generating a left-eye image (L image) and a right-eye image (R image).
  • FIG. Figure 1 shows (1) Shooting processing (2) Shooting image (3) Two-dimensional composite image (2D panoramic image) The figure which illustrates these is shown.
  • the user places the camera 10 in panoramic shooting mode, holds the camera 10 in hand, presses the shutter and moves the camera from the left (point A) to the right (point B) as shown in FIG. 1 (1).
  • the camera 10 detects that the user has pressed the shutter under the panoramic shooting mode setting, the camera 10 performs continuous image shooting. For example, several tens to a hundred images are taken continuously.
  • the plurality of images 20 are images continuously shot while moving the camera 10, and become images from different viewpoints. For example, images 20 captured from 100 different viewpoints are sequentially recorded on the memory.
  • the data processing unit of the camera 10 reads out the plurality of images 20 shown in FIG. 1 (2) from the memory, cuts out a strip area for generating a panoramic image from each image, and executes processing to connect the cut strip areas Then, a 2D panoramic image 30 shown in FIG. 1 (3) is generated.
  • the 2D panoramic image 30 illustrated in FIG. 1 (3) is a two-dimensional (2D) image, and is simply an image that is horizontally elongated by cutting out and connecting a part of the captured image.
  • the dotted lines shown in FIG. 1 (3) indicate connected parts of the image.
  • the cutout area of each image 20 is called a strip area.
  • the image processing apparatus or imaging apparatus performs the same image photographing processing as shown in FIG. 1, that is, using a plurality of images continuously photographed while moving the camera as shown in FIG. 1 (1).
  • An image for the left eye (L image) and an image for the right eye (R image) to be applied to two-dimensional (3D) image display are generated.
  • FIG. 2A shows one image 20 captured in the panoramic shooting shown in FIG. 1B.
  • the image for the left eye (L image) and the image for the right eye (R image) to be applied to three-dimensional (3D) image display are predetermined from this image 20 as in the 2D panoramic image generation process described with reference to FIG. It is generated by cutting out and connecting strip areas. However, the strip area used as the cutout area is set to be different in position between the image for the left eye (L image) and the image for the right eye (R image).
  • the left-eye image strip (L image strip) 51 and the right-eye image strip (R image strip) 52 have different cutout positions. Although only one image 20 is shown in FIG. 2, a left-eye image strip (L image strip) at different cutout positions is obtained for each of a plurality of images captured by moving the camera shown in FIG. 1 (2). Set the right-eye image strip (R image strip).
  • a 3D panoramic image (3D panorama L image) for the 3D left eye can be generated as shown in FIG. 2 (b1).
  • a 3D right-eye panoramic image (3D panorama R image) can be generated as shown in FIG. 2 (b 2).
  • FIG. 3 shows the situation in which the subject 80 is photographed at two photographing points (a) and (b) by moving the camera 10.
  • the image of the subject 80 is recorded on the left-eye image strip (L image strip) 51 of the imaging device 70 of the camera 10 as viewed from the left side.
  • the image viewed from the right is recorded in the right-eye image strip (R image strip) 52 of the imaging device 70 of the camera 10.
  • images from different viewpoints of the same subject are recorded in a predetermined area (strip area) of the imaging device 70.
  • These are extracted separately, that is, by collecting and connecting only the left-eye image strips (L image strips), a 3D left-eye panoramic image (3D panorama L image) is generated as shown in FIG. 2 (b1), and the right-eye image strips By collecting and connecting only (R image strips), a panoramic image (3D panorama R image) for the 3D right eye in FIG. 2 (b 2) is generated.
  • the camera 10 is shown as a setting for moving the subject from the left side to the right side of the subject 80 in order to facilitate understanding. In this way, the camera 10 moves so as to cross the subject 80 Is not required. If images from different viewpoints can be recorded in a predetermined area of the imaging device 70 of the camera 10, an image for the left eye and an image for the right eye to be applied to 3D image display can be generated.
  • Figure 4 shows (A) Image capturing configuration (b) Forward model (c) Inverse model These figures are shown.
  • the image capturing configuration shown in FIG. 4A is a view showing a processing configuration at the time of capturing a panoramic image similar to that described with reference to FIG.
  • FIG. 4B shows an example of an image actually taken by the imaging device 70 in the camera 10 in the photographing process shown in FIG. 4A.
  • the image 72 for the left eye and the image 73 for the right eye are vertically inverted and recorded in the imaging element 70. Since it will be confusing if it demonstrates using such a reverse image, in the following description, it demonstrates using the inverse model shown in FIG.4 (c). Note that this inverse model is a model that is frequently used in the explanation of the image of the imaging device.
  • the virtual imaging device 101 is set in front of the optical center 102 corresponding to the focal point of the camera, and an object image is captured on the virtual imaging device 101.
  • the subject A91 on the front left of the camera is taken on the left
  • the subject B92 on the right on the front of the camera is taken on the right. It reflects the relationship as it is. That is, the image on the virtual imaging element 101 is the same image data as the actual captured image.
  • the left-eye image (L image) 111 is captured on the right side of the virtual imaging device 101
  • the right-eye image (R image) 112 is The image is captured on the left side of the virtual imaging element 101.
  • FIG. 5 As a model of shooting processing of a panoramic image (2D / 3D panoramic image), a shooting model shown in FIG. 5 is assumed.
  • the camera 100 is placed such that the optical center 102 of the camera 100 is set at a position separated by a distance R (rotation radius) from the rotation axis P, which is the rotation center.
  • the virtual imaging plane 101 is set outward from the rotation axis P by the focal distance f from the optical center 102.
  • the camera 100 is rotated clockwise (direction from A to B) around the rotation axis P, and a plurality of images are captured continuously.
  • each image of the left-eye image strip 111 and the right-eye image strip 112 as well as the 2D panoramic image generation strip is recorded on the virtual imaging element 101.
  • the recorded image has, for example, a configuration as shown in FIG. FIG. 6 shows an image 110 captured by the camera 100.
  • the image 110 is the same as the image on the virtual imaging plane 101.
  • an area (strip area) which is offset to the left from the center of the image and cut out in strip form is an image strip 112 for the right eye and an area cut out in strip form by offset to the right. (Strip zone) is referred to as a left-eye image strip 111.
  • FIG. 6 shows a 2D panoramic image strip 115 used when generating a two-dimensional (2D) panoramic image.
  • the strip width w is a width w common to all of the 2D panoramic image strip 115, the left-eye image strip 111, and the right-eye image strip 112.
  • the strip width changes depending on the moving speed of the camera and the like. When the moving speed of the camera is fast, the strip width w is wide, and when it is slow, the width w is narrow. This point will be further described later.
  • the strip offset and the strip offset can be set to various values. For example, if the strip offset is increased, the parallax between the left-eye image and the right-eye image is further increased, and if the strip offset is decreased, the parallax between the left-eye image and the right-eye image is reduced.
  • the left-eye composite image (left-eye panoramic image) obtained by combining the left-eye image strip 111 and the right-eye composite image (right-eye panoramic image) obtained by combining the right-eye image strip 112 are completely different.
  • the same image, that is, the same image as a two-dimensional panoramic image obtained by combining the 2D panoramic image strips 115, can not be used for three-dimensional image display.
  • the strip width w, the strip offset, and the length of the strip offset will be described as values defined by the number of pixels.
  • the data processing unit in the camera 100 obtains a motion vector between the continuously captured images while moving the camera 100, aligns the patterns of the above-described strip regions so as to connect the patterns of the above-described strip regions, and cuts out strip regions from each image It determines sequentially and connects the strip area
  • left-eye image strip 111 is selected from each image and connected and combined to generate a left-eye composite image (left-eye panoramic image), and only the right-eye image strip 112 is selected and connected to combine the right-eye composite image Generate a (right-eye panoramic image).
  • a 3D composite image (3D panorama L image) for 3D left-eye is generated as shown in FIG. 7 (2a).
  • a 3D right-eye composite image (3D panorama R image) is generated as shown in FIG. 7 (2b).
  • a 2D panoramic image is generated by combining the 2D panoramic image strips 115 set in the image 100. Further, The strip regions offset to the right from the center of the image 100 are connected to generate a 3D composite image for the left eye (3D panorama L image) in FIG. 7 (2a). The strip regions offset to the left from the center of the image 100 are joined to generate a 3D composite image for the 3D right eye (3D panorama R image) in FIG.
  • a 3D image display method corresponding to a passive glasses method that separates images to be observed by the left and right eyes with a polarizing filter or a color filter, or alternately switching left and right eyes an image observed by alternately opening and closing a liquid crystal shutter 3D image display system corresponding to the active glasses system which separates temporally.
  • the image for the left eye and the image for the right eye generated by the above-described strip connection processing are applicable to each of these methods.
  • the left eye observed from different viewpoints that is, the left eye position and the right eye position
  • cutting out a strip area from each of a plurality of continuously captured images while moving the camera and generating an image for the left eye and an image for the right eye It is possible to generate an image for right eye and an image for right eye.
  • FIG. 10 corresponds to the camera 10 described above with reference to FIG. 1 and has a configuration that can be held by the user in a hand and continuously shoot a plurality of images in a panoramic shooting mode, for example. .
  • the imaging device 202 is configured by, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • a subject image incident on the image sensor 202 is converted by the image sensor 202 into an electrical signal.
  • the imaging element 202 has a predetermined signal processing circuit, converts the electrical signal converted in the signal processing circuit into digital image data, and supplies the digital image data to the image signal processing unit 203.
  • the image signal processing unit 203 performs image signal processing such as gamma correction and contour enhancement correction, and displays an image signal as a signal processing result on the display unit 204. Furthermore, the image signal as the processing result of the image signal processing unit 203 is Image memory (for composition processing) 205, which is an image memory to be applied to composition processing, An image memory (for movement amount detection) 206 which is an image memory for detecting the movement amount between the continuously photographed images A movement amount calculation unit 207 that calculates the movement amount between the respective images; These are provided to each part.
  • Image memory for composition processing
  • An image memory (for movement amount detection) 206 which is an image memory for detecting the movement amount between the continuously photographed images
  • a movement amount calculation unit 207 that calculates the movement amount between the respective images; These are provided to each part.
  • the movement amount detection unit 207 acquires the image of one frame before stored in the image memory (for movement amount detection) 206 together with the image signal supplied from the image signal processing unit 203, and generates the current image and one frame before. Detect the amount of movement of the image. For example, the matching process between pixels constituting two images taken continuously, that is, the matching process for determining the shooting area of the same subject is executed to calculate the number of pixels moved between the respective images. . Basically, processing is performed on the assumption that the subject is stationary. When a moving subject is present, a motion vector different from the motion vector of the entire image is detected, but the motion vectors corresponding to these moving subjects are processed as not being detected. That is, a motion vector (GMV: global motion vector) corresponding to the motion of the entire image generated as the camera moves is detected.
  • GMV global motion vector
  • the movement amount is calculated, for example, as the number of movement pixels.
  • the movement amount of the image n is executed by comparing the image n with the preceding image n ⁇ 1, and the detected movement amount (number of pixels) is stored in the movement amount memory 208 as the movement amount corresponding to the image n.
  • the image memory (for compositing process) 205 is a memory for storing a process for synthesizing continuously captured images, that is, an image for generating a panoramic image.
  • This image memory (for compositing processing) 205 may be configured to store all the images of, for example, n + 1 images captured in the panoramic shooting mode, but for example, the end of the image is cut off and necessary for generating a panoramic image. It is also possible to select and save only the central area of the image that can secure the strip area that becomes. With such a setting, it is possible to reduce the required memory capacity.
  • the image memory (for composition processing) 205 not only photographed image data but also photographing parameters such as focal length [f] are recorded in association with the image as attribute information of the image. These parameters are provided to the image combining unit 220 together with the image data.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 are each used as, for example, a sensor provided in the imaging device 200 or an image analysis unit that analyzes a captured image.
  • the rotational momentum detection unit 211 is an attitude detection sensor that detects an attitude of the camera such as pitch / roll / yaw of the camera.
  • the translational momentum detection unit 212 is a motion detection sensor that detects a motion with respect to the world coordinate system as movement information of the camera.
  • the detection information of the rotational momentum detection unit 211 and the detection information of the translational momentum detection unit 212 are both provided to the image combining unit 220.
  • the detection information of the rotational momentum detection unit 211 and the detection information of the translational momentum detection unit 212 are stored in the image memory (for synthesis processing) 205 as attribute information of the photographed image together with the photographed image at the time of photographing of the image.
  • the detection information may be input from the memory (for synthesis processing) 205 to the image synthesis unit 220 together with the image to be synthesized.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 may be configured not by sensors but by an image analysis unit that executes an image analysis process.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 acquire information similar to the sensor detection information by analyzing the captured image, and provide the acquired information to the image combining unit 220.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 receive image data from the image memory (for movement amount detection) 206 and execute image analysis. Specific examples of these processes will be described later.
  • the image combining unit 220 After completion of shooting, the image combining unit 220 acquires an image from the image memory (for combining processing) 205, further acquires other necessary information, and a strip area is acquired from the image acquired from the image memory (for combining processing) 205. Execute image composition processing to cut out and connect. By this processing, the left-eye composite image and the right-eye composite image are generated.
  • the image combining unit 220 moves the amount of movement corresponding to each image stored in the movement amount memory 208 together with a plurality of images (or partial images) stored during image capturing from the image memory (for composition processing) 205 after the end of shooting. Further, detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212 is input.
  • the image combining unit 220 performs strip processing and concatenation processing from a plurality of continuous captured images using these pieces of input information, and a left-eye composite image (left-eye panoramic image) as a 2D panoramic image or 3D image, A composite image (a panoramic image for the right eye) is generated. Furthermore, after compression processing such as JPEG is performed on each image, the image is recorded in the recording unit (recording medium) 221.
  • the image combining unit 220 inputs detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212 to determine the processing mode.
  • detection information information acquired by sensor detection or image analysis
  • 2D panoramic image generation neither 3D nor 2D panoramic image generation
  • the LR image image for left eye and image for right eye
  • a warning output process to the user is performed. Note that these specific processing examples will be described in detail later.
  • the recording unit (recording medium) 221 stores the composite image combined by the image combining unit 220, that is, the left-eye composite image (left-eye panoramic image) and the right-eye composite image (right-eye panoramic image).
  • the recording unit (recording medium) 221 may be any recording medium as long as it can record digital signals.
  • a recording medium such as a memory or a magnetic tape can be used.
  • the imaging apparatus 200 has a shutter that can be operated by the user, an input operation unit for performing various inputs such as zoom setting and mode setting processing, A control unit that controls processing executed in the imaging apparatus 200, a program of processing in each of the other configuration units, a storage unit (memory) in which parameters are recorded, and the like are included.
  • the processing and data input / output of each component of the imaging device 200 shown in FIG. 10 are performed according to the control of the control unit in the imaging device 200.
  • the control unit reads a program stored in advance in a memory in the imaging device 200, and according to the program, acquires a captured image, performs data processing, generates a composite image, records the generated composite image, displays, etc. It performs general control of the processing performed in the device 200.
  • step S101 various imaging parameters are calculated.
  • information on the brightness identified by the exposure meter is acquired, and shooting parameters such as the aperture value and the shutter speed are calculated.
  • step S102 the control unit determines whether the user has performed a shutter operation.
  • the 3D image panoramic shooting mode has already been set.
  • a plurality of images are continuously shot by the shutter operation of the user, and a left-eye composite image (panoramic image) applicable to 3D image display by cutting out left-eye image strips and right-eye image strips from the shot images.
  • a process of generating and recording a composite image (panoramic image) for the right eye is generated and recording a composite image (panoramic image) for the right eye.
  • step S102 when the control unit does not detect the shutter operation by the user, the process returns to step S101.
  • step S102 when the control unit detects that the user has performed a shutter operation in step S102, the process proceeds to step S103.
  • step S103 the control unit performs control based on the parameter calculated in step S101 and starts the photographing process. Specifically, for example, adjustment of the diaphragm drive unit of the lens system 201 shown in FIG. 10 is performed to start photographing of an image.
  • the image capturing process is performed as a process of capturing a plurality of images continuously.
  • the electric signal corresponding to each of the continuously photographed images is sequentially read out from the image pickup element 202 shown in FIG. 10, and the image signal processing unit 203 executes processing such as gamma correction and contour emphasis correction. While being displayed, they are sequentially supplied to the memories 205 and 206 and the movement amount detection unit 207.
  • step S104 calculates an inter-image movement amount.
  • This process is a process of the movement amount detection unit 207 shown in FIG.
  • the movement amount detection unit 207 acquires the image of one frame before stored in the image memory (for movement amount detection) 206 together with the image signal supplied from the image signal processing unit 203, and generates the current image and one frame before. Detect the amount of movement of the image.
  • the movement amount calculated here is, for example, matching processing between pixels constituting two images taken continuously, that is, matching processing for determining the photographing area of the same subject, as described above,
  • the number of pixels moved between images is calculated. Basically, processing is performed on the assumption that the subject is stationary. When a moving subject is present, a motion vector different from the motion vector of the entire image is detected, but the motion vectors corresponding to these moving subjects are processed as not being detected. That is, a motion vector (GMV: global motion vector) corresponding to the motion of the entire image generated as the camera moves is detected.
  • GMV global motion vector
  • the movement amount is calculated, for example, as the number of movement pixels.
  • the movement amount of the image n is executed by comparing the image n with the preceding image n ⁇ 1, and the detected movement amount (number of pixels) is stored in the movement amount memory 208 as the movement amount corresponding to the image n.
  • This movement utilization saving process corresponds to the saving process of step S105.
  • step S105 the movement amount between the images detected in step S104 is associated with the ID of each continuous shot image and stored in the movement amount memory 208 shown in FIG.
  • the process proceeds to step S106, and the image captured in step S103 and processed by the image signal processing unit 203 is stored in an image memory (for synthesis processing) 205 shown in FIG.
  • the image memory (for compositing processing) 205 may be configured to store, for example, all the images of n + 1 images captured in the panoramic imaging mode (or 3D image panoramic imaging mode). For example, an end portion of the image may be cut off, and only a central region of the image that can secure a strip region necessary for generating a panoramic image (3D panoramic image) may be selected and stored. With such a setting, it is possible to reduce the required memory capacity.
  • the image memory (for composition processing) 205 may be stored after being subjected to compression processing such as JPEG.
  • step S107 the control unit determines whether the user continues pressing the shutter. That is, the timing of the end of shooting is determined. If the user continues pressing the shutter, the process returns to step S103 to repeat shooting, and imaging of the subject is repeated. On the other hand, if it is determined in step S107 that pressing of the shutter has ended, the process proceeds to step S108 in order to shift to the shooting end operation.
  • the image combining unit 220 determines an execution process in step S108. That is, the processing mode is determined by inputting the detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212.
  • the processing mode is determined by inputting the detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212.
  • (A1) Generation of 3D panoramic image (a2) Generation of 3D panoramic image (with inversion processing of LR image)
  • One of these processes is performed.
  • (a1) and (a2) also when producing
  • step S201 the image synthesis unit 220 inputs detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212.
  • the rotational momentum detection unit 211 acquires or calculates the rotational momentum ⁇ of the camera at the time when the image combining unit 220 captures an image to be subjected to the image combining process, and outputs this value to the image combining unit 220.
  • the detection information of the rotational momentum detection unit 211 may be set to be output directly from the rotational momentum detection unit 211 to the image combining unit 220, or may be recorded in the memory as image attribute information and stored in the memory
  • the configuration may be such that 220 acquires the value recorded in the memory.
  • the translational momentum detection unit 212 acquires or calculates the translational momentum t of the camera at the time when the image combining unit 220 captures an image to be subjected to the image combining process, and outputs this value to the image combining unit 220.
  • the detection information of the translational momentum detection unit 212 may be set to be directly output from the translational momentum detection unit 212 to the image combining unit 220, or may be recorded in memory together with the image as attribute information of the image.
  • the configuration may be such that 220 acquires the value recorded in the memory.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 are configured by, for example, a sensor or an image analysis unit. These specific configuration examples and processing examples will be described later.
  • step S202 the image combining unit 220 determines whether or not the rotational movement amount ⁇ of the camera at the time of image capturing acquired by the rotational movement amount detector 211 is equal to zero. Note that in consideration of measurement errors and the like, processing may be performed such that even if the detected value is not completely equal to 0, if it is a difference within a preset allowable range, it is determined to be 0.
  • the determination information of the image combining unit 220 is output to the control unit of the apparatus, and a warning or notification corresponding to the determination information is displayed on the display unit 204 under the control of the control unit, for example. Alternatively, an alarm may be output.
  • the amount of rotational movement of the camera corresponds to the example described above with reference to FIG. 9 (b1).
  • a 2D panoramic image nor a 3D panoramic image can be generated, and a warning is output to notify the user of this.
  • the process proceeds to step S204, and the process ends without performing the image combining process.
  • step S202 when it is determined in step S202 that the rotational momentum of the camera at the time of image shooting: ⁇ ⁇ 0, the process proceeds to step S205, and the translational momentum at the time of image shooting acquired by the translational momentum detection unit 212: t is equal to 0 It is determined whether or not. Note that in consideration of measurement errors and the like, processing may be performed such that even if the detected value is not completely equal to 0, if it is a difference within a preset allowable range, it is determined to be 0.
  • step S207 it is determined whether to generate a 2D panoramic image.
  • This determination process is executed, for example, as a confirmation process based on user input by executing an inquiry to the user. Alternatively, the processing is determined in accordance with preset information.
  • step S207 If it is determined in step S207 that a 2D panoramic image is to be generated, a 2D panoramic image is generated in step S208. On the other hand, if it is determined in step S207 that the 2D panoramic image is not to be generated, the process proceeds to step S204, and the process ends without performing the image combining process.
  • step S205 when it is determined that the translational momentum of the camera at the time of image shooting: t ⁇ 0, the process proceeds to step S209, and the product of the rotational momentum of the camera at the time of image shooting: ⁇ and the translational momentum: t: ⁇ ⁇ It is determined whether t is less than zero.
  • the rotational momentum of the camera: ⁇ is clockwise as shown in FIG. 5, and the translational momentum of the camera: t is movement in the rightward direction as shown in FIG.
  • the rotational momentum of the camera at the time of image capture The product of ⁇ and the translational momentum: t: ⁇ ⁇ t is 0 or more, ie, ⁇ ⁇ t ⁇ 0 If the above equation does not hold, (A1) ⁇ > 0 and t> 0, Or (A2) ⁇ ⁇ 0 and t ⁇ 0 This is the case of the above (a1) or (a2).
  • the case (a1) corresponds to the example shown in FIG.
  • the rotational direction is opposite to that in the example shown in FIG. 5, and the translational movement direction is also reverse.
  • L image left-eye panoramic image
  • R image right-eye panoramic image
  • step S209 the product of the rotational momentum of the camera at the time of image capture: ⁇ and the translational momentum: t: ⁇ ⁇ t is 0 or more, ie, ⁇ ⁇ t ⁇ 0 If it is determined that the above equation is not established, the process proceeds to step S212, and generation processing of a left eye panoramic image (L image) for a normal 3D image and a right eye panoramic image (R image) is executed.
  • L image left eye panoramic image
  • R image right eye panoramic image
  • step S209 the product of the rotational momentum of the camera at the time of image capture: ⁇ and the translational momentum: t: ⁇ ⁇ t is less than 0, ie, ⁇ ⁇ t ⁇ 0 If the above equation holds, (B1) ⁇ > 0 and t ⁇ 0, Or (B2) ⁇ ⁇ 0 and t> 0 This is the case of the above (b1) or (b2).
  • the left-eye panoramic image (L image) for the normal 3D image and the right-eye panoramic image (R image) are interchanged, that is, the left-eye panorama for the normal 3D image is performed by replacing the LR image. It is possible to generate an image (L image) and a panoramic image for the right eye (R image).
  • step S210 it is determined whether to generate a 3D panoramic image. This determination process is executed, for example, as a confirmation process based on user input by executing an inquiry to the user. Alternatively, the processing is determined in accordance with preset information.
  • step S210 If it is determined in step S210 that generation of a 3D panoramic image is to be performed, generation of a 3D panoramic image is performed in step S211. However, the process in this case is different from the process of generating the 3D panoramic image in step S212, and the image for the left eye (L image) generated in the same processing sequence as the process of generating the 3D panoramic image in step S212
  • An LR image inversion process is performed by setting the right-eye image (R image) as the left-eye image (L image).
  • step S210 If it is determined in step S210 that 3D panoramic image generation is not to be performed, the process proceeds to step S207, and it is determined whether or not 2D panoramic image generation is to be performed.
  • This determination process is executed, for example, as a confirmation process based on user input by executing an inquiry to the user. Alternatively, the processing is determined in accordance with preset information.
  • step S207 If it is determined in step S207 that a 2D panoramic image is to be generated, a 2D panoramic image is generated in step S208. On the other hand, if it is determined in step S207 that the 2D panoramic image is not to be generated, the process proceeds to step S204, and the process ends without performing the image combining process.
  • the image combining unit 220 inputs the detection information (information acquired by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212, and determines the processing mode. This process is performed as the process of step S108 in FIG.
  • step S109 indicates a branch step corresponding to the determination of the execution process of step S108.
  • the image combining unit 220 responds to the detection information (information obtained by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212.
  • A1 Generation of 3D panoramic image (step S212 in the flow of FIG. 12)
  • A2) Generation of 3D panoramic image (with inversion processing of LR image) (step S211 in the flow of FIG. 12)
  • step S208 in the flow of FIG. 12) (B) Generation of 2D panoramic image (step S208 in the flow of FIG. 12)
  • C Neither 3D nor 2D panoramic images are generated (step S204 in the flow of FIG. 12) Determine one of the above processes.
  • step S108 when the process (a1) or (a2) is determined, that is, when the 3D image combining process of step S211 or S212 is determined as the execution process in the flow shown in FIG. 12, the process proceeds to step S110.
  • the process (b) is determined in the process of step S108, that is, when the 2D image combining process of step S208 is determined as the execution process in the flow shown in FIG. 12, the process proceeds to step S121.
  • the process (c) is determined in the process of step S108, that is, if it is determined in the flow shown in FIG. 12 that no image combining process is performed in step S204, the process proceeds to step S113.
  • step S108 when the process of (c), that is, in the flow shown in FIG. 12, it is determined that no image combining process of step S204 is an execution process, the process proceeds to step S113 and imaging is not performed.
  • the recorded image is recorded in the recording unit (recording medium) 221, and the process ends. Note that, before the recording process, a process may be performed in which the process of recording is performed only when there is an intention to perform user confirmation as to whether or not to record an image and to record.
  • step S108 when the 2D image combining process of step S208 is determined as the execution process in the process of (b), that is, in the flow shown in FIG. 12, the process proceeds to step S121 and a strip for 2D panoramic image generation from each image Image combining processing as 2D panoramic image generation processing of cutting out and connecting, and generating the 2D panoramic image generated in the recording unit (recording medium) 221, and the process ends.
  • step S108 if the 3D image combining process of step S211 or S212 is determined as the execution process in the process of (a1) or (a2), that is, in the flow shown in FIG. Image combining processing as 3D panoramic image generation processing for cutting out and connecting 3D panoramic image generation strips is executed.
  • step S110 the image combining unit 220 offsets the strip areas of the left-eye image and the right-eye image as 3D images, that is, the distance between the strip areas of the left-eye image and the right-eye image (inter-strip offset): Calculate D.
  • the distance between the 2D panoramic image strip 115 and the left-eye image strip 111 which are strips for a two-dimensional composite image, and the 2D panoramic image strip
  • the distance between 115 and the right-eye image strip 112, "Offset” or “Strip Offset” d1, d2,
  • step S110 When the calculation of the inter-strip offset D, which is the distance between the strip areas of the left-eye image and the right-eye image, is completed in step S110, the process proceeds to step S111.
  • step S111 a first image combining process using a captured image is performed. Further, the process proceeds to step S112, and a second image combining process using the captured image is performed.
  • the image combining process in steps S111 to S112 is a process of generating a left-eye combined image and a right-eye combined image to be applied to 3D image display.
  • the composite image is generated, for example, as a panoramic image.
  • the left-eye composite image is generated by combining processing in which only the left-eye image strip is extracted and connected.
  • the composite image for the right eye is generated by composition processing in which only the image strip for the right eye is extracted and connected.
  • two panoramic images shown in FIG. 7 (2a) and (2b) are generated.
  • the image combining process in steps S111 to S112 is stored in the image memory (for combining process) 205 during continuous image shooting from when the shutter pressing determination in step S102 becomes Yes until the shutter pressing end is confirmed in step S107. This is performed using a plurality of images (or partial images).
  • step S111 the offset d1 is applied to determine the strip position of the left-eye image
  • step S112 the offset d1 is applied to determine the strip position of the left-eye image.
  • the image combining unit 220 The left-eye image strip for forming the left-eye composite image is set at a position offset by a predetermined amount from the center of the image to the right.
  • the right-eye image strip for forming the composite image for the right-eye is set at a position offset by a predetermined amount from the center of the image to the left.
  • the image combining unit 220 determines the strip area so as to satisfy the offset conditions that satisfy the generation conditions of the left-eye image and the right-eye image established as a 3D image in the setting process of the strip area.
  • the image combining unit 220 performs image combining by cutting out and connecting left-eye and right-eye image strips for each image, and generates a left-eye combined image and a right-eye combined image. If the image (or partial image) stored in the image memory (for composition processing) 205 is data compressed by JPEG or the like, in order to increase the processing speed, between the images obtained in step S104.
  • An adaptive decompression process may be performed in which an image area for decompressing compression such as JPEG is set only for a strip area used as a composite image based on the movement amount of.
  • steps S111 and S112 a composite image for the left eye and a composite image for the right eye to be applied to 3D image display are generated.
  • step S113 the image combined in steps S111 and S112 is generated according to an appropriate recording format (for example, CIPA DC-007 Multi-Picture Format etc.), and is stored in the recording unit (recording medium) 221. Store.
  • an appropriate recording format for example, CIPA DC-007 Multi-Picture Format etc.
  • the rotational momentum detection unit 211 detects the rotational momentum of the camera
  • the translational momentum detection unit 212 detects the translational momentum of the camera.
  • the following three examples will be described as specific examples of detection configurations in these detection units.
  • (Example 1) Detection processing example by sensor
  • (Example 2) Detection processing example by image analysis
  • (Example 3) Detection processing example by combined use of sensor and image analysis
  • these processing examples will be sequentially described.
  • Example 1 Example of Detection Processing by Sensor First, an example in which the rotational momentum detection unit 211 and the translational momentum detection unit 212 are configured as sensors will be described.
  • the translational motion of the camera can be detected, for example, by using an acceleration sensor.
  • GPS Global Positioning System
  • the process of detecting the translational momentum to which the acceleration sensor is applied is disclosed, for example, in Japanese Patent Laid-Open No. 2000-78614.
  • a method of measuring the direction based on the direction of geomagnetism using a geomagnetic sensor a method of detecting an inclination angle by applying an accelerometer based on the direction of gravity
  • a method of using an angle sensor combining a vibrating gyroscope and an acceleration sensor a method of comparing and calculating from an angle serving as a reference of an initial state using an angular velocity sensor.
  • the rotational momentum detection unit 211 can be configured by a geomagnetic sensor, an accelerometer, a vibration gyro, an acceleration sensor, an angle sensor, an angular velocity sensor, or a combination of these sensors or each sensor.
  • the translational momentum detection unit 212 can be configured by an acceleration sensor or a GPS (Global Positioning System). The rotational momentum as the detection information of these sensors and the translational momentum are provided to the image combining unit 210 directly or through the image memory (for combining processing) 205, and the image combining unit 210 based on these detected values. Determine the aspect of the synthesis process.
  • Example 2 An example of detection processing by image analysis
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 are not sensors but an image analysis unit that inputs a photographed image and executes image analysis will be described. Do.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 shown in FIG. 10 input image data to be subjected to synthesis processing from an image memory (for movement amount detection) 205 and execute analysis of the input image. , The rotational component and the translation component of the camera at the time when the image is taken are acquired.
  • a feature amount is extracted from a continuously captured image to be synthesized using a Harris corner detector or the like. Further, the optical flow between the respective images is calculated by matching between the feature amounts of the respective images or by dividing the respective images at equal intervals and using matching (block matching) in units of divided areas. Furthermore, on the premise that the camera model is a perspective projection image, it is possible to solve non-linear equations by the iterative method and extract rotational components and translational components. The details of this method are described in, for example, the following documents, and it is possible to apply this method. ("Multi View Geometry in Computer Vision", Richard Hartley and Andrew Zisserman, Cambridge University Press).
  • a method of calculating homography (Homography) from optical flow and calculating rotation components and translation components may be applied more simply by assuming that the subject is a plane.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 in FIG. 10 are configured as an image analysis unit instead of a sensor.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 input image data to be subjected to the composition processing from the image memory (for movement amount detection) 205, execute analysis of the input image, and rotate the camera at the time of image shooting. Get the components and translational components.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 have a sensor function and both functions as an image analysis unit, and sensor detection information and image analysis A process example of acquiring both of the information will be described. Instead, an example configured as an image analysis unit that inputs a photographed image and executes image analysis will be described.
  • the continuous shot image is converted to a continuous shot image including only translational motion by correction processing so that the angular velocity becomes 0 on the basis of the angular velocity data obtained by the angular velocity sensor, and the acceleration data obtained by the acceleration sensor and the continuous shooting after the correction processing Translational motion can be calculated from the image.
  • This process is disclosed, for example, in Japanese Patent Laid-Open No. 2000-222580.
  • the rotational momentum detection unit 211 and the translational momentum detection unit 212 are configured to include an angular velocity sensor and an image analysis unit for the translational momentum detection unit 212, and the above-described Japanese Patent Laid-Open No. 2000-222580
  • the translational momentum at the time of image photographing is calculated by applying the method disclosed in the publication.
  • the rotational momentum detection unit 211 is an example of detection processing by the above-described (example 1) sensor or (example 2) an example of detection processing by image analysis, any sensor configuration described in these known examples, or an image analysis section configuration. I assume.
  • the image combining unit 220 acquires an image at the time of capturing an image acquired or calculated by the processing in the rotational momentum detection unit 211 and the translational momentum detection unit 212 described above (camera The processing mode is changed based on the rotational momentum and the translational momentum of.
  • the image combining unit 220 responds to the detection information (information obtained by sensor detection or image analysis) of the rotational momentum detection unit 211 and the translational momentum detection unit 212.
  • A1 Generation of 3D panoramic image step S212 in the flow of FIG. 12
  • A2) Generation of 3D panoramic image with inversion processing of LR image
  • B) Generation of 2D panoramic image step S208 in the flow of FIG. 12
  • C Neither 3D nor 2D panoramic images are generated (step S204 in the flow of FIG. 12) Determine one of the above processes.
  • the detection information of the rotational momentum detection unit 211 and the translational momentum detection unit 212 and the processing determined according to the detection information are shown in FIG.
  • rotational momentum ⁇ ⁇ 0, and translational momentum: t ⁇ 0 (when both are not zero)
  • 2D composition and 3D composition are also possible.
  • 3D image composition since imaging is performed in a direction in which the optical axes of the cameras intersect, in the case of 3D image composition, it is necessary to record the polarities of the left and right images in reverse. In this case, for example, the user is inquired of which image to record and confirmed, and then the processing desired by the user is executed. If the user does not want to record data, it returns to the standby state without recording.
  • the rotational momentum: ⁇ ⁇ 0, and the translational momentum: t ⁇ 0 (when both are not zero), and the rotational momentum: ⁇ and the translational momentum: each sign of t is the same, ie, ⁇ ⁇ t> 0 (State 1, State 9), 2D composition and 3D composition are also possible.
  • 3D synthesis is performed, and the camera returns to the standby state.
  • it may be set to execute processing desired by the user after inquiring of the user which one of 2D images and 3D images is to be recorded. If the user does not want to record data, it returns to the standby state without recording.
  • the series of processes described in the specification can be performed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in memory in a computer built into dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It is possible to install and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be installed from a recording medium to a computer, or can be installed in a recording medium such as a built-in hard disk by receiving a program via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same housing.
  • a configuration is realized that determines a composite image that can be generated based on the motion and generates the composite image determined.
  • a composite image for left eye and a composite image for right eye for three-dimensional image display motion information of an imaging device at the time of image capturing is analyzed.
  • DESCRIPTION OF SYMBOLS 10 camera 20 image 21 2D panoramic image strip 30 2D panoramic image 51 left-eye image strip 52 right-eye image strip 70 imaging device 72 left-eye image 73 right-eye image 100 camera 101 virtual imaging surface 102 optical center 110 image 111 left-eye image Strip 112 Image strip for right eye 115 Strip for 2D panoramic image 200 Imaging device 201 Lens system 202 Imaging device 203 Image signal processing unit 204 Display unit 205 Image memory (for composition processing) 206 Image memory (for movement amount detection) 207 movement amount detection unit 208 movement amount memory 211 rotational momentum detection unit 212 translational momentum detection unit 220 image combining unit 221 recording unit

Abstract

複数の画像から切り出した短冊領域を連結して2次元パノラマ画像や3次元画像表示用画像を生成する構成において、カメラの動きに基づいて生成可能な合成画像を決定して決定した合成画像を生成する。複数画像から切り出した短冊領域を連結して2次元パノラマ画像や3次元画像用の左右目用画像を生成する構成において、画像撮影時の撮像装置の動きを解析し、2次元パノラマ画像や3次元画像を生成可能であるか否かを判定し、生成可能な合成画像を生成する。画像撮影時のカメラの回転運動量(θ)と、並進運動量(t)に応じて、(a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、(b)2次元パノラマ画像の合成画像生成処理、または、(c)合成画像生成の中止、これら(a)~(c)いずれかの処理態様を決定し、決定した処理を行う。また、ユーザに対する処理内容の通知や警告を実行する。

Description

画像処理装置、撮像装置、および画像処理方法、並びにプログラム
 本発明は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、カメラを移動させながら撮影した複数の画像を利用して3次元画像(3D画像)表示用の画像の生成処理を行う画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
 3次元画像(3D画像またはステレオ画像とも呼ばれる)を生成するためには、異なる視点からの画像、すなわち左目用画像と右目用画像を撮影することが必要となる。これらの異なる視点からの画像を撮影する方法は大別すると2通りに区分できる。
 第1の手法は、複数のカメラユニットを用いて同時に異なる視点から被写体を撮像する、いわゆる多眼式カメラを用いた手法である。
 第2の手法は、単一のカメラユニットを用いて撮像装置を移動させて、異なる視点からの画像を連続的に撮像する、いわゆる単眼式カメラを用いた手法である。
 例えば、上記第1の手法に利用される多眼式カメラシステムは離間した位置にレンズを備え、異なる視点からの被写体を同時に撮影可能とした構成を持つ。しかし、このような多眼式カメラシステムは、複数のカメラユニットが必要なためカメラシステムが高価となるという問題がある。
 これに対して、上記第2の手法に利用される単眼式カメラシステムは、従来型のカメラと同様の1つのカメラユニットを備えた構成でよい。1つのカメラユニットを備えたカメラを移動させて異なる視点からの画像を連続的に撮影し、複数の撮影画像を利用して3次元画像を生成するものである。
 このように、単眼式カメラシステムを利用する場合、従来型のカメラと同様の1つのカメラユニットのみでよく比較的安価なシステムとして実現できる。
 なお、単眼式カメラを移動しながら撮影した画像から被写体の距離情報を得る手法を開示した従来技術として、非特許文献1[「全方位視野の距離情報獲得」(電子情報通信学会論文誌,D-II,Vol.J74-D-II,No.4,1991)]がある。なお、非特許文献2[「Omni-Directional Stereo」IEEE Transaction On Pattern Analysis And Machine Intelligence,VOL.14,No.2,February 1992]にも非特許文献1と同一の内容の報告が記載されている。
 これらの非特許文献1,2は、カメラを回転台上の回転中心から一定距離、離間した円周上に固定して設置し、回転台を回転させながら連続的に画像を撮影して2本の垂直スリットを通して得られる2つの画像を用いて被写体の距離情報を得る手法を開示している。
 また特許文献1(特開平11-164326号公報)は、非特許文献1,2の構成と同様、カメラを回転台上の回転中心から一定距離おいて設置して回転させながら画像を撮影し、2本のスリットを通して得られる2つの画像を用いることで、3次元画像表示に適用する左目用のパノラマ画像と右目用のパノラマ画像を取得する構成を開示している。
 このように、複数の従来技術において、カメラを回転させてスリットを通して得られる画像を用いることで、3次元画像表示に適用する左目用の画像と右目用の画像を取得することが可能であることが開示されている。
 一方、カメラを移動させながら画像を撮影して、複数の撮影画像を連結することでパノラマ画像、すなわち2次元の横長画像を生成する手法が知られている。例えば特許文献2(特許第3928222号公報)や、特許文献3(特許第4293053号公報)などにパノラマ画像の生成手法が開示されている。
 このように2次元のパノラマ画像の生成に際してもカメラの移動による複数の撮影画像が利用される。
 上記非特許文献1,2や上記特許文献1は、パノラマ画像の生成処理と同様の撮影処理によって撮影された複数の画像を適用して、所定領域の画像を切り出して連結することで3次元画像としての左目用画像と右目用画像が得られる原理について説明している。
 しかし、例えばユーザが手に持ったカメラを振り回す動作によってカメラを移動させて撮影した複数の撮影画像から所定領域の画像を切り出し、連結することによって3次元画像としての左目用画像と右目用画像、あるいは2次元パノラマ画像を生成する場合、ユーザによるカメラの移動態様によっては3次元画像表示用の左目用画像と右目用画像が生成できない場合がある。あるいは2次元パノラマ画像が生成できない場合が発生する。結果として意味のない画像データが記録データとしてメディアに記録されてしまい、再生時にユーザの意図に沿わない画像が再生されたり、あるいは再生不可といった事態が発生することがある。
特開平11-164326号公報 特許第3928222号公報 特許第4293053号公報
「全方位視野の距離情報獲得」(電子情報通信学会論文誌,D-II,Vol.J74-D-II,No.4,1991) 「Omni-Directional Stereo」IEEE Transaction On Pattern Analysis And Machine Intelligence,VOL.14,No.2,February 1992
 本発明は、例えば、上述の問題点に鑑みてなされたものであり、カメラを移動させて撮影した複数の画像から3次元画像表示に適用する左目用画像と右目用画像、あるいは2次元パノラマ画像を生成する構成において、カメラの回転や移動状態に応じて最適な画像生成処理を行い、あるいは2Dパノラマ画像や3D画像の生成ができない場合には、その旨をユーザに警告することを可能とした画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本発明の第1の側面は、
 異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成する画像合成部を有し、
 前記画像合成部は、
 画像撮影時の撮像装置の動き情報に基づいて、
 (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
 (b)2次元パノラマ画像の合成画像生成処理、または、
 (c)合成画像生成の中止、
 いずれかの処理態様を決定し、決定した処理を行う画像処理装置にある。
 さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、画像撮影時の撮像装置の回転運動量(θ)を取得または算出する回転運動量検出部と、画像撮影時の撮像装置の並進運動量(t)を取得または算出する並進運動量検出部を有し、前記画像合成部は、前記回転運動量検出部の検出した回転運動量(θ)と、前記並進運動量検出部の検出した並進運動量(t)に基づいて処理態様を決定する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、前記画像合成部の決定情報に応じた警告または通知をユーザに提示する出力部を有する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像合成部は、前記回転運動量検出部の検出した回転運動量(θ)が0の場合、3次元画像および2次元パノラマ画像の合成画像生成処理を中止する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像合成部は、前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)が0の場合、2次元パノラマ画像の合成画像生成処理、または合成画像生成中止のいずれかを実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像合成部は、前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)も0でない場合、3次元画像または、2次元パノラマ画像の合成画像生成処理のいずれかを実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像合成部は、前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)も0でない場合において、θ・t<0である場合と、θ・t>0である場合において、生成する3D画像のLR画像を逆の設定とする処理を実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記回転運動量検出部は、画像処理装置の回転運動量を検出するセンサである。
 さらに、本発明の画像処理装置の一実施態様において、前記並進運動量検出部は、画像処理装置の並進運動量を検出するセンサである。
 さらに、本発明の画像処理装置の一実施態様において、前記回転運動量検出部は、撮影画像の解析により画像撮影時の回転運動量を検出する画像解析部である。
 さらに、本発明の画像処理装置の一実施態様において、前記並進運動量検出部は、撮影画像の解析により画像撮影時の並進運動量を検出する画像解析部である。
 さらに、本発明の第2の側面は、
 撮像部と、請求項1~11いずれかに記載の画像処理を実行する画像処理部を備えた撮像装置にある。
 さらに、本発明の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 画像合成部が、異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成する画像合成ステップを実行し、
 前記画像合成ステップは、
 画像撮影時の撮像装置の動き情報に基づいて、
 (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
 (b)2次元パノラマ画像の合成画像生成処理、または、
 (c)合成画像生成の中止、
 いずれかの処理態様を決定し、決定した処理を行うステップである画像処理方法にある。
 さらに、本発明の第4の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 画像合成部に、異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成させる画像合成ステップを実行させ、
 前記画像合成ステップにおいては、
 画像撮影時の撮像装置の動き情報に基づいて、
 (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
 (b)2次元パノラマ画像の合成画像生成処理、または、
 (c)合成画像生成の中止、
 いずれかの処理態様を決定し、決定した処理を行なわせるプログラムにある。
 なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本発明の一実施例の構成によれば複数の画像から切り出した短冊領域を連結して2次元パノラマ画像や3次元画像表示用画像を生成する構成において、カメラの動きに基づいて生成可能な合成画像を決定して決定した合成画像を生成する構成が実現される。複数画像から切り出した短冊領域を連結して2次元パノラマ画像や、3次元画像表示用の左目用合成画像と右目用合成画像を生成する構成において、画像撮影時の撮像装置の動き情報を解析して、2次元パノラマ画像や3次元画像を生成可能であるか否かを判定し、生成可能な合成画像の生成処理を行う。画像撮影時のカメラの回転運動量(θ)と、並進運動量(t)に応じて、(a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、(b)2次元パノラマ画像の合成画像生成処理、または、(c)合成画像生成の中止、これら(a)~(c)いずれかの処理態様を決定し、決定した処理を行う。また、ユーザに対する処理内容の通知や警告を実行する。
パノラマ画像の生成処理について説明する図である。 3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)の生成処理について説明する図である。 3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)の生成原理について説明する図である。 仮想撮像面を用いた逆モデルについて説明する図である。 パノラマ画像(3Dパノラマ画像)の撮影処理のモデルについて説明する図である。 パノラマ画像(3Dパノラマ画像)の撮影処理において撮影される画像と左目用画像および右目用画像の短冊の設定例について説明する図である。 短冊領域の連結処理と、3D左目用合成画像(3DパノラマL画像)および3D右目用合成画像(3DパノラマR画像)の生成処理例について説明する図である。 カメラを移動させながら連続撮像された複数の画像の各々から短冊領域を切り出して3D画像や2Dパノラマ画像を生成する場合の理想的なカメラの移動処理例について説明する図である。 カメラを移動させながら連続撮像された複数の画像の各々から短冊領域を切り出して3D画像や2Dパノラマ画像を生成することができなくなるカメラの移動処理例について説明する図である。 本発明の画像処理装置の一実施例である撮像装置の構成例について説明する図である。 本発明の画像処理装置の実行する画像撮影および合成処理シーケンスについて説明するフローチャートを示す図である。 本発明の画像処理装置の実行する処理決定処理シーケンスについて説明するフローチャートを示す図である。 回転運動量検出部211と、並進運動量検出部212の検出情報と、これらの検出情報に応じて決定される処理をまとめて示す図である。
 以下、図面を参照しながら、本発明の画像処理装置、撮像装置、および画像処理方法、並びにプログラムについて説明する。説明は以下の項目順に行う。
 1.パノラマ画像の生成と3次元(3D)画像生成処理の基本構成について
 2.カメラ移動により撮影した複数画像の短冊領域を利用した3D画像生成における問題点
 3.本発明の画像処理装置の構成例について
 4.画像撮影および画像処理シーケンスについて
 5.回転運動量検出部と、並進運動量検出部の具体的構成例について
 6.回転運動量と並進運動量に基づく処理の切り替え例について
  [1.パノラマ画像の生成と3次元(3D)画像生成処理の基本構成について]
 本発明は、撮像装置(カメラ)を移動させながら連続的に撮影した複数の画像を用い、各画像から短冊状に切り出した領域(短冊領域)を連結して3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)を生成する処理に関する。
 なお、カメラを移動させながら連続的に撮影した複数の画像を用いて2次元のパノラマ画像(2Dパノラマ画像)を生成することを可能としたカメラは、すでに実現され利用されている。まず、2次元合成画像として生成されるパノラマ画像(2Dパノラマ画像)の生成処理について図1を参照して説明する。図1には、
 (1)撮影処理
 (2)撮影画像
 (3)2次元合成画像(2Dパノラマ画像)
 これらを説明する図を示している。
 ユーザは、カメラ10をパノラマ撮影モードにして、カメラ10を手に持ち、シャッターを押して図1(1)に示すように左(A点)から右(B点)にカメラを移動させる。カメラ10はパノラマ撮影モード設定下でユーザによるシャッター押下を検出すると、連続的な画像撮影を実行する。例えば、数10~100枚程度の画像を連続的に撮影する。
 これらの画像が図1(2)に示す画像20である。これら複数の画像20は、カメラ10を移動させながら連続撮影した画像であり、異なる視点からの画像となる。例えば100枚の異なる視点から撮影された画像20がメモリ上に順次記録される。カメラ10のデータ処理部は、図1(2)に示す複数画像20をメモリから読み出して、各画像からパノラマ画像を生成するための短冊領域を切り出して、切り出した短冊領域を連結する処理を実行して図1(3)に示す2Dパノラマ画像30を生成する。
 図1(3)に示す2Dパノラマ画像30は、2次元(2D)の画像であり、単に、撮影画像の一部を切り出して連結することで横長にした画像である。図1(3)に示す点線が画像の連結部を示している。各画像20の切り出し領域を短冊領域と呼ぶ。
 本発明の画像処理装置あるいは撮像装置は、この図1に示すと同様の画像撮影処理、すなわち、図1(1)に示すようにカメラを移動させながら連続撮影した複数の画像を利用して3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)を生成する。
 この左目用画像(L画像)と右目用画像(R画像)を生成する処理の基本構成について図2を参照して説明する。
 図2(a)には、図1(2)に示すパノラマ撮影において撮影された1枚の画像20を示している。
 3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)は、図1を参照して説明した2Dパノラマ画像の生成処理と同様、この画像20から所定の短冊領域を切り出して連結することで生成する。
 ただし、切り出し領域とする短冊領域は、左目用画像(L画像)と右目用画像(R画像)とでは異なる位置とする。
 図2(a)に示すように、左目用画像短冊(L画像短冊)51と、右目用画像短冊(R画像短冊)52は、切り出し位置が異なっている。図2には1つの画像20についてのみ示しているが、図1(2)に示すカメラを移動させて撮影した複数の画像各々について、異なる切り出し位置の左目用画像短冊(L画像短冊)と、右目用画像短冊(R画像短冊)を各々設定する。
 その後、左目用画像短冊(L画像短冊)のみを集めて連結することで、図2(b1)3D左目用パノラマ画像(3DパノラマL画像)を生成することができる。
 また、右目用画像短冊(R画像短冊)のみを集めて連結することで、図2(b2)3D右目用パノラマ画像(3DパノラマR画像)を生成することができる。
 このように、カメラを移動させながら撮影した複数画像各々からの切り出し位置を異ならせて設定した短冊を連結することで、3次元(3D)画像表示に適用する左目用画像(L画像)と右目用画像(R画像)を生成することが可能となる。図3を参照してこの原理について説明する。
 図3には、カメラ10を移動させて2つの撮影地点(a),(b)において被写体80を撮影した状況を示している。(a)地点では被写体80の画像は、カメラ10の撮像素子70の左目用画像短冊(L画像短冊)51に左側から見た画像が記録される。次に、カメラ10が移動した(b)地点では被写体80の画像は、カメラ10の撮像素子70の右目用画像短冊(R画像短冊)52に右側から見た画像が記録される。
 このように、同一被写体に対する異なる視点からの画像が撮像素子70の所定領域(短冊領域)に記録される。
 これらを個別に抽出、すなわち、左目用画像短冊(L画像短冊)のみを集めて連結することで、図2(b1)3D左目用パノラマ画像(3DパノラマL画像)が生成され、右目用画像短冊(R画像短冊)のみを集めて連結することで、図2(b2)3D右目用パノラマ画像(3DパノラマR画像)が生成される。
 なお、図3では、理解を容易にするためカメラ10が被写体80の左側から右側に被写体をクロスする移動の設定として示しているが、このようにカメラ10が被写体80をクロスする移動を行うことは必須ではない。カメラ10の撮像素子70の所定領域に異なる視点からの画像が記録できれば、3D画像表示に適用する左目用画像と右目用画像を生成することができる。
 次に、図4を参照して、以下の説明において適用する仮想撮像面を用いた逆モデルについて説明する。図4には、
 (a)画像撮影構成
 (b)順モデル
 (c)逆モデル
 これらの各図を示している。
 図4(a)に示す画像撮影構成は、図3を参照して説明したと同様のパノラマ画像の撮影時の処理構成を示す図である。
 図4(b)は、図4(a)に示す撮影処理において実際にカメラ10内の撮像素子70に撮り込まれる画像の例を示している。
 撮像素子70には、図4(b)に示すように左目用画像72、右目用画像73が上下反転して記録される。このような反転した画像を利用して説明すると混乱しやすいため、以下の説明では、図4(c)に示す逆モデルを利用して説明する。
 なお、この逆モデルは撮像装置の画像の解説等においては頻繁に利用されるモデルである。
 図4(c)に示す逆モデルは、カメラの焦点に対応する光学中心102の前方に仮想撮像素子101を設定し、この仮想撮像素子101に被写体像が撮り込まれるものと想定している。図4(c)に示すように仮想撮像素子101には、カメラ前方左側の被写体A91が左側、カメラ前方右側の被写体B92が右側に撮り込まれ、上下も反転しない設定となり、実際の被写体の位置関係をそのまま反映している。すなわち、仮想撮像素子101上の画像は、実際の撮影画像と同じ画像データである。
 以下の説明では、この仮想撮像素子101を用いた逆モデルを適用して説明を行う。
 ただし、図4(c)に示すように、仮想撮像素子101上では、左目用画像(L画像)111は、仮想撮像素子101上の右側に撮り込まれ、右目用画像(R画像)112は仮想撮像素子101上の左側に撮り込まる。
  [2.カメラ移動により撮影した複数画像の短冊領域を利用した3D画像や2Dパノラマ画像生成における問題点]
 次に、カメラ移動により撮影した複数画像の短冊領域を利用した3D画像や2Dパノラマ画像生成における問題点について説明する。
 パノラマ画像(2D/3Dパノラマ画像)の撮影処理のモデルとして、図5に示す撮影モデルを想定する。図5に示すように、カメラ100の光学中心102が回転中心である回転軸Pから距離R(回転半径)だけ離れた位置に設定されるようにカメラ100を置く。
 仮想撮像面101は光学中心102から、焦点距離fだけ回転軸Pから外側に設定される。
 このような設定で、カメラ100を回転軸P回りに右回り(AからB方向)に回転させて、連続的に複数枚の画像を撮影する。
 各撮影ポイントにおいて、2Dパノラマ画像生成用短冊の他、左目用画像短冊111、右目用画像短冊112の各画像が仮想撮像素子101上に記録される。
 記録画像は例えば図6に示すような構成となる。
 図6は、カメラ100によって撮影された画像110を示している。なお、この画像110は仮想撮像面101上の画像と同じである。
 画像110に対して、図6に示すように画像中心部から左にオフセットさせて短冊状に切り抜いた領域(短冊領域)を右目用画像短冊112とし、右にオフセットさせて短冊状に切り抜いた領域(短冊領域)を左目用画像短冊111とする。
 なお、図6には、2次元(2D)パノラマ画像生成時に利用する2Dパノラマ画像用短冊115を示している。
 図6に示すように、2次元合成画像用の短冊である2Dパノラマ画像短冊115と左目用画像短冊111との距離、および2Dパノラマ画像短冊115と右目用画像短冊112との距離を、
 「オフセット」、または「短冊オフセット」=d1,d2
 と定義する。
 さらに、左目用画像短冊111と右目用画像短冊112との距離を、
 「短冊間オフセット」=D
 と定義する。
 なお、
 短冊間オフセット=(短冊オフセット)×2
 D=d1+d2
 となる。
 短冊幅wは、2Dパノラマ画像短冊115と、左目用画像短冊111と、右目用画像短冊112ともすべて共通の幅wとなる。この短冊幅は、カメラの移動速度等によって変化する。カメラの移動速度が早い場合は短冊幅wが広くなり、遅い場合は狭くなる。この点については後段でさらに説明する。
 短冊オフセットや短冊間オセットは様々な値に設定可能である。例えば短冊オフセットを大きくすれば、左目用画像と右目用画像の視差がより大きくなり、短冊オフセットを小さくすれば、左目用画像と右目用画像の視差が小さくなる。
 短冊オフセット=0とした場合は、
 左目用画像短冊111=右目用画像短冊112=2Dパノラマ画像短冊115
 となる。
 この場合は、左目用画像短冊111を合成して得られる左目用合成画像(左目用パノラマ画像)と、右目用画像短冊112を合成して得られる右目用合成画像(右目用パノラマ画像)は全く同じ画像、すなわち、2Dパノラマ画像短冊115を合成して得られる2次元パノラマ画像と同じ画像となり、3次元画像表示には利用できなくなる。
 なお、以下の説明では、短冊幅wや、短冊オフセット、短冊間オフセットの長さは画素数(pixel)によって規定される値として説明する。
 カメラ100内のデータ処理部は、カメラ100を移動させながら連続撮像された画像間の動きベクトルを求め、前述した短冊領域の絵柄が繋がるように位置あわせをしながら、各画像から切り出す短冊領域を順次決定し、各画像から切り出した短冊領域を連結する。
 すなわち各画像から左目用画像短冊111のみを選択して連結合成して左目用合成画像(左目用パノラマ画像)を生成し、右目用画像短冊112のみを選択して連結合成して右目用合成画像(右目用パノラマ画像)を生成する。
 図7(1)は短冊領域の連結処理例を示す図である。各画像の撮影時間間隔をΔtとして、撮影時間:T=0~nΔtの間にn+1枚の画像を撮影したことを想定している。これらn+1枚の各画像から取り出した短冊領域を連結する。
 ただし、3D左目用合成画像(3DパノラマL画像)を生成する場合は、左目用画像短冊(L画像短冊)111のみを抽出して連結する。また、3D右目用合成画像(3DパノラマR画像)を生成する場合は、右目用画像短冊(R画像短冊)112のみを抽出して連結する。
 このように左目用画像短冊(L画像短冊)111のみを集めて連結することで、図7(2a)3D左目用合成画像(3DパノラマL画像)が生成される。
 また、右目用画像短冊(R画像短冊)112のみを集めて連結することで、図7(2b)3D右目用合成画像(3DパノラマR画像)が生成される。
 図6、図7を参照して説明したように、
 画像100に設定される/2Dパノラマ画像短冊115を合成して2次元パノラマ画像が生成される。さらに、
 画像100の中心から右側にオフセットした短冊領域をつなぎ合わせて、図7(2a)3D左目用合成画像(3DパノラマL画像)が生成される。
 画像100の中心から左側にオフセットした短冊領域をつなぎ合わせて、図7(2b)3D右目用合成画像(3DパノラマR画像)が生成される。
 これら2枚の画像には、先に図3を参照して説明したように、基本的に同じ被写体が写っているが、同じ被写体でも互いに異なる位置から撮像されているので、視差が生じている。これら視差を有する2つの画像を3D(ステレオ)画像を表示可能な表示装置に表示することで、撮像対象の被写体を立体的に表示することができる。
 なお、3D画像の表示方式には様々な方式がある。
 例えば、偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する3D画像表示方式、あるいは、液晶シャッターを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する3D画像表示方式などがある。
 上述した短冊連結処理によって生成された左目用画像、右目用画像は、これらの各方式に適用可能である。
 上述したようにカメラを移動させながら連続撮像された複数の画像の各々から短冊領域を切り出して左目用画像と右目用画像を生成することで、異なる視点、すなわち左目位置と右目位置から観察した左目用画像、右目用画像を生成することができる。
 しかし、カメラを移動させながら連続撮像された複数の画像の各々から短冊領域を切り出してもこのような3D画像や2Dパノラマ画像を生成できない場合がある。
 具体的には、例えば図8(A)に示すように、カメラが円弧状を光軸が交差しないように動く場合は、3D画像や2Dパノラマ画像を生成する短冊の切り出しが可能となる。
 しかし、このような動き以外の動きを伴って撮影された画像からは3D画像や2Dパノラマ画像を生成する短冊の切り出しが不可能となる場合がある。
 例えば、図9に示す(b1)カメラが回転を伴わない並進運動のみを行う場合、あるいは、(b2)カメラの移動に伴う光軸が交差するような円弧状に沿って移動する場合、このような場合である。
 ユーザがカメラを持って振り回し動作などのカメラ移動を行う場合、図8に示すような理想的な軌跡を描くように移動させることは困難であり図9(b1),(b2)のような移動になってしまうこともある。
 本発明は、このような様々な移動態様で画像が撮影された場合、カメラの回転動作や並進動作に応じて最適な画像生成処理を行い、あるいは2Dパノラマ画像や3D画像の生成ができない場合には、その旨をユーザに警告することを可能とした画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 以下、この処理の詳細について説明する。
  [3.本発明の画像処理装置の構成例について]
 まず、本発明の画像処理装置の一実施例である撮像装置の構成例について図10を参照して説明する。
 図10に示す撮像装置200は、先に図1を参照して説明したカメラ10に相当し、例えばユーザが手に持ち、パノラマ撮影モードで複数の画像を連続撮影することが可能な構成を持つ。
 被写体からの光はレンズ系201を経て撮像素子202に入射する.撮像素子202は例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサによって構成される。
 撮像素子202に入射した被写体像は、撮像素子202によって電気信号に変換される。なお、図示しないが、撮像素子202は所定の信号処理回路を有し、信号処理回路において変換された電気信号をさらにデジタル画像データに変換して、画像信号処理部203に供給する。
 画像信号処理部203では、ガンマ補正や輪郭強調補正等の画像信号処理を行い、信号処理結果としての画像信号を表示部204に表示する。
 さらに、画像信号処理部203の処理結果としての画像信号は、
 合成処理に適用するための画像メモリである画像メモリ(合成処理用)205、
 連続撮影された各画像間の移動量を検出するための画像メモリである画像メモリ(移動量検出用)206、
 各画像間の移動量を算出する移動量算出部207、
 これらの各部に提供される。
 移動量検出部207は、画像信号処理部203から供給される画像信号とともに、画像メモリ(移動量検出用)206に保存された1フレーム前の画像を取得し、現在の画像と1フレーム前の画像の移動量を検出する。例えば連続して撮影された2つの画像を構成する画素間のマッチング処理、すなわち同一被写体の撮影領域を判別するマッチング処理を実行して、各画像間での移動した画素数を算出するものである。なお、基本的には被写体は静止していると仮定した処理を行う。移動被写体が存在する場合は、画像全体の動きベクトルと異なる動きベクトルが検出されるが、これらの移動被写体に対応する動きベクトルは検出対象外として処理を行う。すなわち、カメラ移動に伴って発生する画像全体の動きに対応する動きベクトル(GMV:グローバルモーションベクトル)を検出する。
 なお移動量は例えば移動画素数として算出する。画像nの移動量は、画像nと、先行画像n-1との比較により実行し、検出された移動量(画素数)を画像nに対応する移動量として移動量メモリ208に格納する。
 なお、画像メモリ(合成処理用)205には、連続撮影された画像の合成処理、すなわちパノラマ画像を生成するための画像を保存するメモリである。この画像メモリ(合成処理用)205は、パノラマ撮影モードで撮影された例えばn+1枚の画像のすべての画像を保存する構成としてもよいが、例えば画像の端部を切り落とし、パノラマ画像の生成に必要となる短冊領域を確保できるような画像の中央領域のみを選択して保存しておく設定としてもよい。このような設定とすることで、必要とするメモリ容量を削減することが可能となる。
 また、画像メモリ(合成処理用)205は、撮影画像データのみならず、焦点距離[f]等の撮影パラメータ等も画像の属性情報として画像に対応づけて記録される。これ等のパラメータは画像データとともに画像合成部220に提供される。
 回転運動量検出部211、並進運動量検出部212は、例えばそれぞれ撮像装置200に備えられたセンサ、あるいは撮影画像の解析を行う画像解析部として公正される。
 センサとして構成される場合、回転運動量検出部211は、カメラのピッチ/ロール/ヨーといったカメラの姿勢を検出する姿勢検出センサである。並進運動量検出部212は、カメラの移動情報として世界座標系に対する動きを検出する動き検出センサである。回転運動量検出部211の検出情報と、並進運動量検出部212の検出情報は、ともに画像合成部220に提供される。
 なお、これらの回転運動量検出部211の検出情報と、並進運動量検出部212の検出情報は、画像の撮影時に撮影画像とともに撮影画像の属性情報として画像メモリ(合成処理用)205に格納し、画像メモリ(合成処理用)205から画像合成部220に合成対象の画像とともに検出情報を入力する構成としてもよい。
 また、回転運動量検出部211と、並進運動量検出部212は、センサではなく画像解析処理を実行する画像解析部によって構成してもよい。回転運動量検出部211と、並進運動量検出部212は、撮影画像の解析によってセンサ検出情報と同様の情報を取得して、取得情報を画像合成部220に提供する。この場合、回転運動量検出部211と、並進運動量検出部212は、画像メモリ(移動量検出用)206から画像データを入力して画像解析を実行する。これらの処理の具体例については後段で説明する。
 撮影終了後、画像合成部220は、画像メモリ(合成処理用)205から画像を取得し、さらにその他の必要情報を取得して、画像メモリ(合成処理用)205から取得した画像から短冊領域を切り出して連結する画像合成処理を実行する。この処理により、左目用合成画像と、右目用合成画像を生成する。
 画像合成部220は、撮影終了後に、画像メモリ(合成処理用)205から撮影中に保存された複数の画像(あるいは部分画像)とともに、移動量メモリ208に保存された各画像対応の移動量、さらに回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)を入力する。
 画像合成部220は、これらの入力情報を用いて複数の連続撮影画像からの短冊切り出しと連結処理を行い、2Dパノラマ画像あるいは3D画像としての左目用合成画像(左目用パノラマ画像)と、右目用合成画像(右目用パノラマ画像)を生成する。さらに、各画像についてJPEG等の圧縮処理を行った後、記録部(記録メディア)221に記録する。
 なお、画像合成部220では、回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)を入力して、処理態様を決定する。
 具体的には、
 (a)3Dパノラマ画像の生成
 (b)2Dパノラマ画像の生成
 (c)3D,2Dパノラマ画像のいずれも生成しない
 これらのいずれかの処理を行う。
 なお、(a)3Dパノラマ画像の生成する場合にも、検出情報に応じてLR画(左目用画像と右目用画像)の反転等を行う場合がある。
 さらに、(c)3D,2Dパノラマ画像のいずれも生成しない場合にはユーザに対する警告出力処理等を実行する。
 なお、これらの具体的処理例については後段で詳細に説明する。
 記録部(記録メディア)221は、画像合成部220において合成された合成画像、すなわち、左目用合成画像(左目用パノラマ画像)と、右目用合成画像(右目用パノラマ画像を保存する。
 記録部(記録メディア)221は、デジタル信号を記録可能な記録媒体であれば、どのような記録媒体でも良く、例えばハードディスク、光磁気ディスク、DVD(Digital Versatile Disc)、MD(Mini Disk )、半導体メモリ、磁気テープといった記録媒体を用いることができる。
 なお、図10には示していないが、図10に示す構成以外に撮像装置200はユーザによる操作の可能なシャッターや、ズーム設定、モード設定処理などの各種入力を行なうための入力操作部、さらに、撮像装置200において実行される処理の制御を行う制御部や、他の各構成部での処理のプログラム、パラメータを記録した記憶部(メモリ)等を有する。
 図10に示す撮像装置200の各構成部の処理やデータ入出力は、撮像装置200内の制御部の制御に従って行われる。制御部は、撮像装置200内のメモリに予め格納されたプログラムを読み出して、プログラムに従って、撮影画像の取得、データ処理、合成画像の生成、生成した合成画像の記録処理、あるいは表示処理等、撮像装置200において実行される処理の全般的な制御を実行する。
  [4.画像撮影および画像処理シーケンスについて]
 次に、図11に示すフローチャートを参照して本発明の画像処理装置の実行する画像撮影および合成処理シーケンスの一例について説明する。
 図11に示すフローチャートに従った処理は、例えば図10に示す撮像装置200内の制御部の制御のもとに実行される。
 図11に示すフローチャートの各ステップの処理について説明する。
 まず、画像処理装置(例えば撮像装置200)は電源ONにより、ハードウェアの診断や初期化を行った後、ステップS101へ移行する。
 ステップS101では、各種の撮影パラメータを計算する。このステップS101では、例えば露出計により識別された明るさに関する情報を取得し、絞り値やシャッター速度等の撮影パラメータを計算する。
 次にステップS102へ移行し、制御部は、ユーザによるシャッター操作が行われたか否かを判定する。なお、ここでは、既に3D画像パノラマ撮影モードに設定されているものとする。
 3D画像パノラマ撮影モードではユーザのシャッター操作により複数毎の画像を連続撮影し、撮影画像から左目用画像短冊と右目用画像短冊を切り出して3D画像表示に適用可能な左目用合成画像(パノラマ画像)と右目用合成画像(パノラマ画像)を生成して記録する処理が実行される。
 ステップS102において、制御部がユーザによるシャッター操作の検出がなされない場合は、ステップS101に戻る。
 一方、ステップS102において、制御部がユーザによるシャッター操作があったことを検出するとステップS103に進む。
 ステップS103において、制御部は、ステップS101において計算したパラメータに基づく制御を行い撮影処理を開始する。具体的には、例えば、図10に示すレンズ系201の絞り駆動部の調整等を実行して、画像の撮影を開始する。
 画像の撮影処理は、連続的に複数の画像を撮影する処理として行われる。図10に示す撮像素子202から連続撮影画像各々に対応する電気信号が、順次読み出されて画像信号処理部203においてガンマ補正や輪郭強調補正等の処理が実行され、処理結果が表示部204に表示されるとともに、各メモリ205,206、移動量検出部207に順次、供給される。
 次にステップS104に移行し、画像間移動量を算出する。この処理は、図10に示す移動量検出部207の処理である。
 移動量検出部207は、画像信号処理部203から供給される画像信号とともに、画像メモリ(移動量検出用)206に保存された1フレーム前の画像を取得し、現在の画像と1フレーム前の画像の移動量を検出する。
 なお、ここで算出する移動量は、前述したように例えば連続して撮影された2つの画像を構成する画素間のマッチング処理、すなわち同一被写体の撮影領域を判別するマッチング処理を実行して、各画像間での移動した画素数を算出するものである。なお、基本的には被写体は静止していると仮定した処理を行う。移動被写体が存在する場合は、画像全体の動きベクトルと異なる動きベクトルが検出されるが、これらの移動被写体に対応する動きベクトルは検出対象外として処理を行う。すなわち、カメラ移動に伴って発生する画像全体の動きに対応する動きベクトル(GMV:グローバルモーションベクトル)を検出する。
 なお移動量は例えば移動画素数として算出する。画像nの移動量は、画像nと、先行画像n-1との比較により実行し、検出された移動量(画素数)を画像nに対応する移動量として移動量メモリ208に格納する。
 この移動利用保存処理がステップS105の保存処理に対応する。ステップS105では、ステップS104で検出した画像間の移動量を各連写画像のIDと関連付けて、図10に示す移動量メモリ208に保存する。
 次に、ステップS106に移行し、ステップS103において撮影され、画像信号処理部203において処理された画像を図10に示す画像メモリ(合成処理用)205に格納する。なお、前述したように、画像メモリ(合成処理用)205は、パノラマ撮影モード(または3D画像パノラマ撮影モード)で撮影された例えばn+1枚の画像のすべての画像を保存する構成としてもよいが、例えば画像の端部を切り落とし、パノラマ画像(3Dパノラマ画像)の生成に必要となる短冊領域を確保できるような画像の中央領域のみを選択して保存しておく設定としてもよい。このような設定とすることで、必要とするメモリ容量を削減することが可能となる。なお、画像メモリ(合成処理用)205には、JPEG等の圧縮処理を行った後、保存する構成としてもよい。
 次にステップS107に移行し、制御部は、ユーザによるシャッターの押圧が継続しているか否を判定する。すなわち、撮影終了のタイミングを判別する。
 ユーザによるシャッターの押圧が継続している場合は、撮影を継続させるべくステップS103へ戻り、被写体の撮像を繰り返す。
 一方、ステップS107において、シャッターの押圧が終了していると判断すると、撮影の終了動作へ移行すべくステップS108へ進む。
 パノラマ撮影モードでの連続画像撮影が終了すると、ステップS108において、画像合成部220は実行処理の決定を行う。すなわち、回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)を入力して、処理態様を決定する。
 具体的には、
 (a1)3Dパノラマ画像の生成
 (a2)3Dパノラマ画像の生成(ただしLR画像の反転処理を伴う)
 (b)2Dパノラマ画像の生成
 (c)3D,2Dパノラマ画像のいずれも生成しない
 これらのいずれかの処理を行う。
 なお、(a1),(a2)に示すように3Dパノラマ画像の生成する場合にも、検出情報に応じてLR画(左目用画像と右目用画像)の反転等を行う場合がある。
 さらに、(c)3D,2Dパノラマ画像のいずれも生成しない場合や、決定した処理に移行する場合等、各場面でユーザに対する通知、警告出力を実行する。
 ステップS108の実行処理の決定の具体的処理例について、図12に示すフローチャートを参照して説明する。
 ステップS201において、画像合成部220は回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)を入力する。
 なお、回転運動量検出部211は、画像合成部220において画像合成処理対象となる画像を撮影した時点におけるカメラの回転運動量θを取得または算出し、この値を画像合成部220に出力する。なお、回転運動量検出部211の検出情報は、回転運動量検出部211から直接、画像合成部220に出力する設定としてもよいし、画像の属性情報として画像に併せてメモリに記録し、画像合成部220がメモリに記録値された値を取得する構成としてもよい。
 また、並進運動量検出部212は、画像合成部220において画像合成処理対象となる画像を撮影した時点におけるカメラの並進運動量tを取得または算出し、この値を画像合成部220に出力する。なお、並進運動量検出部212の検出情報は、並進運動量検出部212から直接、画像合成部220に出力する設定としてもよいし、画像の属性情報として画像に併せてメモリに記録し、画像合成部220がメモリに記録値された値を取得する構成としてもよい。
 なお、回転運動量検出部211と、並進運動量検出部212は、例えばセンサ、あるいは画像解析部によって構成される。これらの具体的構成例と処理例については後段で説明する。
 画像合成部220は、まず、ステップS202において、回転運動量検出部211の取得した画像撮影時のカメラの回転運動量:θが0に等しいか否かを判定する。なお、測定誤差等を考慮し、検出値が0に完全に等しくない場合でも予め設定した許容範囲内の差であれば0と判断するといった処理を行う構成としてもよい。
 ステップS202において画像撮影時のカメラの回転運動量:θ=0と判定した場合は、ステップS203に進み、θ≠0と判定した場合は、ステップS205に進む。
 ステップS202において画像撮影時のカメラの回転運動量:θ=0と判定した場合は、ステップS203に進み、2Dパノラマ画像、3Dパノラマ画像のいずれも生成不可能であることをユーザに通知する警告出力を行う。
 なお、画像合成部220の決定情報は装置の制御部に出力され、制御部の制御の下に決定情報に応じた警告または通知が例えば表示部204に表示される。あるいはアラームの出力を行う構成としてもよい。
 カメラの回転運動量:θ=0の場合とは、先に図9(b1)を参照して説明した例に対応する。このような移動を伴う画像撮影を行った場合は、2Dパノラマ画像、3Dパノラマ画像のいずれも生成不可能であり、このことをユーザに通知する警告出力を行う。
 この警告出力後、ステップS204に進み、画像の合成処理を行うことなく処理を終了する。
 一方、ステップS202において画像撮影時のカメラの回転運動量:θ≠0と判定した場合は、ステップS205に進み、並進運動量検出部212の取得した画像撮影時のカメラの並進運動量:tが0に等しいか否かを判定する。なお、測定誤差等を考慮し、検出値が0に完全に等しくない場合でも予め設定した許容範囲内の差であれば0と判断するといった処理を行う構成としてもよい。
 ステップS205において画像撮影時のカメラの並進運動量:t=0と判定した場合は、ステップS206に進み、t≠0と判定した場合は、ステップS209に進む。
 ステップS205において画像撮影時のカメラの並進運動量:t=0と判定した場合は、ステップS206に進み、3Dパノラマ画像の生成が不可能であることをユーザに通知する警告出力を行う。
 カメラの回転運動量:t=0の場合とは、カメラの並進運動量がない場合である。ただし、この場合は、ステップS202において回転運動量:θ≠0と判定されており、何らかの回転が行われた状態にある。この場合は、3Dパノラマ画像の生成はできないが、2Dパノラマ画像の生成は可能となる。
 このことをユーザに通知する警告出力を行う。
 このステップS206における警告出力後、ステップS207に進み、2Dパノラマ画像の生成を行うか否かを判定する。この判定処理は、例えば、ユーザに対する問い合わせを実行してユーザ入力に基づく確認処理として実行する。あるいは、予め設定された情報に従って処理を決定する。
 ステップS207において、2Dパノラマ画像の生成を行うと判定した場合は、ステップS208において、2Dパノラマ画像の生成を実行する。
 一方、ステップS207において、2Dパノラマ画像の生成を行わないと判定した場合は、ステップS204に進み、画像の合成処理を行うことなく処理を終了する。
 ステップS205において、画像撮影時のカメラの並進運動量:t≠0と判定した場合は、ステップS209に進み、画像撮影時のカメラの回転運動量:θと、並進運動量:tとの乗算値:θ×tが0未満であるか否かを判定する。なお、カメラの回転運動量:θは、図5に示すように右回りを+、カメラの並進運動量:tは、図5に示すように右方向の移動を+としている。
 画像撮影時のカメラの回転運動量:θと、並進運動量:tとの乗算値:θ×tが0以上、すなわち、
 θ・t<0
 上記式が成立しない場合は、
 (a1)θ>0、かつ、t>0、
 または、
 (a2)θ<0、かつ、t<0
 上記(a1)または(a2)の場合である。
 (a1)の場合は図5に示す例に対応する。(a2)の場合は、図5に示す例と、回転方向も逆であり、並進移動方向も逆の場合である。
 このような場合は、正常な3D画像用の左目用パノラマ画像(L画像)と、右目用パノラマ画像(R画像)の生成が可能となる。
 この場合、すなわち、ステップS209において、画像撮影時のカメラの回転運動量:θと、並進運動量:tとの乗算値:θ×tが0以上、すなわち、
 θ・t<0
 上記式が成立しないと判定した場合は、ステップS212に進み、正常な3D図像用の左目用パノラマ画像(L画像)と、右目用パノラマ画像(R画像)の生成処理を実行する。
 一方、ステップS209において、画像撮影時のカメラの回転運動量:θと、並進運動量:tとの乗算値:θ×tが0未満、すなわち、
 θ・t<0
 上記式が成立する場合は、
 (b1)θ>0、かつ、t<0、
 または、
 (b2)θ<0、かつ、t>0
 上記(b1)または(b2)の場合である。
 この場合は、正常な3D画像用の左目用パノラマ画像(L画像)と、右目用パノラマ画像(R画像)を入れ替える処理を行う、すなわちLR画像を入れ替えることで正常な3D画像用の左目用パノラマ画像(L画像)と、右目用パノラマ画像(R画像)を生成することが可能となる。
 この場合は、ステップS210に進む。ステップS210では、3Dパノラマ画像の生成を行うか否かを判定する。この判定処理は、例えば、ユーザに対する問い合わせを実行してユーザ入力に基づく確認処理として実行する。あるいは、予め設定された情報に従って処理を決定する。
 ステップS210において、3Dパノラマ画像の生成を行うと判定した場合は、ステップS211において、3Dパノラマ画像の生成を実行する。ただし、この場合の処理は、ステップS212における3Dパノラマ画像の生成処理と異なり、ステップS212における3Dパノラマ画像の生成処理と同様の処理シーケンスで生成した左目用画像(L画像)を右目用画像(R画像)とし、右目用画像(R画像)を左目用画像(L画像)とするLR画像反転処理を実行する。
 ステップS210において、3Dパノラマ画像の生成を行わないと判定した場合は、ステップS207に進み、2Dパノラマ画像の生成を行うか否かを判定する。この判定処理は、例えば、ユーザに対する問い合わせを実行してユーザ入力に基づく確認処理として実行する。あるいは、予め設定された情報に従って処理を決定する。
 ステップS207において、2Dパノラマ画像の生成を行うと判定した場合は、ステップS208において、2Dパノラマ画像の生成を実行する。
 一方、ステップS207において、2Dパノラマ画像の生成を行わないと判定した場合は、ステップS204に進み、画像の合成処理を行うことなく処理を終了する。
 このように、画像合成部220は、回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)を入力して、処理態様を決定する。
 この処理が、図11のステップS108の処理として行われる。
 ステップS108の処理の終了後、図11のステップS109に進む。ステップS109はステップS108の実行処理の決定に応じた分岐ステップを示している。図12のフローを参照して説明したように、画像合成部220は、回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)に応じて、
 (a1)3Dパノラマ画像の生成(図12のフローのステップS212)
 (a2)3Dパノラマ画像の生成(ただしLR画像の反転処理を伴う)(図12のフローのステップS211)
 (b)2Dパノラマ画像の生成(図12のフローのステップS208)
 (c)3D,2Dパノラマ画像のいずれも生成しない(図12のフローのステップS204)
 上記いずれかの処理を決定する。
 ステップS108の処理において、(a1)または(a2)の処理を決定した場合、すなわち、図12に示すフローにおいてステップS211またはS212の3D画像合成処理を実行処理として決定した場合は、ステップS110に進む。
 ステップS108の処理において、(b)の処理を決定した場合、すなわち、図12に示すフローにおいてステップS208の2D画像合成処理を実行処理として決定した場合は、ステップS121に進む。
 ステップS108の処理において、(c)の処理を決定した場合、すなわち、図12に示すフローにおいてステップS204の画像合成処理なしを実行処理として決定した場合は、ステップS113に進む。
 ステップS108の処理において、(c)の処理、すなわち、図12に示すフローにおいてステップS204の画像合成処理なしを実行処理として決定した場合は、ステップS113に進み、画像合成を実行することなく、撮影された画像を記録部(記録メディア)221に記録して終了する。なお、この記録処理の前に、画像の記録を行うか否かのユーザ確認を実行して記録する意思がある場合にのみ記録する処理を行う構成としてもよい。
 ステップS108の処理において、(b)の処理、すなわち、図12に示すフローにおいてステップS208の2D画像合成処理を実行処理として決定した場合は、ステップS121に進み、各画像から2Dパノラマ画像生成用短冊を切り出して連結する2Dパノラマ画像生成処理としての画像合成処理を実行し、生成した2Dパノラマ画像を記録部(記録メディア)221に記録して終了する。
 ステップS108の処理において、(a1)または(a2)の処理、すなわち、図12に示すフローにおいてステップS211またはS212の3D画像合成処理を実行処理として決定した場合は、ステップS110に進み、各画像か3Dパノラマ画像生成用短冊を切り出して連結する3Dパノラマ画像生成処理としての画像合成処理を実行する。
 まず、ステップS110において、画像合成部220は、3D画像とする左目用画像と右目用画像の短冊領域のオフセット量、すなわち左目用画像と右目用画像の短冊領域間の距離(短冊間オフセット):Dを算出する。
 なお、先に図6を参照して説明したように、本明細書においては、2次元合成画像用の短冊である2Dパノラマ画像短冊115と左目用画像短冊111との距離、および2Dパノラマ画像短冊115と右目用画像短冊112との距離を、
 「オフセット」、または「短冊オフセット」=d1,d2とし、
 左目用画像短冊111と右目用画像短冊112との距離を、
 「短冊間オフセット」=D
 と定義している。
 なお、
 短冊間オフセット=(短冊オフセット)×2
 D=d1+d2
 となる。
 ステップS110における左目用画像と右目用画像の短冊領域間の距離(短冊間オフセット):Dと短冊オフセット:d1,d2の算出処理に際しては、例えば以下の条件を満足するようにオフセットを設定する。
 (条件1)左目用画像短冊と右目用画像短冊の短冊の重なりが発生しない、
 かつ、
 (条件2)画像メモリ(合成処理用)205に格納される画像領域の外にはみ出ない、
 これらの条件1,2を満足する設定とした短冊オフセットd1,d2を算出する。
 ステップS110において、左目用画像と右目用画像の短冊領域間の距離である短冊間オフセットDの算出が完了すると、ステップS111に進む。
 ステップS111では、撮影画像を利用した第1画像合成処理を行う。さらに、ステップS112に進み、撮影画像を利用した第2画像合成処理を行う。
 これらステップS111~S112の画像合成処理は、3D画像表示に適用する左目用合成画像と右目用合成画像の生成処理である。合成画像は例えばパノラマ画像として生成される。
 前述したように、左目用合成画像は、左目用画像短冊のみを抽出して連結する合成処理により生成される。右目用合成画像は、右目用画像短冊のみを抽出して連結する合成処理により生成される。これらの合成処理の結果、例えば図7(2a),(2b)に示す2つのパノラマ画像が生成されることになる。
 ステップS111~S112の画像合成処理は、ステップS102のシャッター押下判定がYesとなってからステップS107でシャッター押下終了が確認されるまでの連続画像撮影中に画像メモリ(合成処理用)205に保存された複数の画像(または部分画像)を利用して実行される。
 この合成処理に際して、画像合成部220は、複数の画像各々に関連づけられた移動量を移動量メモリ208から取得し、さらに、ステップS110において算出した短冊間オフセットD=d1+d2の値を入力する
 例えばステップS111では、オフセットd1を適用して左目用画像の短冊位置を決定し、ステップS112では、オフセットd1を適用して左目用画像の短冊位置を決定する。
 なお、d1=d2としてもよいが、必ずしもd1=d2とする必要はない。
 D=d1+d2の条件を満足すればもd1,d2の値は異なっていてもよい。
 画像合成部220は、
 左目用合成画像を構成するための左目画像用短冊は、画像中央から右側へ所定量オフセットした位置に設定する。
 右目用合成画像を構成するための右目画像用短冊は、画像中央から左側へ所定量オフセットした位置に設定する。
 画像合成部220は、この短冊領域の設定処理に際して、3D画像として成立する左目用画像と右目用画像の生成条件を満たすオフセット条件を満たすように短冊領域を決定する。
 画像合成部220は、各画像について左目用および右目用画像短冊を切り出して連結することで画像合成を行い、左目用合成画像と右目用合成画像を生成する。
 なお、画像メモリ(合成処理用)205に保存された画像(または部分画像)がJPEG等で圧縮されたデータである場合は、処理速度の高速化を図るため、ステップS104で求められた画像間の移動量に基づいて、JPEG等の圧縮を解凍する画像領域を、合成画像として利用する短冊領域のみに設定する適応的な解凍処理を実行する構成としてもよい。
 ステップS111、S112の処理によって、3D画像表示に適用する左目用合成画像と右目用合成画像が生成される。
 なお、
 (a1)3Dパノラマ画像の生成(図12のフローのステップS212)、
 この処理を実行する場合は、上記の処理において生成した左目用画像(L画像)と右目用画像(R画像)をそのまま3D画像表示用のLR画像としてメディアに記録する。
 しかし、
 (a2)3Dパノラマ画像の生成(ただしLR画像の反転処理を伴う)(図12のフローのステップS211)
  この処理を実行する場合は、上記の処理において生成した左目用画像(L画像)と右目用画像(R画像)を、入れ替える知り、すなわち、上記の処理において生成した左目用画像(L画像)を右目用画像(R画像)とし、右目用画像(R画像)を左目用画像(L画像)として3D画像表示用のLR画像として設定する。
 最後に、次にステップS113に移行し、ステップS111、S112で合成された画像を適切な記録フォーマット(例えば、CIPA DC-007 Multi-Picture Format等)に従って生成し、記録部(記録メディア)221に格納する。
 以上のようなステップを実行すれば、3D画像表示に適用するための左目用、および右目用の2枚の画像が合成できる。
  [5.回転運動量検出部と、並進運動量検出部の具体的構成例について]
 次に、回転運動量検出部211と、並進運動量検出部212の具体的構成の具体例について説明する。
 回転運動量検出部211はカメラの回転運動量を検出し、並進運動量検出部212はカメラの並進運動量を検出する。
 これらの各検出部における検出構成の具体例として以下の3つの例について説明する。
 (例1)センサによる検出処理例
 (例2)画像解析による検出処理例
 (例3)センサと画像解析の併用による検出処理例
 以下、これらの処理例について順次説明する。
  (例1)センサによる検出処理例
 まず、回転運動量検出部211と、並進運動量検出部212をセンサとして構成する例について説明する。
 カメラの並進運動は、例えば加速度センサを用いることで検知することができる。あるいは、人工衛星からの電波を用いたGPS(Global Positioning System)により緯度経度から算出することが可能である。なお、加速度センサを適用した並進運動量の検出処理については例えば特開2000-78614に開示されている。
 また、カメラの回転運動(姿勢)に関しては、地磁気センサを用いて、地磁気の方向を基準として方角を測定する方法や、重力の方向を基準として加速度計を応用して傾斜角を検出する方法や、振動ジャイロと加速度センサを組み合わせた角度センサを用いる方法や、角速度センサを用いて初期状態の基準となる角度から比較を行い算出する方法がある。
 このように、回転運動量検出部211としては地磁気センサ、加速度計、振動ジャイロ、加速度センサ、角度センサ、角速度センサ、これらのセンサまたは各センサの組み合わせによって構成することができる。
 また、並進運動量検出部212は、加速度センサ、GPS(Global Positioning System)によって構成することが可能である。
 これらのセンサの検出情報としての回転運動量と、並進運動量が直接、あるいは画像メモリ(合成処理用)205を介して画像合成部210に提供され、画像合成部210においてこれ等の検出値に基づいて合成処理の態様を決定する。
  (例2)画像解析による検出処理例
 次に、回転運動量検出部211と、並進運動量検出部212をセンサではなく、撮影画像を入力して画像解析を実行する画像解析部として構成する例について説明する。
 本例は、図10の回転運動量検出部211と、並進運動量検出部212は、画像メモリ(移動量検出用)205から合成処理対象となる画像データを入力して入力画像の解析を実行して、その画像が撮影された時点におけるカメラの回転成分と並進成分を取得する。
 具体的には、まず、合成対象となる連続撮影された画像からハリスコーナー検出器等を用いて特徴量を抽出する。さらに各画像の特徴量間のマッチングや、各画像を等間隔分割して分割領域単位のマッチング(ブロックマッチング)を用いることで、各画像間のオプティカルフローを算出する。さらにカメラモデルが透視投影像であることを前提として、非線形方程式を繰り返し法により解き、回転成分と並進成分を抽出することができる。なお、この手法については、例えば以下の文献に詳細が記載され、この手法を適用することが可能である。
 ("Multi View Geometry in Computer Vision", Richard Hartley and Andrew Zisserman, Cambridge University Press)。
 あるいは、より簡便には、被写体を平面と仮定することで、オプティカルフローからホモグラフィー(Homography)を算出し、回転成分と並進成分を算出する方法を適用してもよい。
 本処理例を実行する場合は、図10の回転運動量検出部211と、並進運動量検出部212はセンサではなく画像解析部として構成される。回転運動量検出部211と、並進運動量検出部212は、画像メモリ(移動量検出用)205から合成処理対象となる画像データを入力して入力画像の解析を実行して画像撮影時におけるカメラの回転成分と並進成分を取得する。
  (例3)センサと画像解析の併用による検出処理例
 次に、回転運動量検出部211と、並進運動量検出部212がセンサ機能と、画像解析部としての両機能を備え、センサ検出情報と画像解析情報の両者を取得する処理例について説明する。
ではなく、撮影画像を入力して画像解析を実行する画像解析部として構成する例について説明する。
 角速度センサにより得られた角速度データを基に角速度が0になるように連写画像を補正処理により並進運動だけを含む連写画像とし、加速度センサにより得られた加速度データと補正処理後の連写画像から並進運動を算出することができる。なお、この処理については、例えば特開2000-222580号公報に開示されている
 本処理例は、回転運動量検出部211と、並進運動量検出部212中、並進運動量検出部212については角速度センサと画像解析部を備えた構成とし、これらの構成により、上記特開2000-222580号公報に開示された手法を適用して画像撮影時の並進運動量を算出するものである。
 回転運動量検出部211については、上記(例1)センサによる検出処理例、または、(例2)画像解析による検出処理例、これらの知り例において説明したいずれかのセンサ構成、または画像解析部構成とする。
  [6.回転運動量と並進運動量に基づく処理の切り替え例について]
 次に、カメラの回転運動量と並進運動量に基づく処理の切り替え例について説明する。
 先に図12のフローチャートを参照して説明したように、画像合成部220は上述した回転運動量検出部211と、並進運動量検出部212における処理によって取得または算出された画像撮影時の撮像装置(カメラ)の回転運動量と並進運動量に基づいて、処理態様を変更する。
 具体的には、画像合成部220は、回転運動量検出部211と、並進運動量検出部212の検出情報(センサ検出または画像解析によって取得された情報)に応じて、
 (a1)3Dパノラマ画像の生成(図12のフローのステップS212)
 (a2)3Dパノラマ画像の生成(ただしLR画像の反転処理を伴う)(図12のフローのステップS211)
 (b)2Dパノラマ画像の生成(図12のフローのステップS208)
 (c)3D,2Dパノラマ画像のいずれも生成しない(図12のフローのステップS204)
 上記いずれかの処理を決定する。
 回転運動量検出部211と、並進運動量検出部212の検出情報と、これらの検出情報に応じて決定される処理をまとめた図を図13に示す。
 カメラの回転運動量:θ=0(State4、State5、あるいは、State6)の場合は、2D合成も3D合成も正しく行えないため、警告を出す等のフィードバックをユーザに行い、画像合成処理を実行することなく、再度、撮影待機状態に戻る。
 カメラの回転運動量:θ≠0の場合で、かつ並進運動量:t=0(State2、あるいは、State8)の場合、3D撮影を行っても視差が得られないため、2D合成のみを行うか、警告を出す等のフィードバックをユーザに行い、待機状態に戻る。
 さらに、回転運動量:θ≠0、かつ並進運動量:t≠0(ともにゼロでない場合)で、かつ、回転運動量:θと並進運動量:t各々の符号が逆、すなわち、
 θ・t<0
 であれば(State3、State7)、2D合成も3D合成も可能である。ただし、カメラの光軸が交差する方向に撮影されるため、3D画像合成の場合は左画像と右画像の極性を逆にして記録することが必要となる。
 この場合は、例えばいずれの画像を記録するかをユーザに問い合わせて確認した後、ユーザの希望する処理を実行する。ユーザがデータ記録を希望しない場合は、記録せずに待機状態に戻る。
 さらに、回転運動量:θ≠0、かつ並進運動量:t≠0(ともにゼロでない場合)で、かつ、回転運動量:θと並進運動量:t各々の符号が同じ、すなわち、
 θ・t>0
 であれば(State1、State9)、2D合成も3D合成も可能である。
 この場合は、カメラの動きは想定する状態であるので、3D合成行い、待機状態に戻る。なお、この場合にも、2D画像、3D画像のいずれの画像を記録するかをユーザに問い合わせて確認した後、ユーザの希望する処理を実行する設定としてもよい。ユーザがデータ記録を希望しない場合は、記録せずに待機状態に戻る。
 このように、本発明の構成では、ユーザが様々な条件で撮影した画像を合成して3D画像としての左目用画像と右目用画像、あるいは2Dパノラマ画像を生成する構成において、カメラの回転運動量:θと並進運動量:tに基づいて生成可能な合成画像を判別して、生成可能な画像合成処理を実行し、またユーザに対する確認処理を実行してユーザの希望する画像合成処理を行う構成とした。
 従って、ユーザの望む画像を確実に生成してメディアに記録することが可能となる。
 以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本発明の一実施例の構成によれば、複数の画像から切り出した短冊領域を連結して2次元パノラマ画像や3次元画像表示用画像を生成する構成において、カメラの動きに基づいて生成可能な合成画像を決定して決定した合成画像を生成する構成が実現される。複数画像から切り出した短冊領域を連結して2次元パノラマ画像や、3次元画像表示用の左目用合成画像と右目用合成画像を生成する構成において、画像撮影時の撮像装置の動き情報を解析して、2次元パノラマ画像や3次元画像を生成可能であるか否かを判定し、生成可能な合成画像の生成処理を行う。画像撮影時のカメラの回転運動量(θ)と、並進運動量(t)に応じて、(a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、(b)2次元パノラマ画像の合成画像生成処理、または、(c)合成画像生成の中止、これら(a)~(c)いずれかの処理態様を決定し、決定した処理を行う。また、ユーザに対する処理内容の通知や警告を実行する。
  10 カメラ
  20 画像
  21 2Dパノラマ画像用短冊
  30 2Dパノラマ画像
  51 左目用画像短冊
  52 右目用画像短冊
  70 撮像素子
  72 左目用画像
  73 右目用画像
 100 カメラ
 101 仮想撮像面
 102 光学中心
 110 画像
 111 左目用画像短冊
 112 右目用画像短冊
 115 2Dパノラマ画像用短冊
 200 撮像装置
 201 レンズ系
 202 撮像素子
 203 画像信号処理部
 204 表示部
 205 画像メモリ(合成処理用)
 206 画像メモリ(移動量検出用)
 207 移動量検出部
 208 移動量メモリ
 211 回転運動量検出部
 212 並進運動量検出部
 220 画像合成部
 221 記録部

Claims (14)

  1.  異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成する画像合成部を有し、
     前記画像合成部は、
     画像撮影時の撮像装置の動き情報に基づいて、
     (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
     (b)2次元パノラマ画像の合成画像生成処理、または、
     (c)合成画像生成の中止、
     いずれかの処理態様を決定し、決定した処理を行う画像処理装置。
  2.  前記画像処理装置は、
     画像撮影時の撮像装置の回転運動量(θ)を取得または算出する回転運動量検出部と、
     画像撮影時の撮像装置の並進運動量(t)を取得または算出する並進運動量検出部を有し、
     前記画像合成部は、
     前記回転運動量検出部の検出した回転運動量(θ)と、前記並進運動量検出部の検出した並進運動量(t)に基づいて処理態様を決定する請求項1に記載の画像処理装置。
  3.  前記画像処理装置は、
     前記画像合成部の決定情報に応じた警告または通知をユーザに提示する出力部を有する請求項1に記載の画像処理装置。
  4.  前記画像合成部は、
     前記回転運動量検出部の検出した回転運動量(θ)が0の場合、
     3次元画像および2次元パノラマ画像の合成画像生成処理を中止する請求項2に記載の画像処理装置。
  5.  前記画像合成部は、
     前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)が0の場合、
     2次元パノラマ画像の合成画像生成処理、または合成画像生成中止のいずれかを実行する請求項2に記載の画像処理装置。
  6.  前記画像合成部は、
     前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)も0でない場合、
     3次元画像または、2次元パノラマ画像の合成画像生成処理のいずれかを実行する請求項2に記載の画像処理装置。
  7.  前記画像合成部は、
     前記回転運動量検出部の検出した回転運動量(θ)が0でなく、かつ前記並進運動量検出部の検出した並進運動量(t)も0でない場合において、
     θ・t<0である場合と、θ・t>0である場合において、
     生成する3D画像のLR画像を逆の設定とする処理を実行する請求項6に記載の画像処理装置。
  8.  前記回転運動量検出部は、
     画像処理装置の回転運動量を検出するセンサである請求項2に記載の画像処理装置。
  9.  前記並進運動量検出部は、
     画像処理装置の並進運動量を検出するセンサである請求項2に記載の画像処理装置。
  10.  前記回転運動量検出部は、
     撮影画像の解析により画像撮影時の回転運動量を検出する画像解析部である請求項2に記載の画像処理装置。
  11.  前記並進運動量検出部は、
     撮影画像の解析により画像撮影時の並進運動量を検出する画像解析部である請求項2に記載の画像処理装置。
  12.  撮像部と、請求項1~11いずれかに記載の画像処理を実行する画像処理部を備えた撮像装置。
  13.  画像処理装置において実行する画像処理方法であり、
     画像合成部が、異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成する画像合成ステップを実行し、
     前記画像合成ステップは、
     画像撮影時の撮像装置の動き情報に基づいて、
     (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
     (b)2次元パノラマ画像の合成画像生成処理、または、
     (c)合成画像生成の中止、
     いずれかの処理態様を決定し、決定した処理を行うステップである画像処理方法。
  14.  画像処理装置において画像処理を実行させるプログラムであり、
     画像合成部に、異なる位置から撮影された複数の画像を入力し、各画像から切り出した短冊領域を連結して合成画像を生成させる画像合成ステップを実行させ、
     前記画像合成ステップにおいては、
     画像撮影時の撮像装置の動き情報に基づいて、
     (a)3次元画像表示に適用する左目用合成画像と右目用合成画像の合成画像生成処理、または、
     (b)2次元パノラマ画像の合成画像生成処理、または、
     (c)合成画像生成の中止、
     いずれかの処理態様を決定し、決定した処理を行なわせるプログラム。
PCT/JP2011/070706 2010-09-22 2011-09-12 画像処理装置、撮像装置、および画像処理方法、並びにプログラム WO2012039307A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2011800443856A CN103109537A (zh) 2010-09-22 2011-09-12 图像处理设备、成像设备、图像处理方法和程序
KR1020137006521A KR20140000205A (ko) 2010-09-22 2011-09-12 화상 처리 장치, 촬상 장치 및 화상 처리 방법과 프로그램
US13/819,238 US20130155205A1 (en) 2010-09-22 2011-09-12 Image processing device, imaging device, and image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-212193 2010-09-22
JP2010212193A JP2012068380A (ja) 2010-09-22 2010-09-22 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2012039307A1 true WO2012039307A1 (ja) 2012-03-29

Family

ID=45873796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/070706 WO2012039307A1 (ja) 2010-09-22 2011-09-12 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20130155205A1 (ja)
JP (1) JP2012068380A (ja)
KR (1) KR20140000205A (ja)
CN (1) CN103109537A (ja)
TW (1) TW201223271A (ja)
WO (1) WO2012039307A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013184313A1 (en) * 2012-06-06 2013-12-12 Apple Inc. Motion-based image stitching
CN103856715A (zh) * 2012-12-05 2014-06-11 三星电子株式会社 成像装置和方法
US9542585B2 (en) 2013-06-06 2017-01-10 Apple Inc. Efficient machine-readable object detection and tracking

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103081455B (zh) * 2010-11-29 2017-03-08 快图有限公司 从手持设备所捕获的多个图像进行肖像图像合成
JP5943740B2 (ja) * 2012-07-03 2016-07-05 キヤノン株式会社 撮像装置ならびに撮像方法およびそのプログラム
KR102068048B1 (ko) * 2013-05-13 2020-01-20 삼성전자주식회사 3차원 영상 제공 시스템 및 방법
US9875573B2 (en) * 2014-03-17 2018-01-23 Meggitt Training Systems, Inc. Method and apparatus for rendering a 3-dimensional scene
US11205305B2 (en) 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video
US10313656B2 (en) 2014-09-22 2019-06-04 Samsung Electronics Company Ltd. Image stitching for three-dimensional video
US9813621B2 (en) 2015-05-26 2017-11-07 Google Llc Omnistereo capture for mobile devices
CN106303495B (zh) * 2015-06-30 2018-01-16 深圳创锐思科技有限公司 全景立体图像的合成方法、装置及其移动终端
CN105025287A (zh) * 2015-06-30 2015-11-04 南京师范大学 利用旋转拍摄的视频序列影像构建场景立体全景图的方法
CN104915994A (zh) * 2015-07-06 2015-09-16 上海玮舟微电子科技有限公司 一种三维数据的3d视图绘制方法及系统
US10250803B2 (en) * 2015-08-23 2019-04-02 Htc Corporation Video generating system and method thereof
CN106254751A (zh) * 2015-09-08 2016-12-21 深圳市易知见科技有限公司 一种音视频处理装置及音视频处理方法
WO2017090986A1 (en) 2015-11-23 2017-06-01 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus thereof
KR101715563B1 (ko) * 2016-05-27 2017-03-10 주식회사 에스,엠,엔터테인먼트 다면 영상용 카메라 연동 시스템
KR20180001243U (ko) 2016-10-24 2018-05-03 대우조선해양 주식회사 선박의 충돌 완화 장치 및 이를 포함하는 선박
US11049218B2 (en) 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
KR20190110858A (ko) * 2018-03-21 2019-10-01 삼성전자주식회사 이미지 데이터 처리 방법 및 이를 위한 장치
CN117278733B (zh) * 2023-11-22 2024-03-19 潍坊威龙电子商务科技有限公司 全景摄像在vr头显中的显示方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164326A (ja) * 1997-11-26 1999-06-18 Oki Electric Ind Co Ltd パノラマステレオ画像生成表示方法及びそのプログラムを記録した記録媒体
JP2003524927A (ja) * 1998-09-17 2003-08-19 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブリュー ユニバーシティ オブ エルサレム パノラマ画像および動画を生成し表示するためのシステムおよび方法
JP2011135246A (ja) * 2009-12-24 2011-07-07 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0807352A1 (en) * 1995-01-31 1997-11-19 Transcenic, Inc Spatial referenced photography
JPH09322055A (ja) * 1996-05-28 1997-12-12 Canon Inc 電子カメラシステム
US6795109B2 (en) * 1999-09-16 2004-09-21 Yissum Research Development Company Of The Hebrew University Of Jerusalem Stereo panoramic camera arrangements for recording panoramic images useful in a stereo panoramic image pair
US7221395B2 (en) * 2000-03-14 2007-05-22 Fuji Photo Film Co., Ltd. Digital camera and method for compositing images
US7092014B1 (en) * 2000-06-28 2006-08-15 Microsoft Corporation Scene capturing and view rendering based on a longitudinally aligned camera array
WO2004004363A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像符号化装置、画像送信装置および画像撮影装置
JP2004248225A (ja) * 2003-02-17 2004-09-02 Nec Corp 携帯端末装置及び移動通信システム
EP1613060A1 (en) * 2004-07-02 2006-01-04 Sony Ericsson Mobile Communications AB Capturing a sequence of images
JP4654015B2 (ja) * 2004-12-08 2011-03-16 京セラ株式会社 カメラ装置
US20070116457A1 (en) * 2005-11-22 2007-05-24 Peter Ljung Method for obtaining enhanced photography and device therefor
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法
US7809212B2 (en) * 2006-12-20 2010-10-05 Hantro Products Oy Digital mosaic image construction
US8593506B2 (en) * 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
JP4818987B2 (ja) * 2007-05-21 2011-11-16 オリンパスイメージング株式会社 撮像装置、表示方法、及びプログラム
US8717412B2 (en) * 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
JP5088077B2 (ja) * 2007-10-03 2012-12-05 日本電気株式会社 カメラ付携帯通信端末
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
US8554014B2 (en) * 2008-08-28 2013-10-08 Csr Technology Inc. Robust fast panorama stitching in mobile phones or cameras
GB2467932A (en) * 2009-02-19 2010-08-25 Sony Corp Image processing device and method
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20110234750A1 (en) * 2010-03-24 2011-09-29 Jimmy Kwok Lap Lai Capturing Two or More Images to Form a Panoramic Image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164326A (ja) * 1997-11-26 1999-06-18 Oki Electric Ind Co Ltd パノラマステレオ画像生成表示方法及びそのプログラムを記録した記録媒体
JP2003524927A (ja) * 1998-09-17 2003-08-19 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブリュー ユニバーシティ オブ エルサレム パノラマ画像および動画を生成し表示するためのシステムおよび方法
JP2011135246A (ja) * 2009-12-24 2011-07-07 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013184313A1 (en) * 2012-06-06 2013-12-12 Apple Inc. Motion-based image stitching
US9516223B2 (en) 2012-06-06 2016-12-06 Apple Inc. Motion-based image stitching
CN103856715A (zh) * 2012-12-05 2014-06-11 三星电子株式会社 成像装置和方法
CN103856715B (zh) * 2012-12-05 2019-03-08 三星电子株式会社 成像装置和方法
US9542585B2 (en) 2013-06-06 2017-01-10 Apple Inc. Efficient machine-readable object detection and tracking

Also Published As

Publication number Publication date
KR20140000205A (ko) 2014-01-02
CN103109537A (zh) 2013-05-15
JP2012068380A (ja) 2012-04-05
TW201223271A (en) 2012-06-01
US20130155205A1 (en) 2013-06-20

Similar Documents

Publication Publication Date Title
WO2012039307A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP5510238B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8810629B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and program
JP5390707B2 (ja) 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
JP5432365B2 (ja) 立体撮像装置および立体撮像方法
JP5140210B2 (ja) 撮影装置および画像処理方法
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
US20110193941A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2011078066A1 (ja) 画像処理装置および方法、並びにプログラム
JP5491617B2 (ja) 立体撮像装置、および立体撮像方法
JP5444452B2 (ja) 立体撮像装置および立体撮像方法
JP2011259168A (ja) 立体パノラマ画像撮影装置
JP2012222743A (ja) 撮像装置
JP2011199478A (ja) 撮影装置及びその表示制御方法並びに3次元情報取得装置
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
JP2012114896A (ja) 3d撮像装置及び3d再生装置
JP2012220603A (ja) 3d映像信号撮影装置
JP2013088664A (ja) 携帯端末装置及び3d画像表示方法
JP2005072674A (ja) 三次元画像生成装置および三次元画像生成システム
JP2007194694A (ja) 立体映像撮影装置並びにそのプログラム
JP2012215980A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013009064A (ja) 撮影システム、撮影装置、及び撮影システムによる撮影方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180044385.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11826753

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13819238

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20137006521

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11826753

Country of ref document: EP

Kind code of ref document: A1