WO2013183346A1 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
WO2013183346A1
WO2013183346A1 PCT/JP2013/060182 JP2013060182W WO2013183346A1 WO 2013183346 A1 WO2013183346 A1 WO 2013183346A1 JP 2013060182 W JP2013060182 W JP 2013060182W WO 2013183346 A1 WO2013183346 A1 WO 2013183346A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
image data
panorama
unit
Prior art date
Application number
PCT/JP2013/060182
Other languages
English (en)
French (fr)
Inventor
篤史 木村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201380028447.3A priority Critical patent/CN104365083B/zh
Priority to US14/403,858 priority patent/US10091417B2/en
Publication of WO2013183346A1 publication Critical patent/WO2013183346A1/ja
Priority to US15/964,727 priority patent/US11102402B2/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program for realizing the same, and particularly to image processing suitable for displaying panoramic image data.
  • image processing for generating a single panoramic image from a plurality of images is known.
  • a user obtains a large number of captured images (frame image data) while sweeping the camera horizontally, and combines them to obtain a so-called panoramic image.
  • “sweep” refers to an operation of moving in an imaging direction by a rotational movement of an imaging apparatus during imaging in order to obtain a plurality of frame image data for generating a panoramic image.
  • the sweep direction refers to the horizontal direction.
  • the single view display is a method for displaying the entire panoramic image data in a reduced size as a single still image display. In this case, the entire panoramic image can be seen, but it is difficult to become a powerful image due to the reduction.
  • the scroll display a part of panorama image data is sequentially cut out and displayed while scrolling. With the scroll display, the panoramic image can be largely viewed for each part on the screen.
  • the scroll display simply pans and displays panoramic image data projected on, for example, a cylindrical surface, and displays a scene from the user's viewpoint, for example, a straight line such as a horizontal line or a building is greatly curved. It does not necessarily reflect accurately.
  • a reproduction method in which a panoramic image projected on a cylindrical surface or the like is projected again on a flat screen to obtain a display image, thereby obtaining a high sense of presence and immersion.
  • projection display for the sake of explanation.
  • QuickTime VR. An Image-Based Approach to Virtual Environment Navigation [Apple Computer, Inc.] is known. If such a projection display is used, it is considered that the satisfaction level of the user who views the panoramic image display can be increased.
  • panoramic images include various images such as an image with an angle of view of about 120 ° and an image with an angle of view of about 180 °, and an all-round image with an angle of view of 360 °.
  • the angle of view is not 360 °, the calculation of the angle of view from the panoramic image data becomes inaccurate due to the effects of alignment error, sweep radius, distortion, etc., and the accurate angle of view cannot be obtained. . In this way, the panoramic image data alone cannot be used to determine the angle of view, and authoring for projection display cannot be performed.
  • the angle of view for projection display for example, it is necessary for the user to roughly estimate the angle of view during panoramic imaging and to manually input the angle of view during authoring. This is a difficult task for general users. Further, if the input angle of view is largely different from the actual angle, the projection display image is distorted. For this reason, the projection display is not always the optimum display method for practical use or display quality.
  • an image for easily and appropriately executing panoramic image display particularly high-quality projection display, assuming a wide range of devices for professional use, business use, and general consumer use.
  • the purpose is to realize the processing.
  • An association unit is provided for associating data with information indicating that the panoramic image data is an all-round panoramic image.
  • the panoramic image processing method of the present disclosure when panoramic image data generated using a plurality of frame image data obtained by an imaging operation while displacing the imaging direction is determined to be an all-round panoramic image, the panoramic image A process of associating the data with information indicating that the panoramic image data is an all-round panoramic image is performed.
  • the program of the present disclosure is a program that causes an arithmetic processing device to execute the processing of the image processing method.
  • information that can determine whether or not the panoramic image data generated by combining the plurality of frame image data is an all-round panoramic image at the time of reproduction display is added. That is, when it is determined that at least some panoramic image data is an all-round panoramic image, the panoramic image data is associated with information indicating that it is an all-round panoramic image.
  • the display processing method can be selected depending on whether or not the image is an all-round panoramic image.
  • the all-round panoramic image is a case where the angle of view can be determined to be 360 ° (or almost 360 °). That is, the angle of view can be determined when performing projection display.
  • the panoramic image data is an all-round panoramic image
  • information indicating that is associated when the panoramic image data is an all-round panoramic image, information indicating that is associated. Therefore, in the case of reproduction display, there is an effect that an appropriate display processing method can be selected depending on whether or not the image is an all-round panoramic image. For example, in the case of an all-round panoramic image, it is possible to execute appropriate projection display, assuming that the angle of view is 360 °.
  • a device having at least the associating unit 11 in the embodiment is an image processing apparatus referred to in the claims.
  • Image Processing Device Configuration Example> ⁇ 3.
  • An imaging device 50 according to an embodiment to be described later and a recent general imaging device (digital still camera) are a plurality of still images obtained by imaging while rotating the imaging device 50 about a certain rotation axis.
  • a panoramic image can be generated by performing synthesis processing on an image (frame image data).
  • the imaging apparatus 50 according to the embodiment can generate an all-round panoramic image with an angle of view of 360 °.
  • FIG. 1A shows the movement of the imaging device 50 during panoramic imaging. Since the disparity between the distant view and the near view during panorama imaging causes unnaturalness in the joints during composition, the center of rotation at the time of image capturing is a point unique to the lens that does not generate parallax, called the nodal point. It is desirable to do.
  • the rotational movement of the imaging device 50 during panoramic imaging is referred to as “sweep”.
  • FIG. 1B is a conceptual diagram when a plurality of still images obtained by sweeping the imaging device 50 are appropriately aligned.
  • each still image obtained by imaging is shown in the temporal order of imaging. That is, frame image data captured from time 0 to time (n ⁇ 1) is set as frame image data FM # 0, FM # 1... FM # (n ⁇ 1).
  • frame image data captured from time 0 to time (n ⁇ 1) is set as frame image data FM # 0, FM # 1... FM # (n ⁇ 1).
  • a composition process is performed on a series of n frame image data FM # 0 to FM # (n ⁇ 1) continuously captured as illustrated. Become.
  • each captured frame image data must have an overlapping portion with the adjacent frame image data. Therefore, the imaging time interval of each frame image data of the imaging device 50 and the photographer sweep The upper limit of the speed to be performed must be set appropriately. Since the frame image data group aligned in this way has many overlapping portions, it is necessary to determine a region to be used for a final panoramic image for each frame image data. In other words, this is the same as determining the seam of images in the panorama synthesis process.
  • the seam SM0 is a joint between the frame image data FM # 0 and FM # 1
  • the seam SM1 is a joint between the frame image data FM # 1 and FM # 2
  • the seam SM (n ⁇ 2) is shown as a joint between frame image data FM # (n-2) and FM # (n-1). Since these seams SM0 to SM (n-2) are used as a joint between adjacent images at the time of synthesis, the shaded portion in each frame image data is an image region that is not used for the final panoramic image. Become.
  • blending may be performed on an image area near the seam for the purpose of reducing unnaturalness of the image near the seam. Then, there are cases where the common parts of the frame image data are joined by blending over a wide range, and pixels that contribute to the panoramic image are selected for each pixel from the common parts. In these cases, the joints are clear. In the present specification, this wide joint portion is also identified as a seam.
  • a panoramic image having a wide angle of view with the sweep direction as the long side direction can be obtained.
  • a vertical line indicates a seam
  • n frame image data FM # 0 to FM # (n-1) are joined by seams SM0 to SM (n-2), respectively, to generate a panoramic image.
  • the state which is present is shown schematically.
  • the imaging device 50 is set to the panoramic imaging mode, and further the maximum imaging angle of view is set.
  • 120.degree., 180.degree., 360.degree., Etc. can be selected as the maximum imaging angle of view.
  • 360.degree. Is selected so-called all-around imaging can be performed in which all surrounding scenery is captured in a photograph.
  • panorama imaging mode expressions such as “360 ° panorama imaging mode” are used when the maximum imaging field angle is set to 360 °, and “180 ° panorama imaging mode” is used when the maximum imaging field angle is set to 180 °. .
  • the photographer starts panoramic imaging by pressing the shutter button of the imaging apparatus 50 and performs a sweep operation. Thereafter, the panorama imaging is completed when the panorama imaging end condition is satisfied.
  • the end conditions are as follows, for example. -When the preset maximum field of view is reached-When the user stops the sweep operation-When the user presses the shutter button again-When the user releases his / her finger from the shutter button (shutter during panorama imaging) (In the specification to keep pressing the button) ⁇ If any error occurs
  • panorama composition processing is automatically started. After a certain period of time, panorama image composition is completed and the panorama image data is stored in the recording device. After that, it can be listed and displayed in the same way as normal still images.
  • FIG. 4A is a conceptual diagram of projection processing during panorama synthesis.
  • a process of projecting onto a cylindrical surface, a spherical surface, a cube or the like is often performed.
  • this is referred to as “compositing projection processing”, and is distinguished from “display projection processing” performed for projection display described later.
  • FIG. 4A shows a large number of frame image data FM captured while sweeping during the panoramic imaging operation.
  • the frame image data FM that is, the same captured image as that of normal photography, is obtained by projecting a three-dimensional scene onto a plane (for example, an imager plane of a camera).
  • a plane for example, an imager plane of a camera.
  • each frame image data FM is projected onto a cylindrical surface FR as a compositing projection process.
  • the projected frame image data FMpd is shown along the cylindrical surface FR.
  • the frame image data FMpd that has undergone such projection processing for synthesis is connected to generate panoramic image data PD as shown in FIG. 4B.
  • the panorama image data PD can be said to be image data re-projected on the cylindrical surface FR when viewed from the projection center CT.
  • a display mode for such panoramic image data PD single view display, list display, scroll display, and projection display can be executed.
  • the display mode is illustrated in FIGS.
  • FIG. 5 schematically shows the concept of scroll display and projection display.
  • a part of the panorama image data PD which is an image projected on a cylindrical surface or the like as described above, is cut out as it is and scrolled up and down, left and right automatically or in response to a manual operation. It is.
  • the projection display is an image obtained by re-projecting the panorama image data PD projected on the cylindrical surface, spherical surface, cube, etc. onto the virtual flat screen VS (projection processing for display).
  • the projection process for display a process of performing a planar projection on the panorama image data projected on the projection plane at the time of panorama image generation is performed.
  • the plane projected image is used as display image data.
  • FIG. 6 schematically shows a projected display of panoramic image data PD obtained in the 360 ° panoramic imaging mode.
  • the panorama image data PD is image data projected onto a 360 ° cylindrical surface FR around the projection center CT.
  • This panoramic image data PD is projected onto a virtual flat screen VS0... VS45.
  • the flat screen VS0 is shown as a flat screen centered on the 0 ° direction from the projection center CT
  • the flat screen VS45 is shown as a flat screen centered on the 45 ° direction from the projection center CT.
  • the drawing further illustrates the flat screens VS135, VS180, VS225, and VS315 in the 135 ° direction, 180 ° direction, 225 ° direction, and 315 ° direction.
  • an image projected from the projection center CT onto the flat screen VS set in the viewing direction is displayed.
  • the display image is zoomed in / out by moving the position of the flat screen VS away from the projection center CT or approaching the projection center CT.
  • the angle of view of the panoramic image data cannot be obtained accurately except for the all-round panoramic image captured in the 360 ° panoramic imaging mode. Then, the three-dimensional model when performing the projection processing for display cannot be strictly defined. For this reason, data other than 360 ° panoramic image data is not suitable for projection display.
  • FIG. 7A shows an example of single view display
  • FIG. 7B shows an example of list display
  • the single view display simply generates display image data including the entire panoramic image data PD and displays it, and is a normal display operation.
  • the panorama image is, for example, a horizontally long image, and a part of the screen (upper region and lower region in this example) is a non-display region as shown in FIG. 7A according to the difference from the aspect ratio of the display screen.
  • the list display is a list display of reproducible image data as shown in FIG. 7B.
  • the user can select the panoramic image data PD to be subjected to the above scroll display and projection processing by designating an image on the list display.
  • 7B is not, for example, an image obtained by reducing the entire panorama image, but when the panorama image data PD is displayed on the list display, a part of the panorama image is cut out and reduced, and the illustrated image is displayed. It may be displayed as follows. Of course, there is also a list display mode in which, for example, a horizontally long panoramic image is reduced and arranged in plural.
  • FIG. 8A illustrates a configuration example including the image processing apparatus 1 including the association unit 11 for the generated panoramic image data and the panorama synthesis unit 10.
  • the associating unit 11 and the panorama synthesizing unit 10 may be provided integrally in the same device, or may be provided in separate devices.
  • FIG. 8B shows a configuration example including the image processing apparatus 2 including the display image generation unit 20 for displaying panoramic image data and the display unit 21.
  • the display image generation unit 20 and the display unit 21 may be provided integrally in the same device, or may be provided in separate devices.
  • the panorama composition unit 10 generates panorama image data PD from the input image group FMS.
  • the input image group FMS is a series of frame image data FM obtained by the imaging person performing an imaging operation while sweeping in the panoramic imaging mode.
  • the panorama synthesizing unit 10 uses the plurality of frame image data FM as the input image group FMS to generate the panorama image data PD as described with reference to FIGS. Then, the panorama composition unit 10 supplies the generated panorama image data PD to the association unit 11.
  • a detailed processing example of the panorama composition unit 10 will be described in the description of the fifth configuration example of the embodiment.
  • the panorama composition unit 10 also supplies various types of panorama processing information Ip in the panorama image data PD generation process to the association unit 11.
  • the panorama processing information Ip is a generic name for various information generated in the course of panorama synthesis processing.
  • panorama mode type information information indicating a mode type such as a 360 ° panorama imaging mode or a 180 ° panorama imaging mode.
  • 360 ° field angle determination information information indicating the determination result of whether or not the panorama image data PD has a 360 ° field angle. For example, it is information of a result of determining whether or not the angle of view is exactly 360 °. Note that it may be a result of determining whether or not the angle of view is approximately 360 °.
  • both end position alignment information information indicating whether or not the panorama image data PD has a 360 ° field angle and the both end position alignment is performed (hereinafter, both end position alignment information) can be considered.
  • Both-end alignment will be described in the description of the fifth configuration example of the embodiment. To put it simply, the positions of the images in the vertical direction and the horizontal direction are 0 ° and 360 ° positions of the panoramic image, that is, both ends of the panoramic image. This is a process of adjusting so that there is no deviation.
  • the projection plane information for synthesis information on the projection plane of the projection process for synthesis.
  • it is information indicating a cylindrical surface, a spherical surface, a polygonal surface, a flat surface, and the like.
  • information indicating the horizontal angle of view and the vertical angle of view of the panorama image data PD (hereinafter referred to as horizontal / vertical angle of view information) is considered.
  • the associating unit 11 associates the panorama image data PD and information indicating that the panorama image data PD is an all-round panorama image. Perform processing (association processing). Specific processing examples as the association processing will be described in the first to fourth configuration examples of the embodiment. Then, the associating unit 11 outputs panoramic image data for recording or transmission.
  • the panoramic image data for recording or transmission output from the associating unit 11 is particularly referred to as “panoramic image file PDr”.
  • This panorama image file PDr is panorama image data recorded on a recording medium or transmitted to another device.
  • the panorama image data PD has an approximately 360 ° field angle (or exactly 360 ° field angle)
  • it is one or a plurality of data files in a state in which information indicating that the image is an all-around panoramic image is associated. .
  • the display image generation unit 20 takes in the panoramic image file PDr.
  • the panorama image file PDr output from the association unit 11 and recorded on the recording medium is read from the recording medium and supplied to the display image generation unit 20.
  • the panorama image file PDr output from the associating unit 11 and transmitted and output is received and supplied to the display image generating unit 20.
  • the display image generation unit 20 generates display image data PDdsp for, for example, the above-described single view display, list display, scroll display, and projection display.
  • display projection data for projection display is generated by performing display projection processing.
  • the display image generation unit 20 supplies the display image data PDdsp to the display unit 21. Specific processing examples of the display image generation unit 20 will be described in the first to fourth configuration examples of the embodiment.
  • the display unit 21 includes a liquid crystal panel, an organic EL (Electroluminescence) panel, a plasma display panel, a CRT (Cathode Ray Tube) has other display devices and a display drive unit for the display devices, and performs various displays.
  • the display unit 21 is supplied with the display image data PDdsp from the display image generation unit 20 and executes a display operation based on the display image data PDdsp. For example, single view display, list display, scroll display, and projection display are performed for a panoramic image.
  • the display image generation unit 20 performs display projection processing to generate display image data PDdsp. And supplied to the display unit 21. For example, images projected on the virtual flat screen VS in FIG. 6 are sequentially supplied. In this case, projection display is executed on the display unit 21.
  • FIG. 9A is an example in which the image processing device 1 and the image processing device 2 are configured in the device DVC1 having an imaging function.
  • the apparatus DVC1 in this example includes an imaging unit 12, a panorama synthesis unit 10, an association unit 11, a recording / playback unit 13, a display image generation unit 20, and a display unit 21.
  • the imaging unit 12 obtains a series of a plurality of frame image data FM for generating a panoramic image by, for example, an imaging operation of panoramic image data.
  • the plurality of frame image data FM is supplied to the panorama composition unit 10 as an input image group FMS.
  • the panorama composition unit 10 generates panorama image data PD from the input image group FMS, and outputs the panorama image data PD and the panorama processing information Ip.
  • the associating unit 11 performs the above-described associating process and outputs a panoramic image file PDr.
  • the panorama image file PDr is recorded on a recording medium in the recording / reproducing unit 13.
  • the panoramic image file PDr read from the recording medium in the recording / playback unit 13 is supplied to the display image generation unit 20 to generate display image data PDdsp.
  • the display image data PDdsp is supplied to the display unit 21, and display such as projection display is executed.
  • the device DVC1 has a panoramic imaging function, a recording / reproducing function, and a display function. For example, a digital still camera, a video camera, a mobile phone, a computer device, and the like are assumed.
  • FIG. 9B is an example in which the image processing device 1 and the image processing device 2 are configured in the device DVC2 having an external image data input function.
  • the apparatus DVC2 in this example includes an input unit 14, a panorama synthesis unit 10, an association unit 11, a recording / playback unit 13, a display image generation unit 20, and a display unit 21. That is, as compared with FIG. 9A described above, the input unit 14 is provided instead of the imaging unit 12.
  • the input unit 14 inputs, for example, a series of a plurality of frame image data FM for generating a panoramic image obtained by an imaging operation of panoramic image data in an external imaging device.
  • the plurality of frame image data FM is supplied to the panorama composition unit 10 as an input image group FMS.
  • the subsequent operation of each part is the same as in FIG.
  • the device DVC2 is a device that generates a panoramic image using frame image data FM obtained by an external imaging device and displays a panoramic image.
  • an image editing machine, a recording / playback device, a television receiver, a mobile phone, a computer device, and the like that are used by being connected to an imaging device such as a digital still camera by wire or wireless are assumed.
  • the device DVC3 in FIG. 9C is an example in which the image processing device 1 and the image processing device 2 are configured as devices that do not have the display unit 21.
  • the apparatus DVC3 in this example includes an input unit 14 (or an imaging unit 12), a panorama composition unit 10, an association unit 11, a recording / playback unit 13, and a display image generation unit 20.
  • the display unit 21 is an external device connected to the device DVC3.
  • the display image generation unit 20 transmits the generated display image data PDdsp to the external display unit 21 to execute display such as projection display.
  • the image processing apparatus 1 and the image processing apparatus 2 can be realized as devices that do not have a display function.
  • FIG. 10A is an example of a device DVC4 that is the image processing device 1 and a device DVC5 that is the image processing device 2.
  • the device DVC4 includes an imaging unit 12 (or input unit 14), a panorama composition unit 10, an association unit 11, and a recording unit 13R.
  • the recording unit 13R records the panoramic image file PDr from the associating unit 11 on the portable recording medium 90.
  • a memory card, an optical disk, a magnetic disk, or the like is assumed.
  • the device DVC5 includes a reproduction unit 13P, a display image generation unit 20, and a display unit 21.
  • the playback unit 13P plays back the panoramic image file PDr from the portable recording medium 90 and supplies it to the display image generation unit 20.
  • the display image generation unit 20 generates display image data PDdsp based on the panorama image file PDr, and supplies the display image data PDdsp to the display unit 21 to display the panorama image.
  • a configuration in which the panoramic image file PDr is transferred by the portable recording medium 90 is also conceivable as a configuration in which the device DVC4 serving as the image processing device 1 and the device DVC5 serving as the image processing device 2 are separated.
  • the example which uses the external display part 21 without providing the display part 21 in apparatus DVC5 is also considered.
  • FIG. 10B is an example of a device DVC6 that is the image processing device 1 and a device DVC7 that is the image processing device 2.
  • the device DVC 6 includes an imaging unit 12 (or input unit 14), a panorama composition unit 10, an association unit 11, and a communication unit 15.
  • the communication unit 15 transmits the panorama image file PDr from the association unit 11 to the outside.
  • the device DVC7 includes a communication unit 16, a display image generation unit 20, and a display unit 21.
  • the communication unit 16 receives the panoramic image file PDr transmitted from the device DVC 6 and supplies it to the display image generation unit 20.
  • the display image generation unit 20 generates display image data PDdsp based on the panorama image file PDr, and supplies the display image data PDdsp to the display unit 21 to display the panorama image.
  • a configuration in which the panoramic image file PDr is delivered by communication is also conceivable, in which the device DVC6 serving as the image processing device 1 and the device DVC7 serving as the image processing device 2 are separate components.
  • Communication between the communication units 15 and 16 may be either wired communication or wireless communication. Communication includes communication by cable connection between devices, communication by USB (Universal Serial Bus), etc., LAN (Local Area) (Network) communication and communication using a public network such as the Internet are assumed.
  • the communication unit 15 may perform communication for uploading the panorama image file PDr to a server or the like on the Internet, and the communication unit 16 may perform communication for downloading the panorama image file PDr from the server.
  • the communication units 15 and 16 may perform communication assuming cloud computing.
  • An example in which the display unit 21 is not provided in the device DVC7 and the external display unit 21 is used is also conceivable.
  • the example of the device configuration has been described above, but various device configurations for realizing the image processing apparatuses 1 and 2 can be considered.
  • the panoramic image file PDr described above is data obtained by performing processing for associating the panoramic image data PD with information indicating that the panoramic image data PD is an all-round panoramic image.
  • the panorama image file PDr is a file incorporating information (for example, metadata or a dedicated program described later) and panorama image data PD indicating that it is an all-round panorama image.
  • the data PD and information indicating that it is an all-around panoramic image are provided as separate files, and these are associated with some information.
  • the first configuration example is an example in which the associating unit 11 performs associating processing using metadata.
  • FIG. 11A shows the panorama composition unit 10 and the association unit 11 in the image processing apparatus 1.
  • the associating unit 11 includes a metadata generating unit 11a and a data integrating unit 11b.
  • the panorama composition unit 10 generates panorama image data PD and outputs panorama processing information Ip.
  • the panorama processing information Ip is supplied to the metadata generation unit 11a.
  • the metadata generation unit 11a generates metadata MT reflecting the panorama processing information Ip.
  • the contents of the panorama processing information Ip include panorama mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, horizontal and vertical field angle information, and the like.
  • the panorama mode type information, 360 ° field angle determination information, or both-end alignment information is used when the generated panorama image data PD is determined to be an all-round panorama image. It can be information indicating an image.
  • the data integration unit 11b integrates the panorama image data PD generated by the panorama synthesis unit 10 and the metadata MT generated by the metadata generation unit 11a to generate a panorama image file PDr.
  • the panorama image file PDr has a structure as shown in FIG. 11B. That is, the data file structure includes a header, panorama image data PD, and metadata MT.
  • the devices DVC1 to DVC3, DVC4, and DVC6 illustrated in FIGS. 9 and 10 such a panoramic image file PDr is recorded on a recording medium or transmitted and output.
  • FIG. 11C shows the display image generation unit 20 in the image processing apparatus 2.
  • the display image generation unit 20 includes a data separation unit 20a, a metadata interpretation unit 20b, and an image generation processing unit 20c.
  • the panorama image file PDr reproduced or received from the recording medium is input to the data separation unit 20a.
  • the data separation unit 20a separates the metadata MT and the panorama image data PD from the panorama image file PDr.
  • the metadata MT is interpreted by the metadata interpreter 20b, and an image is generated as panorama processing information Ip (panorama mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, and horizontal / vertical field angle information). It is supplied to the processing unit 20c.
  • Ip panoramic processing information
  • the image generation processing unit 20c generates and outputs display image data PDdsp based on the panoramic image data PD. At this time, whether or not to generate display image data PDdsp for projection display is determined according to the contents of the panorama processing information Ip. That is, when the panorama image data PD to be displayed is determined to be an all-round panorama image, a process for projection display is performed. If the panorama image data PD is not an all-round panorama image, other display such as scroll display or single view display Process. Then, the generated display image data PDdsp is supplied to a display unit (not shown) or a device having the display unit to execute display. In each of the devices DVC1 to DVC3, DVC5, and DVC7 illustrated in FIGS. 9 and 10, the display image data PDdsp is supplied to the display unit 21 to perform panoramic image display.
  • FIG. 12 shows a processing example of the image processing apparatus 1 and the image processing apparatus 2 described above.
  • FIG. 12A shows processing of the panorama composition unit 10 and the association unit 11 as the image processing apparatus 1.
  • the panorama composition unit 10 captures the input image group FMS.
  • the panorama composition unit 10 performs panorama composition processing to generate panorama image data PD.
  • the panorama synthesizing unit 10 supplies the panorama processing information Ip obtained in this panorama synthesizing process to the associating unit 11 (metadata generating unit 11a).
  • the associating unit 11 (metadata generating unit 11a) generates metadata MT based on the panorama processing information Ip.
  • step F4 the associating unit 11 (data integrating unit 11b) integrates the panoramic image data PD and the metadata MT, and generates a panoramic image file PDr as shown in FIG. 11B, for example.
  • step F5 the panorama image file PDr is recorded on a recording medium by a recording / playback unit (not shown), or transmitted and output to an external device, a network, or the like by a communication unit (not shown).
  • FIG. 12B shows processing of the display image generation unit 20 of the image processing apparatus 2.
  • the display image generation unit 20 takes in the panoramic image file PDr that is reproduced by a recording / reproducing unit (not shown) or received by a communication unit (not shown).
  • the display image generation unit 20 (data separation unit 20a, metadata interpretation unit 20b) separates the panorama image data PD and the metadata MT from the panorama image file PDr, extracts the metadata MT, and interprets it.
  • Panorama processing information Ip In step F53, the display image generation unit 20 (image generation processing unit 20c) branches the process depending on whether or not the current panorama image data PD to be displayed is a 360-degree panoramic image.
  • the panorama image data PD is an all-round panorama image.
  • the 360 ° field angle determination information in the panorama processing information Ip it can be determined whether or not the panorama image data PD has a 360 ° field angle accurately. For this reason, it may be determined that the panoramic image is an all-round panoramic image when it has a 360 ° angle of view.
  • the panorama image data PD has a 360 ° field angle and has been subjected to both-end alignment processing. For this reason, it may be determined that the image is a panoramic image on the entire circumference on the condition that the angle of view is 360 ° and both end positions are aligned.
  • panorama image data PD is imaged in the 360 ° panorama imaging mode, that is, whether or not it has a nearly 360 ° field angle. it can. For this reason, as long as the image is captured in the 360 ° panorama image capturing mode, it may be determined as an all-round panoramic image.
  • panorama image data PD captured in the 360 ° panorama imaging mode does not necessarily have an accurate 360 ° field angle.
  • panorama image data PD is generated from the frame image data FM obtained by a 360 ° sweep at the time of imaging. However, the sweep is performed by the user, and the 360 ° angle of view is not always accurate. Because. The user may stop sweeping before reaching 360 °. Therefore, the panorama image data PD imaged in the 360 ° panorama imaging mode is an image estimated to have a substantially 360 ° field angle.
  • step F53 the display image generation unit 20 (image generation processing unit 20c) proceeds to step F54 to perform display projection processing.
  • Display image data PDdsp is generated, and the display image data PDdsp is output in step F55.
  • the processes in steps F54 and F55 are continued until the display is terminated by a user operation or automatic process in step F56. Thereby, in the display unit, for example, a display overlooking the entire circumference or a display in an arbitrary direction is executed as the projection display.
  • the panorama image data PD to be processed in step F54 is determined to be an all-round panorama image as described above. Therefore, the image generation processing unit 20c has a panorama image data PD with an angle of view of 360 °. It is sufficient to perform the display projection process. As a result, high-quality projection display with little image distortion can be performed.
  • the panorama image data PD projected onto the projection plane (cylindrical surface, spherical surface, polygonal surface, etc.) at the time of panorama synthesis is reprojected onto the virtual flat screen VS.
  • information on the projection plane of the panoramic image data PD is required.
  • the image generation processing unit 20c can accurately perform the reprojection process on the flat screen VS by referring to the composition projection plane information in the panorama process information Ip.
  • the image generation processing unit 20c can limit the scrollable range in the vertical direction with reference to the horizontal / vertical field angle information in the panorama processing information Ip.
  • the horizontal / vertical angle of view information is not used for the projection process itself onto the flat screen VS for display, but may be information used only for limiting the display range. Therefore, it does not have to indicate a highly accurate angle of view value.
  • the panoramic image data PD is generated, it is not necessary to perform a difficult operation of obtaining a highly accurate horizontal / vertical field angle.
  • step F53 the display image generation unit 20 (image generation processing unit 20c) performs display image data generation processing of another method in step F57. For example, display image data PDdsp as scroll display or single view display is generated.
  • step F58 display image data PDdsp is output.
  • steps F57 and F58 are continued until it is determined in step F59 that the display is finished.
  • scroll display other than projection display and single view display are executed on the display unit. If it is not an all-round panoramic image, the angle of view is not accurately known, and projection display cannot be performed with high quality. Therefore, scroll display and single view display are performed.
  • the associating unit 11 associates the metadata MT including information indicating that it is an all-round panoramic image with the panoramic image data PD, and the panoramic image file PDr. Is generated.
  • the metadata MT composition projection plane information indicating the type of projection plane of the frame image data at the time of panorama image generation, 360 ° field angle determination information of panorama image data PD, both-end alignment information, panorama mode information, horizontal Includes vertical angle of view information.
  • the display image generation unit 20 performs display projection processing when the panorama image data PD is determined to be an all-round panorama image, generates display image data, and executes projection display. I try to let them.
  • the determination of the all-round panoramic image uses information associated with the metadata MD.
  • the projection display is automatically executed for the all-round panoramic image that can be appropriately projected and displayed, and a realistic display can be provided to the user.
  • the display operation can be switched so that low-quality projection display is not performed by performing display using another display method.
  • the metadata MT includes panorama mode type information, 360 ° field angle determination information, both-end alignment information, and the like, and these are associated with the panorama image data PD to determine whether or not the image is an all-round panorama image. Judgment can be performed easily and accurately. That is, the display method can be easily and accurately selected.
  • the display projection process can be executed accurately.
  • the association unit 11 of the image processing apparatus 1 uses a display processing program (dedicated program) used for displaying the panoramic image as panoramic image data PD as information indicating that the panoramic image is the panoramic image. It is related.
  • the display image generation unit 20 of the image processing apparatus 2 determines that the panoramic image data PD is a panoramic image because the display processing program is associated with the panorama image data PD, and displays projection processing based on the display processing program. To generate display image data.
  • FIG. 13A shows the panorama composition unit 10 and the association unit 11 in the image processing apparatus 1.
  • the associating unit 11 includes a display processing program generating unit 11d and a data integrating unit 11e.
  • the panorama composition unit 10 generates panorama image data PD and outputs panorama processing information Ip.
  • the panorama processing information Ip is supplied to the display processing program generator 11d.
  • the display processing program generator 11d generates a display processing program PG based on the panorama processing information Ip.
  • the display processing program generation unit 11d determines whether the panorama image data PD is an all-round panorama image based on any one of the panorama mode type information, 360 ° field angle determination information, and both-end alignment information in the panorama processing information Ip. In the case of an all-round panoramic image, the display processing program PG is generated.
  • the display processing program PG is written in, for example, Flash (Adobe), QuickTimeVR (Apple), or HTML5, and can be reproduced and displayed on a wide range of display devices.
  • the data integration unit 11e integrates the panorama image data PD generated by the panorama synthesis unit 10 and the display processing program PG generated by the display processing program generation unit 11d to generate a panorama image file PDr.
  • the panorama image file PDr has a structure as shown in FIG. 13B. That is, the data file structure includes a header, panorama image data PD, and a display processing program PG. In each of the devices DVC1 to DVC3, DVC4, and DVC6 illustrated in FIGS. 9 and 10, such a panoramic image file PDr is recorded on a recording medium or transmitted and output.
  • the panorama image file PDr has a normal panorama storage format and a display processing program PG may be added to the panorama image file PDr.
  • the panorama image data PD may be embedded in the display processing program itself. .
  • FIG. 13C shows the display image generation unit 20 in the image processing apparatus 2.
  • the display image generation unit 20 includes a data separation unit 20f and an image generation processing unit 20c.
  • the panorama image file PDr reproduced or received from the recording medium is input to the data separation unit 20f.
  • the data separation unit 20a separates the panorama image data PD and the display processing program PG from the panorama image file PDr and supplies them to the image generation processing unit 20c.
  • the panorama image data PD is not an all-round panorama image
  • the panorama image file PDr does not include the display processing program PG, and therefore the data separation unit 20f sends only the panorama image data PD to the image generation processing unit 20c. Supply.
  • the image generation processing unit 20c generates and outputs display image data PDdsp based on the panoramic image data PD.
  • processing based on the display processing program PG is performed to generate display image data PDdsp for projection display.
  • the panorama image data PD is not an all-round panorama image and the display processing program PG is not extracted, processing for other display, for example, scroll display or single view display is performed.
  • the generated display image data PDdsp is supplied to a display unit (not shown) or a device having the display unit to execute display.
  • the display image data PDdsp is supplied to the display unit 21 to perform panoramic image display.
  • FIG. 14 shows a processing example of the image processing apparatus 1 and the image processing apparatus 2 described above.
  • FIG. 14A shows processing of the panorama composition unit 10 and the association unit 11 as the image processing apparatus 1.
  • the panorama composition unit 10 captures the input image group FMS.
  • the panorama composition unit 10 performs panorama composition processing to generate panorama image data PD.
  • the panorama synthesizing unit 10 supplies the panorama processing information Ip obtained in this panorama synthesizing process to the associating unit 11 (display processing program generating unit 11d).
  • the associating unit 11 confirms the panorama processing information Ip, and determines whether or not the generated panorama image data PD is an all-round panorama image.
  • the determination as to whether or not the image is an all-round panoramic image is performed in the same manner as described in the first configuration example. A method of referring to the type information can be considered.
  • step F14 the process proceeds from step F14 to F15, and the associating unit 11 (display processing program generating unit 11d) generates a display processing program PG.
  • step F16 when the display processing program PG is generated, the associating unit 11 (data integration unit 11b) integrates the panorama image data PD and the display processing program PG to generate a panorama image file PDr as shown in FIG. 13B, for example. To do. If the display processing program PG is not generated, that is, if it is not an all-round panorama image, a panorama image file PDr including panorama image data PD is generated.
  • step F17 the panorama image file PDr is recorded on a recording medium by a recording / playback unit (not shown), or transmitted and output to an external device, a network, or the like by a communication unit (not shown).
  • FIG. 14B shows processing of the display image generation unit 20 of the image processing apparatus 2.
  • the display image generation unit 20 takes in the panoramic image file PDr that is reproduced by a recording / reproducing unit (not shown) or received by a communication unit (not shown).
  • the display image generation unit 20 performs a separation process of the panoramic image file PDr, and checks whether or not the display processing program PG is included.
  • the display image generation unit 20 branches the process depending on the presence or absence of the display processing program PG.
  • step F63 the display processing program PG is fetched in step F63, and the image generating unit 20c is set to be used as a program for generating a display image. Then, the display image generation unit 20 (image generation processing unit 20c) proceeds to step F64 to perform display projection processing according to the display processing program PG to generate display image data PDdsp. In step F65, the display image data PDdsp is generated. Process to output. The processes in steps F64 and F65 are continued until the display is finished in step F66 by a user operation or an automatic process. Thereby, in the display unit, for example, a display overlooking the entire circumference or a display in an arbitrary direction is executed as the projection display. It should be noted that the panorama image data PD has a 360 ° angle of view, and that the panorama image data PD The projection plane information, and the horizontal / vertical angle of view information for limiting the scrolling may be described in the display processing program PG.
  • step F62 If it is determined in step F62 that the display processing program PG does not exist, the display image generation unit 20 (image generation processing unit 20c) performs display image data generation processing based on the existing display processing program in step F67. For example, assuming that the image generation processing unit 20c stores a display processing program as scroll display or single view display, the display image data PDdsp as scroll display or single view display is generated using them. In step F68, the display image data PDdsp is output. The processes in steps F67 and F68 are continued until it is determined in step F69 that the display is finished. As a result, scroll display other than projection display and single view display are executed on the display unit. That is, scroll display or single view display is performed when the panoramic image is not an all-round panorama image.
  • the associating unit 11 associates the display processing program PG for executing the projection display corresponding to the all-round panoramic image with the panoramic image data PD and the panorama image data PD.
  • An image file PDr is generated.
  • the display image generation unit 20 performs display projection processing based on the display processing program PG and generates display image data PDdsp for projection display. To do.
  • the projection display is automatically executed for the panoramic image that can be appropriately projected and displayed, and a realistic display can be provided to the user.
  • the display operation can be switched so that low-quality projection display is not performed by performing display using another display method.
  • Third configuration example (file link information)> A third configuration example of the embodiment will be described.
  • the associating unit 11 of the image processing apparatus 1 performs a process of associating a data file including information indicating that it is an all-round panoramic image and a data file including the panoramic image data PD.
  • the display image generation unit 20 of the image processing apparatus 2 confirms the associated data file from the data file including the panoramic image data PD, acquires information, and determines whether or not the image is a panoramic image. In the case of an all-round panoramic image, display projection processing is performed to generate display image data.
  • FIG. 15A shows the panorama composition unit 10 and the association unit 11 in the image processing apparatus 1.
  • the associating unit 11 includes a metadata generating unit 11a and an associating information adding unit 11c.
  • the panorama composition unit 10 generates panorama image data PD and outputs panorama processing information Ip.
  • Panorama processing information Ip panoramic mode type information, 360 ° field angle determination information, both-end alignment information, composition projection surface information, horizontal / vertical field angle information, etc. is supplied to the metadata generation unit 11a.
  • the metadata generation unit 11a generates metadata MT reflecting the panorama processing information Ip.
  • the association information adding unit 11c generates a panorama image file PDr1 including panorama image data PD and a data file PDr2 including metadata MT.
  • file link information LK1 and LK2 are added to the panorama image file PDr1 and the data file PDr2, respectively, so that they are associated with each other.
  • the file link information LK1 is information specifying the data file PDr2
  • the file link information LK2 is information specifying the panorama image file PDr1. Note that file link information specifying the other may be added to only one of the panorama image file PDr1 and the data file PDr2.
  • such a panoramic image file PDr1 and a data file PDr2 are recorded on a recording medium or transmitted and output.
  • the recording medium on which each file is recorded may be another recording medium.
  • Each file may be transmitted to another device, a network server, or the like.
  • FIG. 15C shows the display image generation unit 20 in the image processing apparatus 2.
  • the display image generation unit 20 includes an association information extraction unit 20d, a corresponding data acquisition unit 20e, a metadata interpretation unit 20b, and an image generation processing unit 20c.
  • the panorama image file PDr1 reproduced or received from the recording medium is input to the association information extraction unit 20d.
  • the association information extraction unit 20d extracts the file link information LK1 from the panorama image file PDr1 and supplies it to the corresponding data acquisition unit 20e, and also supplies the panorama image data PD to the image generation processing unit 20c.
  • the corresponding data acquisition unit 20e performs access ACLK using the file link information LK1, and acquires the associated data file PDr2.
  • the data file PDr2 is read by accessing a predetermined recording medium.
  • the data file PDr2 is received by accessing a predetermined external device, network server, or the like.
  • the corresponding data acquisition unit 20e acquires the data file PDr2, it extracts the metadata MT and supplies it to the metadata interpretation unit 20b. That is, the metadata MT associated with the panorama image data PD to be displayed this time is obtained.
  • the metadata MT is interpreted by the metadata interpreter 20b, and an image is generated as panorama processing information Ip (panorama mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, and horizontal / vertical field angle information). It is supplied to the processing unit 20c.
  • panorama processing information Ip panoramic mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, and horizontal / vertical field angle information.
  • the image generation processing unit 20c generates and outputs display image data PDdsp based on the panoramic image data PD. At this time, whether or not to generate display image data PDdsp for projection display is determined according to the contents of the panorama processing information Ip. That is, when the panorama image data PD to be displayed is determined to be an all-round panorama image, a process for projection display is performed. If the panorama image data PD is not an all-round panorama image, other display such as scroll display or single view display Process. Then, the generated display image data PDdsp is supplied to a display unit (not shown) or a device having the display unit to execute display. In each of the devices DVC1 to DVC3, DVC5, and DVC7 illustrated in FIGS. 9 and 10, the display image data PDdsp is supplied to the display unit 21 to perform panoramic image display.
  • FIG. 16A shows processing of the panorama composition unit 10 and the association unit 11 as the image processing apparatus 1.
  • the panorama composition unit 10 takes in the input image group FMS.
  • the panorama composition unit 10 performs panorama composition processing to generate panorama image data PD.
  • the panorama synthesizing unit 10 supplies the panorama processing information Ip obtained in this panorama synthesizing process to the associating unit 11 (metadata generating unit 11a).
  • the associating unit 11 (metadata generating unit 11a) generates the metadata MT based on the panorama processing information Ip.
  • step F24 the associating unit 11 (association information adding unit 11c) generates a panorama image file PDr1 including panorama image data PD and file link information LK1, and also generates a data file PDr2 including metadata MT and file link information LK2. To do.
  • step F25 the panorama image file PDr1 and the data file PDr2 are recorded on a recording medium by a recording / playback unit (not shown), or transmitted and output to an external device, a network, or the like by a communication unit (not shown).
  • FIG. 16B shows processing of the display image generation unit 20 of the image processing apparatus 2.
  • the display image generation unit 20 (association information extraction unit 20d) takes in the panoramic image file PDr1 that has been reproduced by a recording / reproducing unit (not shown) or received by a communication unit (not shown).
  • the display image generation unit 20 (association information extraction unit 20d, corresponding data acquisition unit 20e, metadata interpretation unit 20b) accesses using the link information LK1 extracted from the panorama image file PDr1, and the data file PDr2 is obtained. get.
  • metadata MT is extracted from the data file PDr2, and is interpreted to obtain panorama processing information Ip.
  • the display image generation unit 20 (image generation processing unit 20c) branches the process depending on whether or not the current panorama image data PD to be displayed is a 360-degree panoramic image.
  • the determination as to whether or not the panorama image data PD is an all-round panorama image is performed using panorama mode type information, 360 ° field angle determination information, and both-end alignment information in the panorama processing information Ip. Either is possible. If it is determined in step F73 that it is an all-round panoramic image, the display image generation unit 20 (image generation processing unit 20c) proceeds to step F74 to perform display projection processing to generate display image data PDdsp, and in step F75. Then, the display image data PDdsp is output. The processes in steps F74 and F75 are continued until the display is terminated by a user operation or automatic process in step F76. Thereby, in the display unit, for example, a display overlooking the entire circumference or a display in an arbitrary direction is executed as the projection display.
  • the angle of view used in the display projection process may be 360 °.
  • the image generation processing unit 20c can accurately perform the reprojection process on the flat screen VS by referring to the composition projection plane information in the panorama process information Ip.
  • step F73 If it is determined in step F73 that the image is not an all-round panorama image, the display image generation unit 20 (image generation processing unit 20c) performs display image data generation processing of another method in step F77. For example, display image data PDdsp as scroll display or single view display is generated. In step F78, the display image data PDdsp is output. The processes in steps F77 and F78 are continued until it is determined in step F79 that the display is finished. As a result, scroll display other than projection display and single view display are executed on the display unit. That is, if the panoramic image data PD is not an all-round panoramic image and the angle of view is not accurately known, scroll display or single view display is performed.
  • the associating unit 11 includes the data file PDr2 including the metadata MT including the information indicating that it is an all-round panoramic image, and the panoramic image data PD.
  • the panorama image file PDr1 is generated and associated with the file link information LK1 and LK2.
  • the display image generation unit 20 acquires the metadata MT associated with the panorama image data PD using the file link information, and determines whether the panorama image data PD is an all-round panorama image from the metadata MT. Determine whether.
  • display projection processing is performed to generate display image data, and projection display is executed.
  • the projection display is automatically executed for the panoramic image that can be appropriately projected and displayed, and a realistic display can be provided to the user.
  • the display operation can be switched so that low-quality projection display is not performed by performing display using another display method.
  • the display processing program PG described in the second configuration example may be used.
  • the data file PDr2 shown in FIG. 15B includes the display processing program PG instead of the metadata MT. If the associated data file PDr2 includes the display processing program PG, the display image generation unit 20 uses the display processing program PG to generate display image data PDdsp for projection display. It is an example. As described above, there are various modes in which panoramic image data PD and information indicating that it is an all-round panoramic image are provided as separate files and associated with each other.
  • UMID Unique Material Identifier
  • the data file PDr2 of FIG. 15B may associate the metadata MT with the panorama image data PD in the panorama image file PDr1, which is another file, in a form like UMID.
  • the associating unit 11 of the image processing apparatus 1 uses the panorama image data itself as data of a specific format as information indicating that it is an all-round panoramic image. Further, the display image generation unit 20 of the image processing apparatus 2 determines that the panoramic image data is data of a specific format, and thus determines that the panoramic image is an all-round panoramic image, and performs display projection processing to display the display image data. Generate.
  • FIG. 17A shows the panorama composition unit 10 and the association unit 11 in the image processing apparatus 1.
  • the associating unit 11 includes a format processing unit 11f.
  • the panorama composition unit 10 generates panorama image data PD and outputs panorama processing information Ip.
  • the format processing unit 11f determines whether or not the panorama image data PD is an all-round panorama image based on any of the panorama mode type information, 360 ° field angle determination information, and both-end alignment information in the panorama processing information Ip. Then, in the case of an all-round panorama image, a panorama image file PDr including panorama image data PD in a dedicated format is generated. If it is not an all-round panorama image, a panorama image file PDr including panorama image data PD in a general normal format is generated.
  • the normal format panoramic image data PD is a commonly used image data format such as a JPEG (Joint Photographic Experts Group) format.
  • the dedicated format is a new data format dedicated to all-round panoramic images.
  • FIG. 17B shows the display image generation unit 20 in the image processing apparatus 2.
  • the display image generation unit 20 includes a format determination unit 20g and an image generation processing unit 20c.
  • the format determination unit 20g receives a panoramic image file PDr reproduced from or received from a recording medium.
  • the format determination unit 20g determines whether the panorama image data PD included in the panorama image file PDr is a dedicated format or a general format. Then, the extracted panorama image data PD and format determination information FM are supplied to the image generation processing unit 20c.
  • the image generation processing unit 20c generates and outputs display image data PDdsp based on the panoramic image data PD. At this time, it is determined whether or not the image is an all-round panorama image based on the format determination information FM, and if it is an all-round panorama image, display image data PDdsp for projection display is generated. When the panorama image data PD is not an all-round panorama image, processing for other display, for example, scroll display or single view display is performed. Then, the generated display image data PDdsp is supplied to a display unit (not shown) or a device having the display unit to execute display.
  • FIG. 18A shows processing of the panorama composition unit 10 and the association unit 11 as the image processing apparatus 1.
  • the panorama composition unit 10 captures the input image group FMS.
  • the panorama composition unit 10 performs panorama composition processing to generate panorama image data PD.
  • the panorama composition unit 10 supplies the panorama image data PD and the panorama processing information Ip obtained in the panorama composition process to the association unit 11 (format processing unit 11f).
  • the associating unit 11 confirms the panorama processing information Ip, and determines whether or not the generated panorama image data PD is an all-round panorama image. The determination as to whether or not the image is an all-round panoramic image is performed in the same manner as described in the first configuration example. A method of referring to the type information can be considered.
  • step F44 proceeds from step F44 to F45, and the associating unit 11 (format processing unit 11f) converts the panoramic image data PD into a dedicated format to generate a panoramic image file PDr.
  • the process proceeds from step F44 to F46, and the associating unit 11 (format processing unit 11f) generates a panorama image file PDr including the panorama image data PD in the normal format.
  • step F47 the panorama image file PDr is recorded on a recording medium by a recording / reproducing unit (not shown), or transmitted and output to an external device, a network, etc. by a communication unit (not shown).
  • FIG. 18B shows processing of the display image generation unit 20 of the image processing apparatus 2.
  • the display image generation unit 20 (format determination unit 20g) takes in the panoramic image file PDr that is reproduced by a recording / reproducing unit (not shown) or received by a communication unit (not shown).
  • the display image generation unit 20 (format determination unit 20g) determines the format of the panorama image data PD included in the panorama image file PDr.
  • the display image generation unit 20 branches the process according to the format determination result.
  • step F84 the display image generation unit 20 (image generation processing unit 20c) proceeds to step F84 to perform display projection processing to generate display image data PDdsp.
  • step F85 the display image is displayed. Data PDdsp is output.
  • the processes in steps F84 and F85 are continued until the display is ended by a user operation or automatic process in step F86.
  • the display unit for example, a display overlooking the entire circumference or a display in an arbitrary direction is executed as the projection display.
  • the angle of view of the panorama image data PD used in the projection calculation in the display projection process may be 360 °.
  • information on the projection plane of the panoramic image data PD, horizontal / vertical angle of view information for limiting scrolling, and the like are embedded in a data format of a dedicated format.
  • step F83 If it is determined in step F83 that the format is not a dedicated format, the display image generation unit 20 (image generation processing unit 20c) receives display image data PDdsp as another method, for example, scroll display or single view display, in step F87. Generate. In step F88, the display image data PDdsp is output. The processes in steps F87 and F88 are continued until it is determined in step F89 that the display is finished. As a result, scroll display other than projection display and single view display are executed on the display unit.
  • display image generation unit 20 receives display image data PDdsp as another method, for example, scroll display or single view display
  • the associating unit 11 performs a dedicated format in the case of an all-round panoramic image.
  • the display image generation unit 20 determines that the panorama image data PD is an all-round panorama image in the dedicated format, performs display projection processing, and displays display image data PDdsp for projection display. Is generated.
  • the projection display is automatically executed for the all-round panoramic image that can be appropriately projected and displayed, and a realistic display can be provided to the user.
  • the display operation can be switched so that low-quality projection display is not performed by performing display using another display method.
  • FIG. 19 shows a configuration example of the imaging device 50.
  • the imaging device 50 includes a lens unit 100, an imaging element 101, an image processing unit 102, a control unit 103, a display unit 104, a memory unit 105, a recording device 106, an operation unit 107, a sensor unit 108, and a communication unit 109.
  • the lens unit 100 condenses the optical image of the subject.
  • the lens unit 100 has a mechanism for adjusting a focal length, a subject distance, an aperture, and the like so that an appropriate image can be obtained in accordance with an instruction from the control unit 103. It also has a camera shake correction mechanism for optically suppressing image blur.
  • the image sensor 101 photoelectrically converts the optical image collected by the lens unit 100 into an electrical signal. Specifically, CCD (Charge Coupled Device) image sensor and CMOS (Complementary (Metal Oxide Semiconductor) Image sensor.
  • the image processing unit 102 includes a sampling circuit that samples an electric signal from the image sensor 101, an A / D conversion circuit that converts an analog signal into a digital signal, an image processing circuit that performs predetermined image processing on the digital signal, and the like. .
  • the image processing unit 102 is shown as performing a process of obtaining frame image data obtained by imaging with the image sensor 101 and also performing a process of synthesizing a panoramic image.
  • the image processing unit 102 is not only a dedicated hardware circuit, but also a CPU (Central Processing Unit) or a DSP (Digital Signal). Processor), and can perform software processing to cope with flexible image processing.
  • the control unit 103 includes a CPU and a control program, and controls each unit of the imaging device 50.
  • the control program itself is actually stored in the memory unit 105 and executed by the CPU.
  • the processing of the panorama synthesizing unit 10 and the associating unit 11 and the processing of the display image generating unit 20 described in each configuration example described above are executed by the control unit 103 and the image processing unit 102. Therefore, the image processing apparatuses 1 and 2 according to the present disclosure are realized by the control unit 103 and the image processing unit 102.
  • the display unit 104 is processed by the image processing unit 102 and has a D / A conversion circuit that converts the image data stored in the memory unit 105 into analog, and the analog image signal in a format suitable for a subsequent table device. It comprises a video encoder that encodes a video signal and a display device that displays an image corresponding to the input video signal.
  • the display device is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) panel, or the like, and also has a function as a finder.
  • the memory unit 105 includes a semiconductor memory such as a DRAM (Dynamic Random Access Memory), and temporarily stores image data processed by the image processing unit 102, a control program in the control unit 103, various data, and the like.
  • a semiconductor memory such as a DRAM (Dynamic Random Access Memory)
  • DRAM Dynamic Random Access Memory
  • the recording device 106 includes a recording medium such as a semiconductor memory such as a flash memory, a magnetic disk, an optical disk, and a magneto-optical disk, and a recording / reproducing system circuit / mechanism for the recording medium.
  • the image processing unit 102 encodes the JPEG (Joint Photographic Experts Group) format and stores the JPEG image data stored in the memory unit 105 on a recording medium.
  • JPEG image data stored in a recording medium is read into the memory unit 105, and the image processing unit 102 performs decoding processing.
  • the decoded image data can be displayed on the display unit 104 or can be transmitted and output to an external device by the communication unit 109.
  • the operation unit 107 includes input devices such as a shutter button, hardware keys such as an up / down / left / right arrow key, a determination key, and a cancel key, an operation dial, a touch panel, and a zoom lever, and detects an input operation of a photographer (user).
  • the control unit 103 determines the operation of the imaging device 50 in accordance with a user input operation, and controls each unit to perform a necessary operation.
  • the sensor unit 108 includes a gyro sensor, an acceleration sensor, a geomagnetic sensor, a GPS (Global Positioning System) sensor, and the like, and detects various types of information. Such information is added to the captured image data as metadata, and is also used for various image processing and control processing.
  • a communication unit 109 performs communication with external devices and network communication.
  • the communication unit 109 may be various examples such as a USB communication unit, a LAN communication unit, a public network communication unit such as the Internet, and a dedicated communication unit with a specific device.
  • the form of the transmission path may be any of a wireless transmission path using radio waves, infrared rays, etc., and a wired transmission path using cable connection.
  • the signal form digital electric signal communication, analog electric signal communication, optical communication, and the like are assumed.
  • the image processing unit 102, the control unit 103, the display unit 104, the memory unit 105, the recording device 106, the operation unit 107, the sensor unit 108, and the communication unit 109 are connected to each other via a bus 110, and image data and control signals Etc. are exchanged.
  • FIG. 20 shows the processes executed in the image processing unit 102 and the control unit 103 for the panorama synthesis process and the association process as functional configurations, and shows the processes executed by those functional components.
  • the association process an example using the metadata described in the first configuration example will be described.
  • the image processing device 1 is formed in the imaging device 50 by providing at least the function as the associating unit 11 by software or the like in the image processing unit 102 or the control unit 103.
  • processing executed by the function as the panorama composition unit 10 is shown in each block. That is, the panorama composition unit 10 performs pre-processing 200, image registration processing 201, moving subject detection processing 202, detection / recognition processing 203, 360 ° imaging determination processing 204, 360 ° optimization processing 205, composition projection processing 206, and seam determination. Processing 207 and stitch processing 208 are performed.
  • the input image group FMS that is the target of the preprocessing 200 is frame image data FM # 0 and FM # sequentially obtained when the photographer is performing panoramic imaging with the imaging device 50. 1, FM # 2.
  • preprocessing 200 for panorama synthesis is performed on an image (each frame image data) captured by the photographer's panorama imaging operation.
  • the frame image data FM here is subjected to the same image processing as in normal imaging.
  • the input image is affected by aberrations based on the characteristics of the lens unit 100. In particular, the distortion of the lens adversely affects the image registration process 201 and lowers the alignment accuracy.
  • distortion is corrected in this pre-processing 200. There is also an effect of improving the accuracy of the moving subject detection process 202 and the detection / recognition process 203 by correcting the distortion.
  • the panorama composition unit 10 performs an image registration process 201, a moving subject detection process 202, and a detection / recognition process 203 for the frame image data subjected to the pre-processing 200.
  • the image registration processing 201 is processing for inputting two consecutive frame image data and performing alignment in the panoramic coordinate system.
  • the information obtained by the image registration processing 201 for the two frame image data is only a relative relationship between the two image coordinates, but one of the plural image coordinate systems (for example, the first frame image data).
  • the coordinate system of all the frame image data can be converted to the panorama coordinate system by selecting the coordinate system of (2) and fixing it to the panorama coordinate system.
  • Specific processing performed in the image registration processing 201 is roughly divided into the following two. 1. Detect local motion in the image. 2. The global motion of the entire image is obtained from the local motion information obtained above.
  • -Block matching-Feature point extraction and feature point matching such as Harris, Hessian, SIFT, SURF, FAST, etc. are used to obtain local vectors of image feature points.
  • the local vector group obtained in the process 1 is used as an input.
  • LMedS Minimum median method
  • RANSAC Random SAmple Consensus
  • panorama composition processing combines multiple frame image data, so if there is a moving subject in the imaging scene, the moving subject may be partially broken or blurred, causing image corruption and image quality degradation. It becomes. Therefore, it is preferable to detect a moving subject and determine a panoramic seam while avoiding the moving subject.
  • the moving subject detection process 202 is a process for inputting two or more continuous frame image data and detecting a moving subject.
  • a specific example of the process is that when the difference value between the pixels of the two frame image data actually aligned is greater than or equal to a threshold value based on the image registration information obtained by the image registration process 201, The pixel is determined as a moving subject. Alternatively, the determination may be performed using feature point information determined as an outlier at the time of robust estimation of the image registration processing 201.
  • the detection / recognition process 203 position information such as a human face, body, and animal in the captured frame image data is detected. Humans and animals are likely to be moving subjects, and even if they are not moving, if a panoramic seam is determined on the subject, it often causes a visual discomfort compared to other objects. It is preferable to avoid these objects and determine the seam. That is, the information obtained by the detection / recognition process 203 is used to supplement the information of the moving subject detection process 202. Based on the information obtained in the moving subject detection process 202 and the detection / recognition process 203, a seam (joint) is determined in a seam determination process 207 described later.
  • 360 ° imaging determination processing 204 and 360 ° optimization processing 205 perform processing specialized for 360 ° all-round imaging.
  • 360 ° imaging determination processing 204 and 360 ° optimization processing 205 perform processing specialized for 360 ° all-round imaging.
  • various problems during 360 ° imaging will be described.
  • 21A, 21B, and 22 are examples of panoramic images in each case.
  • a part of the left end area of the panorama image is copied and shown on the right end (right side of the boundary line BD) of each panorama image.
  • Image RCP An image part excluding the image RCP, that is, a part indicated by the range RP of the output panoramic image is a final panoramic image.
  • 360 ° panoramic panorama it is desirable that images are naturally connected with continuity without deviation on both sides of the boundary line BD.
  • the focal length (f: pixel conversion value) of the lens of the imaging apparatus the number of pixels in the sweep direction of the panoramic image (l), and the panoramic angle of view ( ⁇ ) have the following relationships.
  • l f ⁇
  • Since it is affected by the radius of rotation at the time of sweeping, correction error of distortion aberration, error of registration processing, etc., it can be significantly different from the angle of view of the actual landscape. Due to the processing performance of the imaging apparatus, the error becomes more prominent when the registration process is limited to only parallel movement or when simplification of the algorithm such as omitting the projection process is performed.
  • FIG. 21A is an example of a panoramic image obtained by determining the number of panoramic pixels corresponding to 360 ° from the above formula and performing the synthesis process. Because of the error, the image is synthesized exceeding 360 °, and there is no continuity between the left end and the right end (boundary line BD portion) of the panoramic image. As described above, it is generally difficult to accurately determine the panoramic angle of view. However, in the case of 360 ° all-round imaging, the angle of view is considered by considering the constraint that the continuity between the right end and the left end of the panorama can be obtained. Can be determined.
  • FIG. 23 is a conceptual diagram of an image group (frame image data FM # 0 to FM # (n ⁇ 1)) obtained by 360 ° panoramic imaging. Assuming that the sweep direction is from left to right and the first frame image data FM # 0 used at the left end of the panorama is 0 °, the frame image data of the same image at the position 360 ° ahead For FM # 0A and the final frame image data FM # (n ⁇ 1) used at the right end of the panoramic image, the following conditions are specifically satisfied. FM # 0A and FM # (n-1) have overlapping areas FM # (n-1) is the image closest to FM # 0A on the left side of FM # 0A
  • the position of 360 ° can be determined.
  • this process is performed by a 360 ° imaging determination process 204.
  • the 360 ° imaging determination process 204 if the final frame image data FM # (n ⁇ 1) satisfying the above two conditions can be determined, the panorama image data being synthesized is an all-round panorama image obtained by 360 ° imaging. Judge that there is. Conversely, if the final frame image data FM # (n ⁇ 1) satisfying the above two conditions cannot be determined, it is determined that the panoramic image data being synthesized is not an all-round panoramic image.
  • This determination result becomes 360 ° field angle determination information which is one of the panorama processing information Ip described above.
  • processing for outputting 360 ° field angle determination information to the associating unit 11 is also performed.
  • the 360 ° imaging determination process 204 may be performed when panorama imaging is executed in the 360 ° panorama imaging mode. In cases other than 360 ° panorama imaging mode (for example, 180 ° panorama imaging mode), it is not necessary to perform this 360 ° imaging determination processing 204. In this case, the 360 ° field angle determination information may be information indicating a non-round panoramic image. Further, in the process of the 360 ° imaging determination process 204, horizontal / vertical field angle information and panorama mode type information may be generated and output to the associating unit 11.
  • FIG. 21B is an example of the result of combining up to the final image determined in the 360 ° imaging determination process 204, that is, the frame image data FM # (n ⁇ 1) that matches the above two conditions. Since the 360 ° position is determined in the 360 ° imaging determination process 204, the panoramic image is a 360 ° image. However, this example does not have continuity between the left end and the right end of the panorama as in the example of FIG. 21A. In this example, the horizontal position is correct, but the vertical position is shifted.
  • This process is the both-end alignment process described above. That is, the image registration information is adjusted so that there is no image misalignment in the vertical and horizontal directions at both ends of the panoramic image at 0 ° and 360 ° of the panoramic image.
  • the positions of all the frame image data FM # 0 to FM # (n ⁇ 1) are optimized so that the position of the frame image data FM # 0A matches the position of the frame image data FM # 0B. It will be corrected.
  • a simple distribution method is as follows. As shown in FIG. 23, the position of the frame image data FM # 0A and the position of the frame image data FM # 0B have a horizontal error ⁇ X and a vertical error ⁇ Y. The x coordinate position and the y coordinate position of the n pieces of frame image data FM # 0 to FM # (n ⁇ 1) constituting the panoramic image are shifted by ⁇ X / n and ⁇ Y / n, respectively.
  • the error is absorbed little by little in each frame image data FM, and the position of the virtual frame image data FM # 0A as an image similar to the first frame image data FM # 0 is determined as the frame image data FM #. Match the position indicated as 0B.
  • Each of the frame image data FM # 0 to FM # (n ⁇ 1) is slightly shifted from the original coordinate position, but the overall image quality is hardly deteriorated.
  • FIG. 22 shows an example of a result of panorama synthesis using image registration information corrected by performing both-end positioning as described above in the 360 ° optimization process 205.
  • the information on whether or not both-end alignment has been executed by the 360 ° optimization process 205 as described above becomes the both-end alignment information that is one of the panorama processing information Ip.
  • a process of outputting both end alignment information to the associating unit 11 is also performed.
  • all frame image data is simply converted based on the image registration information obtained by the image registration process 201 (or the image registration information corrected by the 360 ° optimization process 205).
  • Projection processing is performed on a single flat surface or a single curved surface such as a cylindrical surface or a spherical surface.
  • the moving subject information and detection / recognition information are projected onto the same plane or curved surface.
  • the projection plane may be automatically selected from the angle of view at the time of imaging, or may be set according to a user operation.
  • the frame image data composition projection process 204 may be performed as a pre-stage process of the stitch process 208 or as a part of the stitch process 208 in consideration of optimization of the pixel process. Further, it may be simply performed before the image registration processing 201, for example, as a part of the preprocessing 200. Further, it may be further simplified and handled as an approximation of cylindrical projection processing without performing the processing itself.
  • the information on the type of projection plane in the synthesis projection process 206 becomes synthesis projection plane information which is one of the panorama process information Ip.
  • synthesis projection plane information which is one of the panorama process information Ip.
  • a process of outputting the composition projection plane information to the associating unit 11 is also performed.
  • the seam determination process 207 includes image data from the compositing projection process 206, image registration information from the image registration process 201, moving subject information from the moving subject detection process 202, and detection / recognition information from the detection / recognition process 203. Is input, and an appropriate seam SM (the seams SM0 to SM (n-2) described with reference to FIGS. 2 and 3) is determined as a panoramic image with less failure.
  • a cost function is defined for the overlapping region between adjacent frame image data from the input information.
  • the function value may be a total value obtained by assigning appropriate weights to the moving subject information from the moving subject detection process 202 and the detection / recognition information from the detection / recognition process 203 for each pixel in the overlapping region.
  • the higher the cost function value the more objects such as moving subjects and human bodies exist on the point, so the cost function value is low to minimize the collapse in the panoramic image.
  • a set of points may be a seam.
  • n images (frame image data) are used for panoramic image synthesis
  • the number of overlapping areas is n ⁇ 1, and n ⁇ 1 cost functions are defined. Therefore, in order to select an optimal seam for the entire panoramic image, a combination that minimizes these n-1 cost functions is obtained.
  • This is generally called a combinatorial optimization problem, and the following solutions are known.
  • All of the seams SM1 to SM (n-2) can be obtained by any of the above solutions.
  • the stitch process 208 uses all the seams SM1 to SM (n-2) determined as described above and the frame image data FM # 0 to FM # (n-1) to finally generate a panoramic image. Synthesize. For the area around the seam, blend processing is performed to reduce the unnaturalness of the joint, and for other areas, only simple pixel value copying or resampling to the panoramic coordinate system is performed. Do and join all images. Finally, by trimming unnecessary portions in the direction perpendicular to the sweep in consideration of the amount of camera shake, a panoramic image (panoramic image data PD) having a wide angle of view with the sweep direction as the long side direction is obtained. Can do.
  • the processing of the associating unit 11 is further performed on the panoramic image data PD generated by the panorama synthesizing unit 10.
  • the functional configuration of FIG. 11A is first adopted as the first configuration example.
  • the associating unit 11 performs a metadata generation process 301 and a data integration process 302.
  • panorama processing information Ip is supplied from the panorama synthesizing unit 10 to the associating unit 11. That is, 360 ° field angle determination information obtained by 360 ° imaging determination processing 204, both-end alignment information obtained by 360 ° optimization processing 205, and composition projection plane information obtained by composition projection processing 206 are associated with association section 11. Supplied. Further, panorama mode type information and horizontal / vertical angle of view information may be supplied.
  • the association unit 11 generates the metadata MT reflecting the panorama processing information Ip as the metadata generation processing 301.
  • the metadata MT is at least a 360 ° angle of view in order to determine whether or not it is an all-round panoramic image in the processing of the display image generation unit 20 described later, and to perform display projection processing. It is not necessary to include all of the determination information, both-end alignment information, compositing projection plane information, panorama mode type information, and horizontal / vertical field angle information.
  • whether the display image generation unit 20 is an all-round panoramic image is determined by any of 360 ° field angle determination information, both-end alignment information, and panorama mode type information. Please refer to.
  • panorama processing information Ip generated by the panorama composition unit 10 and converted into metadata by the metadata generation unit 11a
  • the associating unit 11 integrates the panorama image data PD generated by the panorama synthesizing unit 10 and the metadata MT generated by the metadata generation process 301 to generate a panorama image file PDr.
  • the panorama image file PDr has a structure having image data and metadata as described with reference to FIG. 11B. More specifically, an example in which metadata is embedded in image data, such as EXIF (Exchangeable Image File Format), can be considered.
  • the panoramic image data PD and the metadata MT may be independent files.
  • the image processing unit 102 and the control unit 103 perform the above-described processing as the panorama synthesizing unit 10 and the associating unit 11, and the resulting panorama image file PDr is recorded in the recording device 106.
  • the panorama image file PDr may be transmitted from the communication unit 109 to the outside.
  • FIG. 10 An example of a series of processes from panorama imaging to recording including the processes of the panorama composition unit 10 and the association unit 11 described above is shown in FIG.
  • the image capturing in step F100 means a process of capturing a single still image in the panoramic image capturing mode and capturing it as a single frame image data in the image capturing apparatus 1. That is, under the control of the control unit 103, the image pickup signal obtained by the image pickup device unit 101 is processed by the image processing unit 102 and becomes one frame image data. This frame image data may be used as it is for the panorama synthesis process (the process of the panorama synthesis unit 10 in FIG. 20) in the image processing unit 102, or once taken into the memory unit 105 and then one frame image. Data may be used for panorama synthesis processing in the image processing unit 102.
  • the panorama composition unit 10 of FIG. 20 realized by the image processing unit 102 and the control unit 103 performs the processing after step F101 in response to the input of the frame image data based on step F100.
  • step F101 the panorama composition unit 10 performs preprocessing 200.
  • step F102 the panorama composition unit 10 performs an image registration process 201.
  • step F103 the panorama composition unit 10 performs a moving subject detection process 202.
  • step F ⁇ b> 104 the panorama composition unit 10 performs detection / recognition processing 203. Note that pixel information, image registration information, moving subject information, detection / recognition information, and the like of the image obtained by each of these processes are temporarily stored in the memory unit 105 as information corresponding to the frame image data to be processed. .
  • the above processing is performed for each frame image data until imaging is finished in step F105.
  • the panorama composition unit 10 When the above processing is completed for all the captured frame image data FM, the panorama composition unit 10 performs 360 ° imaging determination processing 204 in step F106. In step F107, the panorama composition unit 10 performs 360 ° optimization processing 205. In step F108, the panorama composition unit 10 performs the composition projection processing 206 using the image registration information adjusted in the 360 ° optimization processing 205.
  • step F109 the panorama composition unit 10 performs the seam determination processing 207 to determine the seams SM0 to SM (n-2).
  • step F110 the panorama composition unit 10 executes the stitch process 208. That is, the frame image data is connected by the seams SM0 to SM (n-2). A blending process is also performed at the time of joining. Thus, one panoramic image data PD as shown in FIG. 3A is generated.
  • the associating unit 11 performs a metadata generation process 301. That is, metadata MT reflecting the panorama processing information Ip supplied from the panorama composition unit 10 is generated. In step F112, the associating unit 11 performs a data integration process 302 to generate a panoramic image file PDr.
  • the control unit 103 performs control to cause the recording device 106 to record the panorama image file PDr generated by the processing as the panorama composition unit 10 and the association unit 11 in this way.
  • the panorama image file PDr including the panorama image data PD and the metadata MT is recorded, and subsequent playback display and the like are possible.
  • FIG. 25 shows state transitions in the four display modes.
  • the control unit 103 sets the imaging device 50 to the reproduction display state.
  • a transition is made from the initial state to the single view display mode.
  • the latest panoramic image file PDr image is displayed as shown in FIG. 7A, for example.
  • the user can switch to another panoramic image file PDr image by pressing the right arrow key and the left arrow key of the operation unit 107.
  • the state is changed to the list display as shown in FIG. 7B and the image list is displayed.
  • the state transitions again to the single view display, and the image of the selected panorama image file PDr is displayed. Is displayed.
  • the control unit 103 refers to the metadata of the image of the displayed panorama image file PDr.
  • the control unit 103 transitions to a projection display mode and executes projection display. .
  • projection processing is performed in accordance with the combined projection plane information recorded as metadata, and projection display is started.
  • the user can change the line-of-sight direction using the up / down / left / right arrow keys, and can instruct zoom-in and zoom-out using the zoom lever.
  • the line-of-sight direction and zoom value are limited by the horizontal and vertical angle of view as a panoramic image because the horizontal and vertical angle of view information is recorded in the metadata. There is no end to it. If there is no key operation for a certain period of time, it is possible to change the line of sight automatically by setting the menu.
  • the projection display mode when the user presses the cancel key, the state is changed to the single view display state, and the single view display is performed again.
  • the state transitions to the scroll display mode and scroll display is executed.
  • the scroll display mode scrolling automatically starts in the long side direction of the panorama, but the user can use the up / down / left / right arrow keys to scroll in any direction, zoom in / out using the zoom lever. Is also possible.
  • the scroll display mode when the user presses the cancel key, a transition is made to the single view display state, and the single view display is performed again.
  • projection display is performed if the panoramic image is an all-round panorama
  • scrolling display is performed if the panoramic image is not the panoramic panorama image. Done. If it is an all-round panoramic image, a high-quality projection display is automatically provided to the user.
  • a panoramic image is displayed by scroll display. That is, an appropriate display mode is selected according to the panoramic image.
  • FIG. 26 shows processing executed in the display image generation unit 20 provided in the control unit 103 for generation processing of the display image data PDdsp.
  • the processing of the display image generation unit 20 is an example according to the example using the metadata described in the first configuration example.
  • the display image generation unit 20 realized by software in the control unit 103 performs a data separation process 401, a metadata interpretation process 402, and an image generation process 403 as illustrated.
  • the display image generation unit 20 separates the metadata MT and the panorama image data PD as the data separation process 401 from the panorama image file PDr to be displayed read from the recording device 106.
  • the separated metadata MT is interpreted by the metadata interpretation processing 402, and panorama processing information Ip (panorama mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, horizontal and vertical field angle information).
  • panorama processing information Ip panoramic mode type information, 360 ° field angle determination information, both-end alignment information, composition projection plane information, horizontal and vertical field angle information.
  • display image data PDdsp is generated according to the display mode information Md and output to the display unit 104.
  • a display method selection process 403a, a single view display process 403b, a list display process 403c, a scroll display process 403d, and a projection display process 403e are performed.
  • a process for selecting which display is to be executed is performed based on the display mode information Md corresponding to the display mode transition based on the user operation or the like. Further, when shifting to the scroll display mode or the projection display mode in the state of the single view display mode, the scroll display mode and the projection display mode are set with reference to the panorama processing information Ip interpreted in the metadata interpretation process 402. select.
  • display image data PDdsp as single view display is generated for the supplied panoramic image data PD.
  • list display process 403b for example, a list image is generated from the thumbnail images of each panorama image file PDr read from the recording device 106, and processed as display image data PDdsp as a list display.
  • scroll display processing 403d display image data PDdsp as scroll display is generated for the supplied panoramic image data PD.
  • projection display process 403e a display projection process is performed on the supplied panoramic image data PD to generate display image data PDdsp as a projection display. Display image data PDdsp generated by any of these processes is supplied to the display unit 104 and displayed on the screen.
  • FIG. 27 shows a processing example of the control unit 103 (display image generation unit 20) corresponding to the display mode transition of FIG.
  • the display image generation unit 20 When the reproduction display is started in accordance with a user operation or the like, the display image generation unit 20 performs processing in the single view display mode in step F201. For example, the display image generation unit 20 reads the latest panoramic image file PDr from the recording device 106, performs single view display processing 403 b, generates display image data PDdsp, and supplies the display image data PDdsp to the display unit 104. During the period of the single view display mode, the display image generation unit 20 monitors a trigger for mode transition or display end in steps F202, F203, and F206 (display method selection processing 403a).
  • Step F202 When the display image generation unit 20 detects the end trigger, the playback display operation is ended from Step F202.
  • the display image generation unit 20 When the display image generation unit 20 detects an operation to the list display mode, the display image generation unit 20 proceeds from step F203 to F204, and performs a list display process 403c. For example, the thumbnail image of each panoramic image file PDr is read from the recording device 106 to generate a list image, and is supplied to the display unit 104 as display image data PDdsp.
  • the display image generation unit 20 monitors a trigger for the end of list display (display method selection processing 403a). When the list display ends, the process returns to step F201 to perform the single view display process 403b. For example, display image data PDdsp as single view display is generated and supplied to the display unit 104 for the panoramic image selected on the list.
  • the display image generation unit 20 proceeds from step F206 to F207, and first confirms the panorama processing information Ip. That is, it is determined whether or not the image currently displayed in single view is an all-round panoramic image. In this case, the display image generation unit 20 can determine whether or not the panorama image data PD is an all-round panorama image based on any of the panorama mode type information, 360 ° field angle determination information, and both-end alignment information in the panorama processing information Ip. .
  • the display image generation unit 20 proceeds from step F208 to F211 and performs projection display processing 403e to generate display image data PDdsp and supply it to the display unit 104.
  • the display image generation unit 20 monitors the end of the projection display mode, and when it ends, the process returns to the single view display process 403b in step F201.
  • the display image generation unit 20 proceeds from step F208 to F209, performs scroll display processing 403d, generates display image data PDdsp, and supplies it to the display unit 104.
  • the display image generation unit 20 monitors the end of the projection display mode, and when it ends, the process returns to the single view display process 403b in step F201.
  • the control unit 103 performs a display projection process when the panorama image data PD that is a display target is determined to be an all-round panorama image, and displays the display image.
  • Data PDdsp is generated and projection display is executed.
  • display image data PDdsp is generated and scrolled by a scroll display process in which the panoramic image data PD is sequentially cut out from the projection plane at the time of synthesis without performing the display projection process. Execute the display.
  • a single view display process may be performed as a display process that does not perform the display projection process. For example, even if an instruction for enlargement display is given in the single view display process, enlargement display is not performed except for the all-around panoramic image.
  • the image processing devices 1 and 2 according to the first configuration example are mounted.
  • the second to fourth configuration examples an example in which the image processing apparatuses 1 and 2 are mounted is also assumed.
  • the program of the embodiment performs the processing shown in the above embodiment, for example, a CPU (Central Processing Unit), a DSP (Digital Signal) A program to be executed by an arithmetic processing device such as a processor.
  • the program for realizing the image processing apparatus 1 determines that panoramic image data generated by using a plurality of frame image data obtained by an imaging operation while displacing the imaging direction is determined as an all-round panoramic image.
  • This is a program for causing an arithmetic processing unit to execute processing for associating the panoramic image data with information indicating that it is an all-round panoramic image.
  • this program may be a program that causes the arithmetic processing unit to execute the processing shown in FIG. 12A, FIG. 14A, FIG. 16A, FIG. 18A, or FIG.
  • the program for realizing the image processing device 2 performs processing for generating display image data by performing display projection processing when the panorama image data to be displayed is determined to be an all-round panoramic image.
  • This is a program to be executed.
  • this program may be a program that causes the arithmetic processing unit to execute the processing shown in FIG. 12B, FIG. 14B, FIG. 16B, FIG. 18B, or FIG.
  • Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • flexible disk CD-ROM (Compact Disc Read Only Memory), MO (Magnet Optical (disk), DVD (Digital Versatile Disc), Blu-ray Disc (Blu-ray (Registered Trademark) Disc), magnetic disk, semiconductor memory, memory card, etc., stored (recorded) temporarily or permanently I can keep it.
  • a removable recording medium can be provided as so-called package software.
  • such a program can be downloaded from a removable recording medium to a personal computer or the like, or downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for providing a wide range of image processing apparatuses 1 and 2 according to the embodiment.
  • a program for example, by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant) or the like, the portable information processing device or the like is connected to the image processing devices 1 and 2. can do.
  • the same processing as that of the image processing devices 1 and 2 of the embodiment may be executed.
  • the CPU 71 of the computer device 70 executes various processes according to a program stored in the ROM 72 or a program loaded from the storage unit 78 to the RAM 73.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74.
  • An input / output interface 75 is also connected to the bus 74.
  • the input / output interface 75 includes an input unit 76 such as a keyboard and a mouse, a display such as a CRT (Cathode Ray Tube) or LCD or an organic EL panel, an output unit 77 such as a speaker, and a hard disk.
  • a communication unit 79 including a storage unit 78 and a modem is connected. The communication unit 79 performs communication processing via a network including the Internet.
  • a drive 80 is connected to the input / output interface 75 as necessary, and a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
  • a removable medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is Installed in the storage unit 78 as necessary.
  • this recording medium is constituted by a removable medium 81 distributed to distribute a program to the user, separately from the apparatus main body.
  • the removable disk 81 is, for example, a magnetic disk (including a flexible disk) on which a program is recorded, an optical disk (including a Blu-ray disk, a CD-ROM, a DVD), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor. It consists of memory.
  • the recording medium is also configured by a ROM 72 in which a program is recorded and a hard disk included in the storage unit 78 that is distributed to the user in a state of being incorporated in the apparatus main body in advance.
  • Such a computer device 70 can receive data by the communication unit 79 or drive 8.
  • n-frame image data FM # 0 to FM # (n-1) for panoramic image generation is input by 0 (removable medium 81) or a playback operation in the recording unit 78
  • the CPU 71 loads the program into the program. Based on this, the function of the image processing apparatus 1 is realized, and the processing as the association unit 11 described above is executed.
  • one piece of panoramic image data is generated from the n frames of frame image data FM # 0 to FM # (n ⁇ 1) input.
  • the CPU 71 realizes the function of the image processing device 2 based on the program, and executes the processing as the display image generation unit 20 described above.
  • the first configuration example to the fourth configuration example may be combined. For example, adding metadata and a dedicated program as an association process by combining the first configuration example and the second configuration example, or combining metadata and a dedicated format as an association process by combining the first configuration example and the fourth configuration example It is conceivable to perform the process.
  • the imaging device 50 of the fifth configuration example is an example having both functions of the associating unit 11 and the display image generating unit 20, but for example, only one function of the associating unit 11 and the display image generating unit 20 is provided. An example of provision is also conceivable.
  • panorama image data PD that is not an all-round panorama image is not a target of projection display, but may be displayed by a specific operation.
  • an accurate three-dimensional model cannot be constructed, there is a possibility that the projection display image may be distorted.
  • this is allowed as a special mode.
  • the image processing apparatus is mounted on the above-described imaging device 50 and the computer device 70, and has a function of inputting frame image data without having an imaging function, such as a mobile phone, a game machine, a video device, and an imaging function. It is also useful to be mounted on a mobile phone, a game machine, a video device, or an information processing apparatus.
  • this technique can also take the following structures.
  • (1) When panoramic image data generated using a plurality of frame image data obtained by an imaging operation while displacing the imaging direction is determined to be an all-round panoramic image, the panoramic image data and the panorama An image processing apparatus comprising an associating unit that associates information indicating that image data is an all-round panoramic image.
  • (2) The case where it is determined that the image is an all-round panoramic image
  • (3) The case where it is determined as the above-mentioned all-round panoramic image is The image processing apparatus according to (1) or (2), wherein the panoramic image data has a 360 ° field angle and has been subjected to alignment processing on both ends of the image.
  • the case where it is determined to be the all-round panoramic image is The above (1) is a case where panoramic image data is obtained by a 360 ° panoramic imaging mode operation in which panoramic image data is generated using a plurality of frame image data obtained by an imaging operation while displacing the imaging direction by approximately 360 °. ).
  • the image processing apparatus according to any one of (1) to (4), wherein the associating unit associates metadata as information indicating the panoramic image of the entire circumference with panoramic image data.
  • the associating unit associates a display processing program used for displaying the panoramic image with panoramic image data as information indicating that the panoramic image is the panoramic image.
  • the image processing apparatus uses panoramic image data itself as data of a specific format as information indicating the panoramic image of the entire circumference.
  • the association unit uses panoramic image data itself as data of a specific format as information indicating the panoramic image of the entire circumference.
  • the associating unit associates a data file including information indicating the panoramic image with the entire circumference and a data file including panoramic image data. apparatus.
  • the metadata includes information indicating a type of a projection plane of the frame image data at the time of panorama image generation.
  • the metadata includes panoramic image data generated by panoramic image data using a plurality of frame image data obtained by an imaging operation while the imaging direction is displaced by approximately 360 °.
  • the image processing apparatus according to any one of (5), (9), (10), (11), and (12), which includes information indicating whether or not it has been obtained.
  • the above metadata (5), (9), (10), (11), (12) or (13) includes information on the horizontal angle of view and vertical angle of view of the panoramic image data.
  • the image processing apparatus according to any one of the above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Optics & Photonics (AREA)

Abstract

 画像処理装置は、撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける関連付け部を備えるようにする。

Description

画像処理装置、画像処理方法、プログラム
 本開示は画像処理装置、画像処理方法、及びそれらを実現するプログラムに関し、特にパノラマ画像データの表示に適した画像処理に関する。
特開2010-161520号公報
 上記特許文献1に示されるように、複数枚の画像から1枚のパノラマ画像を生成する画像処理が知られている。
 例えばユーザがカメラを水平にスイープさせながら多数の撮像画像(フレーム画像データ)を得、これを合成することで、いわゆるパノラマ画像を得ることができる。
 なお「スイープ」とは、パノラマ画像生成のための複数のフレーム画像データを得るために、撮像時に撮像装置の回転運動による撮像方向移動の動作をいう。例えば水平方向に撮像方向を移動させる場合、スイープ方向とは水平方向を指す。
 パノラマ画像について再生表示を行う場合、いわゆるシングルビュー表示を行うことやスクロール表示を行うことが一般的であった。
 シングルビュー表示とは、1枚の静止画表示としてパノラマ画像データの全体を縮小して表示するものである。この場合、パノラマ画像全体を見ることができるが、縮小により迫力のある画像とはなりにくい。
 スクロール表示は、パノラマ画像データの一部を順次切り出してスクロールさせながら表示させていくものである。スクロール表示により、画面上で、パノラマ画像を部分毎に大きく見ることができる。
 しかしながら、スクロール表示は、例えば円筒面などに投影された状態のパノラマ画像データを単に順次切り出して表示するものであり、例えば水平線や建物等の直線部分が大きく湾曲するなど、ユーザ視点からの光景を必ずしも的確に反映するものではない。
 これに対し、円筒面等に投影されたパノラマ画像を平面スクリーンに再度投影して表示画像とすることで、高い臨場感、没入感が得られる再生手法がある。このような再生表示の手法を、説明上「投影表示」ということとする。
 例えばQuickTime VR . An Image-Based Approach to Virtual Environment
Navigation[Apple Computer, Inc.]などが知られている。
 このような投影表示を用いると、パノラマ画像の表示を見るユーザの満足度を高めることができると考えられるが、単にスクロール表示に代えて投影表示を行うことは次の点で困難となる。
 投影表示を行うためのオーサリングにはパノラマ画像の画角が必要であるが、通常、ユーザがデジタルスチルカメラのパノラマモードで撮像したパノラマ画像の画角が正確にわかることは少ない。例えばパノラマ画像には、120°くらいの画角の画像や180°くらいの画角の画像から、360°画角の全周画像など、多様な画像がある。そして360°画角以外では、位置合わせ誤差、スイープ半径、歪曲収差などの影響により、パノラマ画像データから画角を求めようとしてもその計算が不正確になり、正確な画角を求めることができない。 
 このようにパノラマ画像データのみでは画角がわからず、投影表示のオーサリングを行うことができない。投影表示のために画角をわかるようにするには、例えばパノラマ撮像時にユーザが大まかに画角を見積もっておき、オーサリング時に画角を手動入力する必要がある。これは一般ユーザには困難な作業となる。また入力した画角が実際とは大きく食い違っていると、投影表示画像に歪みが生ずる結果となる。
 このようなことから、投影表示が実使用上、或いは表示品質上、必ずしも常に最適な表示方式とはならない。
 本開示では、例えば専門家用、業務用から一般消費者向けの機器までを広く想定して、パノラマ画像の表示、特に高品質の投影表示を、手軽にかつ適切に実行できるようにするための画像処理を実現することを目的とする。
 本開示の画像処理装置は、撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける関連付け部を備える。
 本開示の画像処理方法は、撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける処理を行う。
 本開示のプログラムは、上記画像処理方法の処理を演算処理装置に実行させるプログラムである。
 このような本開示では、複数のフレーム画像データから合成されて生成されたパノラマ画像データについて、再生表示の際などの全周パノラマ画像であるか否かを判別できる情報を加える。つまり少なくとも或るパノラマ画像データが全周パノラマ画像と判断される場合には、そのパノラマ画像データと、全周パノラマ画像であることを示す情報を関連付ける。このようにすると、例えば後の再生表示の際には、全周パノラマ画像であるか否かにより、表示処理方式を選択できることになる。
 ここで、全周パノラマ画像とは、画角が360°(又はほぼ360°)であると判定できる場合である。つまり投影表示を行う際に、画角が確定できる場合である。
 本開示によればパノラマ画像データが全周パノラマ画像である場合は、そのことを示す情報が関連付けられる。従って再生表示の際には、全周パノラマ画像であるか否かにより、適切な表示処理方式を選択できるという効果がある。例えば全周パノラマ画像の場合には、画角が360°であるとして、適切な投影表示を実行することなどが可能となる。
本開示の実施の形態で行われるパノラマ撮像の説明図である。 実施の形態で行われるパノラマ画像合成の説明図である。 実施の形態のパノラマ画像の説明図である。 実施の形態の合成用投影処理と表示用投影処理の説明図である。 実施の形態のスクロール表示と投影表示の説明図である。 実施の形態の360°パノラマ画像の投影表示の説明図である。 実施の形態のシングルビュー表示とリスト表示の説明図である。 実施の形態の画像処理装置のブロック図である。 実施の形態の画像処理装置搭載機器の構成例のブロック図である。 実施の形態の画像処理装置搭載機器の構成例のブロック図である。 実施の形態の第1構成例の説明図である。 実施の形態の第1構成例における処理のフローチャートである。 実施の形態の第2構成例の説明図である。 実施の形態の第2構成例における処理のフローチャートである。 実施の形態の第3構成例の説明図である。 実施の形態の第3構成例における処理のフローチャートである。 実施の形態の第4構成例の説明図である。 実施の形態の第4構成例における処理のフローチャートである。 実施の形態の第5構成例の撮像装置のブロック図である。 実施の形態の撮像装置に搭載されたパノラマ合成部と関連付け部の機能構成のブロック図である。 画角が360°でない場合及び位置合わせが行われていないパノラマ画像の説明図である。 実施の形態の位置合わせが行われたパノラマ画像の説明図である。 実施の形態のパノラマ画像の位置合わせの説明図である。 実施の形態のパノラマ撮像時の処理のフローチャートである。 実施の形態の表示モード遷移の説明図である。 実施の形態の撮像装置に搭載された表示画像生成部の機能構成のブロック図である。 実施の形態の表示処理のフローチャートである。 実施の形態のコンピュータ装置のブロック図である。
 以下、実施の形態を次の順序で説明する。
 なお、実施の形態における関連付け部11を少なくとも有する機器が請求項でいう画像処理装置となる。
<1.パノラマ合成及び再生表示の概要>
<2.画像処理装置構成例>
<3.第1構成例(メタデータ)>
<4.第2構成例(専用プログラム)>
<5.第3構成例(ファイルリンク情報)>
<6.第4構成例(専用フォーマット)>
<7.第5構成例(撮像装置への適用例)>
 [7-1:撮像装置の構成]
 [7-2:パノラマ合成及び関連付け処理]
 [7-3:パノラマ画像表示]
<8.第6構成例(コンピュータ装置への適用例及びプログラム)>
<9.変形例>
<1.パノラマ合成及び再生表示の概要>
 まずパノラマ合成についての概要を説明する。
 後述する実施の形態の撮像装置50や、近年の一般的な撮像装置(デジタルスチルカメラ)は、撮像者がある回転軸で撮像装置50を回転運動させながら撮像して得られた複数枚の静止画像(フレーム画像データ)に対し、合成処理を行うことによってパノラマ画像を生成することができる。
 特に実施の形態の撮像装置50では、画角が360°の全周パノラマ画像を生成できる
ものである。
 図1Aは、パノラマ撮像時の撮像装置50の動きを示したものである。パノラマ撮像時には遠景、近景の視差が合成時のつなぎ目の不自然さを生じさせるため、撮像時の回転中心は、ノーダルポイント(Nodal Point)と呼ばれる視差を生じないレンズ固有の点を回転中心にすることが望ましい。パノラマ撮像時の撮像装置50の回転運動のことを「スイープ」と呼ぶ。
 図1Bは、撮像装置50のスイープによって得られた複数枚の静止画像に対して、適切に位置合わせを行ったときの概念図である。この図では撮像で得られる各静止画像を、撮像の時間的な順序で示している。即ち時刻0~時刻(n-1)までに撮像されたフレーム画像データを、フレーム画像データFM#0、FM#1・・・FM#(n-1)としている。
 n枚の静止画像からパノラマ画像を生成する場合は、図示するように連続して撮像された一連のn個のフレーム画像データFM#0~FM#(n-1)について合成処理を行うこととなる。
 この図1Bに示すように、撮像された各フレーム画像データは隣接するフレーム画像データと必ず重なり部分を持つ必要があるので、撮像装置50の各フレーム画像データの撮像時間間隔と、撮像者がスイープする速度の上限値は適切に設定しなければならない。
 そして、このように位置合わせされたフレーム画像データ群は多くの重なり部分を持つため、各フレーム画像データに対して最終的なパノラマ画像に使用する領域を決定する必要がある。これは言い換えると、パノラマ合成処理における画像のつなぎ目(シーム:seam)を決めていることと同一である。
 図2A、図2Bでは、シームSMの例を示している。
 シームには、図2Aに示すようにスイープ方向に垂直な直線や、図2Bに示すように非直線(曲線など)とすることができる。
 この図2A、図2Bにおいて、シームSM0はフレーム画像データFM#0,FM#1間のつなぎ目、シームSM1はフレーム画像データFM#1,FM#2間のつなぎ目、・・・シームSM(n-2)はフレーム画像データFM#(n-2),FM#(n-1)間のつなぎ目として示している。
 なお、これらシームSM0~SM(n-2)が合成時の隣接画像間のつなぎ目とされることで、各フレーム画像データにおいて斜線部とした部分は、最終的なパノラマ画像に使用されない画像領域となる。
 また、パノラマ合成を行う際には、シーム付近の画像の不自然さを低減することを目的とし、シーム付近の画像領域についてブレンド処理することも行われる場合もある。
 そして、各フレーム画像データの共通部分を広範囲にブレンド処理することによって接合させる場合や、パノラマ画像に寄与する画素を共通部分から画素毎に選択する場合もあり、これらの場合には、つなぎ目は明確には存在しないが、本明細書においてはこの広範囲な接合部分もシームとして同一視するものとする。
 また図1Bに示したように、各フレーム画像データの位置合わせの結果、一般的にスイープ方向だけでなく、スイープと垂直な方向にも若干の移動が認められる。これは撮像者のスイープ時の手振れ等によって生じるズレである。
 各フレーム画像データのシームを決定し、その境界領域で接合、又はブレンド処理することによる接合を行い、最終的に手振れ量を考慮してスイープと垂直な方向な不要な部分をトリミングすることによって、図3に示すような、スイープ方向を長辺方向とする、広
画角のパノラマ画像を得ることができる。
 図3では縦線がシームを示しており、n個のフレーム画像データFM#0~FM#(n-1)がシームSM0~SM(n-2)でそれぞれ接合されてパノラマ画像が生成されている状態を模式的に示している。
 このようなパノラマ画像を得るためにユーザが撮像装置50を用いて行うパノラマ撮像の具体的操作例を説明する。
 まず第一に、撮像装置50をパノラマ撮像モードに設定し、さらに最大撮像画角を設定する。最大撮像画角としては例えば120°、180°、360°などが選択可能であり、360°を選択した場合は、周囲の全風景をすべて写真に収めるいわゆる全周撮像ができる。なお、パノラマ撮像モードにおいて最大撮像画角を360°に設定した場合は「360°パノラマ撮像モード」、最大撮像画角を180°に設定した場合は「180°パノラマ撮像モード」などの表現を用いる。
 次に撮像者は撮像装置50のシャッターボタンを押下することによってパノラマ撮像を開始するとともに、スイープ動作を行う。その後、パノラマ撮像の終了条件が満たされた場合にパノラマ撮像が完了する。終了条件は例えば以下の通りである。
・あらかじめ設定された最大撮像画角に到達した場合
・ユーザによるスイープ動作が停止した場合
・ユーザがシャッターボタンを再び押下した場合
・ユーザがシャッターボタンから指を離した場合(パノラマ撮像中にはシャッターボタンを押し続けるという仕様において)
・何らかのエラーが発生した場合
 撮像完了後は自動的にパノラマ合成処理が開始され、或る時間経過後にパノラマ画像の合成が完了するとともに、そのパノラマ画像データが記録デバイスに保存される。
 その後は通常の静止画像と同様に一覧し、表示することができる。
 このように生成されるパノラマ画像データと、その表示態様について説明する。
 図4Aは、パノラマ合成時の投影処理の概念図である。パノラマ合成時の処理方式は多様であるが、例えば円筒面、球面、立方体などに投影する処理が行われることが多い。説明上「合成用投影処理」と呼び、後述の投影表示のために行う「表示用投影処理」と区別する。
 この図4Aでは、パノラマ撮像動作時にスイープしながら撮像される多数のフレーム画像データFMを示している。フレーム画像データFM、つまり通常の写真撮影と同じ撮像画像は、三次元の光景を平面(例えばカメラのイメージャ平面)に投影したものといえる。このような多数のフレーム画像データFMから図3のようなパノラマ画像データを生成する際には、合成用投影処理として、例えば円筒面FRに各フレーム画像データFMを投影した状態とする。図では模式的に投影されたフレーム画像データFMpdを円筒面FRに沿わして示している。
 このような合成用投影処理されたフレーム画像データFMpdをつなぎ合わせて図4Bのようにパノラマ画像データPDを生成する。パノラマ画像データPDは投影中心CTからみて円筒面FR上に再投影された画像データということができる。
 本実施の形態では、このようなパノラマ画像データPDについての表示態様としては、シングルビュー表示、リスト表示、スクロール表示、投影表示が実行可能である。表示態様を図5,図6,図7で例示する。
 図5はスクロール表示と投影表示の概念を模式的に示している。 
 スクロール表示は、上述のように円筒面などに投影された画像であるパノラマ画像データPDの一部を、そのまま切り出し、自動的に、もしくは手動操作に応じて、上下左右にスクロールさせて表示するものである。
 一方、投影表示は、スクロール表示とは異なり、円筒面、球面、立方体などに投影されたパノラマ画像データPDを、仮想的な平面スクリーンVSに再度の投影(表示用投影処理)を行った画像を表示するものである。
 即ちこの場合、表示用投影処理として、パノラマ画像生成時の投影面上に投影された状態のパノラマ画像データを、平面投影する処理を行う。そして平面投影された画像を表示画像データとする。
 これにより撮像時の画像を再現することができ、スクロール表示でみられる円筒投影、球面投影に起因する投影歪が解消され、臨場感、没入感が向上する表示が実現される。
 例えば図6は、360°パノラマ撮像モードで得られたパノラマ画像データPDの投影表示を模式的に示している。パノラマ画像データPDは、投影中心CTの周囲の360°の円筒面FRに投影された画像データである。このパノラマ画像データPDを、各角度に応じた仮想的な平面スクリーンVS0・・・VS45・・・等に投影させる。例えば平面スクリーンVS0は、投影中心CTから0°方向を中心とした平面スクリーン、平面スクリーンVS45は、投影中心CTから45°方向を中心とした平面スクリーンとして示している。図ではさらに135°方向、180°方向、225°方向、315°方向の各平面スクリーンVS135,VS180、VS225,VS315を例示している。
 投影表示では、このような投影中心CTから視線方向に設定した平面スクリーンVSに投影した画像を表示させる。投影中心CTから平面スクリーンVSへのベクトル、距離を、自動的もしくは手動操作に応じて適切に設定することによって、視線方向の変更、ズームイン・ズームアウトが可能である。
 例えば平面スクリーンVS0の投影画像、平面スクリーンVS1(1°方向)、平面スクリーンVS2(2°方向)・・・平面スクリーンVS45・・・平面スクリーンVS135・・・平面スクリーンVS315・・・平面スクリーンVS0への投影画像を順次表示させていけば、投影中心CTから周りを全周見渡していくような表示が可能となる。
 また平面スクリーンVSの位置を投影中心CTから遠ざけたり、投影中心CTに近づけたりすることで、表示画像はズームイン/ズームアウトされる。
 ただし、360°パノラマ撮像モードで撮像した全周パノラマ画像以外では、パノラマ画像データの画角が正確には求めることができない。すると表示用投影処理を行う時の3次元モデルを厳密に定義できない。このため、360°のパノラマ画像データ以外は、投影表示には適さない。
 次に図7Aは、シングルビュー表示の例を、また図7Bではリスト表示の例を示している。
 シングルビュー表示は、単にパノラマ画像データPDの全体を含む表示画像データを生成し、それを表示するもので、通常の表示動作である。パノラマ画像は例えば横長の画像となり、表示画面のアスペクト比との違いに合わせて、図7Aのように画面上の一部(この例の場合は上領域と下領域)が無表示の領域となる場合が多い。
 リスト表示は、図7Bのように、再生表示可能な画像データを、一覧表示するものである。例えばユーザはリスト表示上で画像指定を行うことで、上述のスクロール表示や投影処理を行うパノラマ画像データPDを選択することができる。
 なお図7Bのリスト表示の画像は、例えば横長のパノラマ画像の全体を縮小した画像ではないが、パノラマ画像データPDをリスト表示上に表す場合、パノラマ画像の一部を切り出して縮小し、図示のように表示すればよい。もちろん、例えば横長のパノラマ画像の全体を縮小して、複数個並べるようなリスト表示態様もある。 
<2.画像処理装置構成例>
 実施の形態の画像処理装置の構成例を説明する。
 図8Aは、生成されたパノラマ画像データについての関連付け部11を備えた画像処理装置1と、パノラマ合成部10を有する構成例を示している。関連付け部11とパノラマ合成部10は同一機器内に一体に設けられてもよいし、別体機器にそれぞれ設けられてもよい。
 また図8Bはパノラマ画像データを表示するための表示画像生成部20を備えた画像処理装置2と、表示部21を有する構成例を示している。表示画像生成部20と表示部21は同一機器内に一体に設けられてもよいし、別体機器にそれぞれ設けられてもよい。
 図8Aの構成において、パノラマ合成部10は、入力画像群FMSからパノラマ画像データPDを生成する。入力画像群FMSとは、撮像者がパノラマ撮像モードにおいてスイープさせながらの撮像動作を行うことで得られる一連のフレーム画像データFMのことである。パノラマ合成部10は、入力画像群FMSとしての複数のフレーム画像データFMを用いて、上記図1~図3で説明したようにパノラマ画像データPDを生成する。
 そしてパノラマ合成部10は、生成したパノラマ画像データPDを関連付け部11に供給する。なお、パノラマ合成部10の詳細な処理例については実施の形態の第5構成例の説明において述べる。
 またパノラマ合成部10は、パノラマ画像データPDの生成処理における各種のパノラマ処理情報Ipも関連付け部11に供給する。
 パノラマ処理情報Ipとは、パノラマ合成処理の過程で発生される各種の情報を総称している。
 パノラマ処理情報Ipの内容としては、例えば360°パノラマ撮像モードや180°パノラマ撮像モードなどのモード種別を示す情報(以下、パノラマモード種別情報)が考えられる。
 またパノラマ処理情報Ipの内容としては、パノラマ画像データPDが360°画角を有するか否かの判定結果を示す情報(以下、360°画角判定情報)が考えられる。例えば正確に360°画角であるか否かを判定した結果の情報である。なお大まかに略360°画角を有するか否かを判定した結果としてもよい。
 またパノラマ処理情報Ipの内容としては、パノラマ画像データPDが360°画角を有し、両端位置合わせが行われたものであるか否かを示す情報(以下、両端位置合わせ情報)が考えられる。両端位置合わせについては実施の形態の第5構成例の説明において述べるが、簡単に言えば、パノラマ画像の0°と360°の位置、つまりパノラマ画像の両端で、垂直方向及び水平方向に画像のズレが無いように調整する処理である。
 またパノラマ処理情報Ipの内容としては、合成用投影処理の投影面の情報(以下、合成用投影面情報)が考えられる。例えば円筒面、球面、多角形面、平面などを示す情報である。
 またパノラマ処理情報の内容としては、パノラマ画像データPDの水平画角、垂直画角を示す情報(以下、水平垂直画角情報)が考えられる。
 関連付け部11は、生成されたパノラマ画像データPDが、全周パノラマ画像と判断さ
れる場合に、そのパノラマ画像データPDと、そのパノラマ画像データPDが全周パノラマ画像であることを示す情報を関連付ける処理(関連付け処理)を行う。関連付け処理としての具体的な処理例は、実施の形態の第1構成例~第4構成例で説明する。
 そして関連付け部11は、記録又は送信のためのパノラマ画像データを出力する。説明上の区別のため、関連付け部11が出力する記録又は送信のためのパノラマ画像データを、特に「パノラマ画像ファイルPDr」と呼ぶこととする。
 このパノラマ画像ファイルPDrは、記録媒体に記録されたり、他の機器に送信されたりするパノラマ画像データである。特にパノラマ画像データPDが略360°画角(もしくは正確に360°画角)を有する場合には、全周パノラマ画像であることを示す情報が関連付けられた状態の1又は複数のデータファイルである。
 続いて図8Bの構成において、表示画像生成部20は、パノラマ画像ファイルPDrを取り込む。
 例えば上述の関連付け部11から出力されて記録媒体に記録されたパノラマ画像ファイルPDrが、記録媒体から読み出されて表示画像生成部20に供給される。或いは関連付け部11から出力されて送信出力されたパノラマ画像ファイルPDrが、受信されて表示画像生成部20に供給される。
 表示画像生成部20は、例えば上述のシングルビュー表示、リスト表示、スクロール表示、投影表示のための表示画像データPDdspを生成する。特には、表示対象として選択されたパノラマ画像ファイルPDrのパノラマ画像が、全周パノラマ画像と判断される場合に、表示用投影処理を行って投影表示のための表示画像データPDdspを生成する。
 そして表示画像生成部20は表示画像データPDdspを表示部21に供給する。表示画像生成部20の具体的な処理例は、実施の形態の第1構成例~第4構成例で説明する。
 表示部21は、液晶パネル、有機EL(Electroluminescence)パネル、プラズマディスプレイパネル、CRT(Cathode
Ray Tube)その他の表示デバイスと、その表示デバイスに対する表示駆動部を有し、各種の表示を行う。この表示部21には、表示画像生成部20から表示画像データPDdspが供給されて、その表示画像データPDdspに基づく表示動作を実行することとなる。例えばパノラマ画像に関してシングルビュー表示、リスト表示、スクロール表示、投影表示が行われる。
 本例の場合、表示対象として選択されたパノラマ画像ファイルPDrのパノラマ画像が、全周パノラマ画像と判断された場合に、表示画像生成部20で表示用投影処理を行って表示画像データPDdspが生成されて表示部21に供給される。例えば図6の仮想的な平面スクリーンVSに投影された画像が順次供給されることになり、この場合、表示部21で投影表示が実行されることとなる。
 以上のような関連付け部11を備えた画像処理装置1や、表示画像生成部20を備えた画像処理装置2を有する電子機器としては、多様な構成例が考えられる。電子機器としての各種の装置構成例を図9,図10に例示する。
 図9Aは、撮像機能を備えた装置DVC1において、画像処理装置1及び画像処理装置2が構成される例である。
 この例の装置DVC1は、撮像部12、パノラマ合成部10、関連付け部11、記録再生部13、表示画像生成部20、表示部21を有する。
 撮像部12は、例えばパノラマ画像データの撮像動作により、パノラマ画像を生成するための一連の複数のフレーム画像データFMを得る。この複数のフレーム画像データFMが入力画像群FMSとしてパノラマ合成部10に供給される。パノラマ合成部10は入力画像群FMSからパノラマ画像データPDを生成し、パノラマ画像データPD及びパノラマ処理情報Ipを出力する。関連付け部11は上述の関連付け処理を行い、パノラマ画像
ファイルPDrを出力する。パノラマ画像ファイルPDrは記録再生部13において記録媒体に記録される。
 記録再生部13において記録媒体から読み出されたパノラマ画像ファイルPDrは表示画像生成部20に供給され、表示画像データPDdspが生成される。この表示画像データPDdspは表示部21に供給され、投影表示等の表示が実行される。
 このように装置DVC1は、パノラマ撮像機能、記録再生機能、表示機能を備えるものであり、例えばデジタルスチルカメラ、ビデオカメラ、携帯電話機、コンピュータ装置などが想定される。
 図9Bは、外部からの画像データ入力機能を備えた装置DVC2において、画像処理装置1及び画像処理装置2が構成される例である。
 この例の装置DVC2は、入力部14、パノラマ合成部10、関連付け部11、記録再生部13、表示画像生成部20、表示部21を有する。即ち上記図9Aと比べると、撮像部12に代わって入力部14が設けられる場合である。
 入力部14は、例えば外部の撮像装置におけるパノラマ画像データの撮像動作により得られた、パノラマ画像を生成するための一連の複数のフレーム画像データFMを入力する。この複数のフレーム画像データFMが入力画像群FMSとしてパノラマ合成部10に供給される。以降の各部の動作は図9Aと同様である。
 このように装置DVC2は、外部の撮像装置で得られたフレーム画像データFMを用いてパノラマ画像生成を行い、またパノラマ画像の表示を行う機器である。例えばデジタルスチルカメラ等の撮像装置に有線又は無線で接続されて使用される画像編集機、記録再生装置、テレビジョン受像器、携帯電話機、コンピュータ装置などが想定される。
 図9Cの装置DVC3は、表示部21を有さない機器として画像処理装置1及び画像処理装置2が構成される例である。
 この例の装置DVC3は、入力部14(又は撮像部12)、パノラマ合成部10、関連付け部11、記録再生部13、表示画像生成部20を有する。この場合の表示部21は装置DVC3に接続される外部機器となる。各部の動作は図9A又は図9Bと同様であるが、表示画像生成部20は生成した表示画像データPDdspを外部の表示部21に送信し、投影表示等の表示を実行させる。
 このように画像処理装置1及び画像処理装置2は、表示機能を有しない機器としても実現可能である。
 図10Aは、画像処理装置1となる装置DVC4と、画像処理装置2となる装置DVC5の例である。
 装置DVC4は、撮像部12(又は入力部14)、パノラマ合成部10、関連付け部11、記録部13Rを有する。
 記録部13Rは、関連付け部11からのパノラマ画像ファイルPDrを可搬性記録媒体90に記録する。可搬性記録媒体90としては、メモリカード、光ディスク、磁気ディスクなどが想定される。
 装置DVC5は、再生部13P、表示画像生成部20、表示部21を有する。
 再生部13Pは、可搬性記録媒体90からパノラマ画像ファイルPDrを再生し、表示画像生成部20に供給する。表示画像生成部20はパノラマ画像ファイルPDrに基づいて表示画像データPDdspを生成し、表示部21に供給してパノラマ画像の表示を実行させる。
 この例のように、画像処理装置1となる装置DVC4と、画像処理装置2となる装置DVC5が別体の構成として、可搬性記録媒体90によりパノラマ画像ファイルPDrが受け渡される構成も考えられる。なお、装置DVC5において表示部21を設けず、外部の表示部21を用いる例も考えられる。
 図10Bは、画像処理装置1となる装置DVC6と、画像処理装置2となる装置DVC7の例である。
 装置DVC6は、撮像部12(又は入力部14)、パノラマ合成部10、関連付け部11、通信部15を有する。
 通信部15は、関連付け部11からのパノラマ画像ファイルPDrを外部に送信する。
 装置DVC7は、通信部16、表示画像生成部20、表示部21を有する。
 通信部16は、装置DVC6から送信されてくるパノラマ画像ファイルPDrを受信し、表示画像生成部20に供給する。表示画像生成部20はパノラマ画像ファイルPDrに基づいて表示画像データPDdspを生成し、表示部21に供給してパノラマ画像の表示を実行させる。
 この例のように、画像処理装置1となる装置DVC6と、画像処理装置2となる装置DVC7が別体の構成として、通信によりパノラマ画像ファイルPDrが受け渡される構成も考えられる。
 通信部15、16の間の通信は、有線通信、無線通信のいずれも考えられる。また通信は、機器間のケーブル接続による通信、USB(Universal Serial Bus)等による通信、LAN(Local Area
Network)通信、インターネット等の公衆ネットワークを利用した通信など、あらゆる通信形態が想定される。さらには、通信部15はインターネット上のサーバ等にパノラマ画像ファイルPDrをアップロードする通信を行い、また通信部16はサーバからパノラマ画像ファイルPDrをダウンロードする通信を行うものでもよい。また通信部15,16はクラウドコンピューティングを想定した通信を行ってもよい。
 なお、装置DVC7においても表示部21を設けず、外部の表示部21を用いる例も考えられる。
 以上、機器構成例を示したが、画像処理装置1,2を実現する機器構成はさらに多様に考えられる。
 例えばクラウドコンピューティングシステムを想定した場合、関連付け部11や表示画像生成部20が、ユーザ使用機器ではなくネットワーク上に配置されることも考えられる。
 また上述してきたパノラマ画像ファイルPDrは、パノラマ画像データPDと、そのパノラマ画像データPDが全周パノラマ画像であることを示す情報を関連付ける処理を行ったデータである。このパノラマ画像ファイルPDrとしては、全周パノラマ画像であることを示す情報(例えば後述するメタデータや専用プログラム)と、パノラマ画像データPDを組み込んだファイルとするということが考えられるが、さらにパノラマ画像データPDと、全周パノラマ画像であることを示す情報が別ファイルとして設けられ、それらがなんかの情報で関連付けられるという形態もある。
<3.第1構成例(メタデータ)>
 以下、図8に示した関連付け部11及び表示画像生成部20としての具体的な構成例を説明していく。第1構成例は、関連付け部11がメタデータを用いた関連付け処理を行う例である。
 図11Aは、画像処理装置1におけるパノラマ合成部10と関連付け部11を示している。この第1構成例では、関連付け部11はメタデータ生成部11aとデータ統合部11bを有する。
 パノラマ合成部10はパノラマ画像データPDを生成するとともにパノラマ処理情報Ipを出力する。
 パノラマ処理情報Ipはメタデータ生成部11aに供給される。メタデータ生成部11aはパノラマ処理情報Ipを反映したメタデータMTを生成する。上述のようにパノラマ処理情報Ipの内容としては、パノラマモード種別情報、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、水平垂直画角情報などがある。
 このうちパノラマモード種別情報、360°画角判定情報、或いは両端位置合わせ情報は、生成されたパノラマ画像データPDが、全周パノラマ画像と判断される場合に、そのパノラマ画像データPDが全周パノラマ画像であることを示す情報となり得る。
 データ統合部11bは、パノラマ合成部10で生成されたパノラマ画像データPDと、メタデータ生成部11aで生成されたメタデータMTを統合してパノラマ画像ファイルPDrを生成する。例えばパノラマ画像ファイルPDrは図11Bのような構造となる。即ちヘッダ、パノラマ画像データPD、メタデータMTを含むデータファイル構造である。
 図9,図10で例示した各装置DVC1~DVC3、DVC4、DVC6では、このようなパノラマ画像ファイルPDrが、記録媒体に記録されたり、送信出力されたりする。
 図11Cは、画像処理装置2における表示画像生成部20を示している。この第1構成例では、表示画像生成部20はデータ分離部20a、メタデータ解釈部20b、画像生成処理部20cを有する。
 データ分離部20aには、記録媒体から再生されたり、或いは受信されたりしたパノラマ画像ファイルPDrが入力される。データ分離部20aは、このパノラマ画像ファイルPDrからメタデータMTとパノラマ画像データPDを分離する。
 メタデータMTはメタデータ解釈部20bで解釈され、パノラマ処理情報Ip(パノラマモード種別情報、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、水平垂直画角情報)として画像生成処理部20cに供給される。
 画像生成処理部20cはパノラマ画像データPDに基づいて表示画像データPDdspを生成して出力する。このときに、パノラマ処理情報Ipの内容に応じて、投影表示のための表示画像データPDdsp生成を行うか否かを決定する。即ち表示対象のパノラマ画像データPDが全周パノラマ画像と判断される場合に、投影表示のための処理を行い、全周パノラマ画像ではない場合は、他の表示、例えばスクロール表示やシングルビュー表示のための処理を行う。
 そして生成した表示画像データPDdspを図示しない表示部や、表示部を有する機器に供給し、表示を実行させる。
 図9,図10で例示した各装置DVC1~DVC3、DVC5、DVC7では、この表示画像データPDdspが表示部21に供給されてパノラマ画像表示が行われる。
 以上の画像処理装置1、画像処理装置2の処理例を図12に示す。
 図12Aは画像処理装置1としてパノラマ合成部10及び関連付け部11の処理を示している。
 ステップF1でパノラマ合成部10は入力画像群FMSを取り込む。
 ステップF2でパノラマ合成部10がパノラマ合成処理を行って、パノラマ画像データPDを生成する。パノラマ合成部10は、このパノラマ合成処理過程で得られたパノラマ処理情報Ipを関連付け部11(メタデータ生成部11a)に供給する。
 ステップF3では、関連付け部11(メタデータ生成部11a)がパノラマ処理情報Ipに基づいてメタデータMTを生成する。
 ステップF4では関連付け部11(データ統合部11b)が、パノラマ画像データPDとメタデータMTを統合し、例えば図11Bのようなパノラマ画像ファイルPDrを生成する。
 ステップF5では、パノラマ画像ファイルPDrが、図示していない記録再生部で記録媒体に記録されたり、或いは図示していない通信部により外部機器、ネットワーク等に送信出力されたりする。 
 図12Bでは、画像処理装置2の表示画像生成部20の処理を示している。
 ステップF51で表示画像生成部20(データ分離部20a)は、図示しない記録再生部で再生されたり、又は図示しない通信部で受信されたりしたパノラマ画像ファイルPDrを取り込む。
 ステップF52で表示画像生成部20(データ分離部20a、メタデータ解釈部20b)が、パノラマ画像ファイルPDrからパノラマ画像データPDとメタデータMTを分離し、メタデータMTを抽出し、これを解釈してパノラマ処理情報Ipを得る。
 ステップF53では、表示画像生成部20(画像生成処理部20c)は、今回の表示対象のパノラマ画像データPDが360°画角の全周パノラマ画像であるか否かで処理を分岐する。
 パノラマ画像データPDが全周パノラマ画像であるか否かの判断は各種考えられる。
 パノラマ処理情報Ipにおける360°画角判定情報を参照することで、パノラマ画像データPDが正確に360°画角を有しているか否かを判断できる。このため、正確に360°画角を有する場合に全周パノラマ画像と判断してもよい。
 またパノラマ処理情報Ipにおける両端位置合わせ情報を参照することで、パノラマ画像データPDが360°画角を有し、かつ両端位置合わせ処理が行われたものであるか否かを判断できる。このため、360°画角を有し、かつ両端位置合わせが行われていることを条件として、全周パノラマ画像と判断するようにしてもよい。
 またパノラマ処理情報Ipにおけるパノラマモード種別情報を参照することで、パノラマ画像データPDが360°パノラマ撮像モードで撮像されたものであるか否か、つまりほぼ360°画角を有するか否かを判断できる。このため、360°パノラマ撮像モードで撮像されたものであれば全周パノラマ画像と判断するようにしてもよい。
 なお、360°パノラマ撮像モードで撮像されたパノラマ画像データPDは、必ずしも正確な360°画角を有するものとはいえない。360°パノラマ撮像モードでは、撮像時に360°のスイープで得られたフレーム画像データFMからパノラマ画像データPDを生成するが、スイープはユーザが行うものであり、必ず正確に360°画角とはならないためである。ユーザが、360°に至る前にスイープをやめる場合もある。従って、360°パノラマ撮像モードで撮像されたパノラマ画像データPDは、略360°画角と推定される画像ということとなる。
 ステップF53で以上のいずれかの判断手法が用いられ、全周パノラマ画像と判断された場合、表示画像生成部20(画像生成処理部20c)は、ステップF54に進んで、表示用投影処理を行って表示画像データPDdspを生成し、ステップF55でその表示画像データPDdspを出力する処理を行う。このステップF54,F55の処理を、ステップF56で、ユーザ操作や自動処理により表示終了となるまで継続する。これによって、表示部では、投影表示として、例えば全周を見渡すような表示や、任意の方向の表示などが実行される。
 ここで投影表示を行うための表示用投影処理では、パノラマ画像の画角の情報が必要である。本例の場合、ステップF54の処理対象となるパノラマ画像データPDは、上述のように全周パノラマ画像と判断されたものであり、従って画像生成処理部20cはパノラマ画像データPDが画角360°のものとして表示用投影処理を行えばよいこととなる。これによって画像歪みの少ない高品質な投影表示を行うことができる。
 また表示用投影処理では、パノラマ合成時において投影面(円筒面、球面、多角形面等)に投影が行われたパノラマ画像データPDを仮想的な平面スクリーンVSに再投影する
。このためにはパノラマ画像データPDの投影面の情報が必要になる。本例ではパノラマ処理情報Ipにおける合成用投影面情報を参照することで、画像生成処理部20cは正確に平面スクリーンVSへの再投影処理を行うことができる。
 また、投影表示では、仮想的な平面スクリーンVSの水平垂直角度を変えていくことで、スクロール表示と同様に周囲を水平垂直方向に見渡していく表示を行うことができる。例えば水平方向には360°画角であることで、水平方向には無制限にスクロールを行うことができるが垂直方向には限度がある。この場合に、画像生成処理部20cは、パノラマ処理情報Ipにおける水平垂直画角情報を参照して、垂直方向のスクロール可能範囲を制限することができる。
 なお、水平垂直画角情報は、表示用に平面スクリーンVSへの投影処理自体に使用するものではなく、単に表示範囲の制限のために使用する情報であればよい。従って精度の高い画角の値を示すものでなくてよい。パノラマ画像データPDの生成時に、高精度の水平垂直画角を求めるという困難な演算を行うことを必要とするものではない。
 ステップF53で全周パノラマ画像ではないと判断された場合は、表示画像生成部20(画像生成処理部20c)はステップF57で、他の方式の表示画像データ生成処理を行う。例えばスクロール表示、或いはシングルビュー表示としての表示画像データPDdspを生成する。そしてステップF58で表示画像データPDdspを出力する処理を行う。このステップF57,F58の処理を、ステップF59で表示終了と判断されるまで継続する。これによって表示部では、投影表示以外のスクロール表示やシングルビュー表示が実行される。
 全周パノラマ画像ではない場合、画角が正確にわからず、投影表示が高品質に実行できない。そこで、スクロール表示やシングルビュー表示を行うものである。
 以上のように第1構成例では、画像処理装置1においては、関連付け部11は、全周パノラマ画像であることを示す情報を含むメタデータMTを、パノラマ画像データPDに関連付けてパノラマ画像ファイルPDrを生成する。
 メタデータMTには、パノラマ画像生成時のフレーム画像データの投影面の種別を示す合成用投影面情報や、パノラマ画像データPDの360°画角判定情報、両端位置合わせ情報、パノラマモード情報、水平垂直画角情報が含まれる。
 一方で画像処理装置2では、表示画像生成部20は、パノラマ画像データPDが全周パノラマ画像であると判断されるときに表示用投影処理を行って表示画像データを生成し、投影表示を実行させるようにしている。全周パノラマ画像の判断はメタデータMDとして関連付けられている情報を用いている。
 このような構成により適切な投影表示が実行できる全周パノラマ画像については投影表示が自動的に実行されることになり、ユーザに対して臨場感のある表示を提供できる。一方で、全周パノラマ画像でなく画角が正確に特定できないときは、他の表示方式で表示を行うことで、低品質な投影表示を行うことがないように表示動作の切り替えができる。
 またメタデータMTとしてパノラマモード種別情報、360°画角判定情報、両端位置合わせ情報等が含まれており、これらがパノラマ画像データPDと関連付けられていることで、全周パノラマ画像か否かの判断を容易かつ正確に実行できる。つまり表示方式の選択が容易かつ正確となる。
 またメタデータMTに合成用投影面情報が含まれていることで、表示用投影処理が正確に実行できる。
<4.第2構成例(専用プログラム)>
 実施の形態の第2構成例を説明する。第2構成例は、画像処理装置1の関連付け部11は、全周パノラマ画像であることを示す情報として、全周パノラマ画像の表示に用いる表示処理プログラム(専用プログラム)を、パノラマ画像データPDに関連付けるものである。
 また画像処理装置2の表示画像生成部20は、パノラマ画像データPDに表示処理プログラムが関連付けられていることにより、全周パノラマ画像であると判断し、その表示処理プログラムに基づいて表示用投影処理を行って表示画像データを生成するようにする。
 図13Aは、画像処理装置1におけるパノラマ合成部10と関連付け部11を示している。この第2構成例では、関連付け部11は表示処理プログラム発生部11dとデータ統合部11eを有する。
 パノラマ合成部10はパノラマ画像データPDを生成するとともにパノラマ処理情報Ipを出力する。
 パノラマ処理情報Ipは表示処理プログラム発生部11dに供給される。表示処理プログラム発生部11dは、パノラマ処理情報Ipに基づいて表示処理プログラムPGを発生させる。表示処理プログラム発生部11dはパノラマ処理情報Ipにおけるパノラマモード種別情報、360°画角判定情報、両端位置合わせ情報のいずれかにより、パノラマ画像データPDが全周パノラマ画像か否かを判断して、全周パノラマ画像の場合に、表示処理プログラムPGを発生させる。
 表示処理プログラムPGとしては、例えばFlash(Adobe)、QuickTimeVR(Apple)、HTML5で記述されたもので、広範囲の表示装置で再生表示が可能である。
 データ統合部11eは、パノラマ合成部10で生成されたパノラマ画像データPDと、表示処理プログラム発生部11dで発生された表示処理プログラムPGを統合してパノラマ画像ファイルPDrを生成する。例えばパノラマ画像ファイルPDrは図13Bのような構造となる。即ちヘッダ、パノラマ画像データPD、表示処理プログラムPGを含むデータファイル構造である。
 図9,図10で例示した各装置DVC1~DVC3、DVC4、DVC6では、このようなパノラマ画像ファイルPDrが、記録媒体に記録されたり、送信出力されたりする。
 なおパノラマ画像ファイルPDrとしては図示のように、パノラマ画像データPDは通常のパノラマ保存形式とし、表示処理プログラムPGを加えてもよいが、表示処理プログラム自体にパノラマ画像データPDを埋め込む形式としてもよい。
 図13Cは、画像処理装置2における表示画像生成部20を示している。この第2構成例では、表示画像生成部20はデータ分離部20f、画像生成処理部20cを有する。
 データ分離部20fには、記録媒体から再生されたり、或いは受信されたりしたパノラマ画像ファイルPDrが入力される。データ分離部20aは、このパノラマ画像ファイルPDrからパノラマ画像データPDと表示処理プログラムPGを分離して画像生成処理部20cへ供給する。
 なお、パノラマ画像データPDが全周パノラマ画像ではなかった場合、パノラマ画像ファイルPDrには表示処理プログラムPGは含まれていないため、データ分離部20fはパノラマ画像データPDのみを画像生成処理部20cへ供給する。
 画像生成処理部20cはパノラマ画像データPDに基づいて表示画像データPDdspを生成して出力する。このときに、表示処理プログラムPGが存在すれば、表示処理プログラムPGに基づいた処理を行って、投影表示のための表示画像データPDdsp生成を行う。パノラマ画像データPDが全周パノラマ画像ではなく、表示処理プログラムPGが抽出されない場合は、他の表示、例えばスクロール表示やシングルビュー表示のための処
理を行う。
 そして生成した表示画像データPDdspを図示しない表示部や、表示部を有する機器に供給し、表示を実行させる。
 図9,図10で例示した各装置DVC1~DVC3、DVC5、DVC7では、この表示画像データPDdspが表示部21に供給されてパノラマ画像表示が行われる。
 以上の画像処理装置1、画像処理装置2の処理例を図14に示す。
 図14Aは画像処理装置1としてパノラマ合成部10及び関連付け部11の処理を示している。
 ステップF11でパノラマ合成部10は入力画像群FMSを取り込む。
 ステップF12でパノラマ合成部10がパノラマ合成処理を行って、パノラマ画像データPDを生成する。パノラマ合成部10は、このパノラマ合成処理過程で得られたパノラマ処理情報Ipを関連付け部11(表示処理プログラム発生部11d)に供給する。
 ステップF13では、関連付け部11(表示処理プログラム発生部11d)がパノラマ処理情報Ipを確認し、生成されたパノラマ画像データPDが全周パノラマ画像か否かの判断を行う。
 全周パノラマ画像か否かの判断は、第1構成例で述べたものと同様に、パノラマ処理情報Ipにおける360°画角判定情報を参照する方式、両端位置合わせ情報を参照する方式、パノラマモード種別情報を参照する方式などが考えられる。
 全周パノラマ画像の場合は、ステップF14からF15に進み、関連付け部11(表示処理プログラム発生部11d)は表示処理プログラムPGを発生させる。
 ステップF16では関連付け部11(データ統合部11b)が、表示処理プログラムPGが発生された場合は、パノラマ画像データPDと表示処理プログラムPGを統合し、例えば図13Bのようなパノラマ画像ファイルPDrを生成する。表示処理プログラムPGが発生されなかった場合、つまり全周パノラマ画像ではない場合は、パノラマ画像データPDを含むパノラマ画像ファイルPDrを生成する。
 ステップF17では、パノラマ画像ファイルPDrが、図示していない記録再生部で記録媒体に記録されたり、或いは図示していない通信部により外部機器、ネットワーク等に送信出力されたりする。
 図14Bでは、画像処理装置2の表示画像生成部20の処理を示している。
 ステップF60で表示画像生成部20(データ分離部20f)は、図示しない記録再生部で再生されたり、又は図示しない通信部で受信されたりしたパノラマ画像ファイルPDrを取り込む。
 ステップF61で表示画像生成部20(データ分離部20f)が、パノラマ画像ファイルPDrの分離処理を行い、表示処理プログラムPGが含まれているか否かを確認する。
 表示画像生成部20はステップF62で、表示処理プログラムPGの有無に応じて処理を分岐する。
 表示処理プログラムPGが存在した場合は、ステップF63で表示処理プログラムPGを取り込んで、画像生成部20cが表示画像生成のためのプログラムとして使用する状態とする。
 そして表示画像生成部20(画像生成処理部20c)は、ステップF64に進んで、表示処理プログラムPGに従って表示用投影処理を行って表示画像データPDdspを生成し、ステップF65でその表示画像データPDdspを出力する処理を行う。このステップF64,F65の処理を、ステップF66で、ユーザ操作や自動処理により表示終了となるまで継続する。これによって、表示部では、投影表示として、例えば全周を見渡すような表示や、任意の方向の表示などが実行される。
 なお、パノラマ画像データPDが360°画角であることや、パノラマ画像データPD
の投影面の情報は、さらにはスクロール制限のための水平垂直画角情報などは、表示処理プログラムPG内に記述されていればよい。
 ステップF62で表示処理プログラムPGが存在しないと判断された場合は、表示画像生成部20(画像生成処理部20c)はステップF67で、既存の表示処理プログラムに基づく表示画像データ生成処理を行う。例えば画像生成処理部20cにはスクロール表示やシングルビュー表示としての表示処理プログラムが記憶されているとすると、それらを用いてスクロール表示、或いはシングルビュー表示としての表示画像データPDdspを生成する。そしてステップF68で表示画像データPDdspを出力する処理を行う。このステップF67,F68の処理を、ステップF69で表示終了と判断されるまで継続する。これによって表示部では、投影表示以外のスクロール表示やシングルビュー表示が実行される。つまり全周パノラマ画像ではない場合はスクロール表示やシングルビュー表示が行われる。
 以上のように第2構成例では、画像処理装置1においては、関連付け部11は、全周パノラマ画像に対応した投影表示を実行するための表示処理プログラムPGを、パノラマ画像データPDに関連付けてパノラマ画像ファイルPDrを生成する。
 一方で画像処理装置2では、表示画像生成部20は、表示処理プログラムPGが存在すれば、その表示処理プログラムPGに基づいて表示用投影処理を行って投影表示のための表示画像データPDdspを生成する。
 このような構成により適切な投影表示が実行できる全周パノラマ画像については投影表示が自動的に実行されることになり、ユーザに対して臨場感のある表示を提供できる。一方で、全周パノラマ画像でなく画角が正確に特定できないときは、他の表示方式で表示を行うことで、低品質な投影表示を行うことがないように表示動作の切り替えができる。
<5.第3構成例(ファイルリンク情報)>
 実施の形態の第3構成例を説明する。第3構成例は、画像処理装置1の関連付け部11は、全周パノラマ画像であることを示す情報を含むデータファイルと、パノラマ画像データPDを含むデータファイルを関連付ける処理を行う。
 また画像処理装置2の表示画像生成部20は、パノラマ画像データPDを含むデータファイルから関連付けられたデータファイルを確認し、情報を取得して、全周パノラマ画像であるか否かを判断する。そして全周パノラマ画像の場合には表示用投影処理を行って表示画像データを生成する。
 図15Aは、画像処理装置1におけるパノラマ合成部10と関連付け部11を示している。この第3構成例では、関連付け部11はメタデータ生成部11aと関連付け情報付加部11cを有する。
 パノラマ合成部10はパノラマ画像データPDを生成するとともにパノラマ処理情報Ipを出力する。パノラマ処理情報Ip(パノラマモード種別情報、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、水平垂直画角情報など)はメタデータ生成部11aに供給される。
 メタデータ生成部11aはパノラマ処理情報Ipを反映したメタデータMTを生成する。
 関連付け情報付加部11cは、図15Bに示すように、パノラマ画像データPDを含むパノラマ画像ファイルPDr1を生成するとともに、メタデータMTを含むデータファイ
ルPDr2を生成する。この場合にパノラマ画像ファイルPDr1とデータファイルPDr2には、それぞれファイルリンク情報LK1,LK2を付加し、互いに関連付けられるようにする。ファイルリンク情報LK1はデータファイルPDr2を指定する情報で、ファイルリンク情報LK2はパノラマ画像ファイルPDr1を指定する情報である。なお、パノラマ画像ファイルPDr1とデータファイルPDr2の一方のみに他方を指定するファイルリンク情報が付加されてもよい。
 図9,図10で例示した各装置DVC1~DVC3、DVC4、DVC6では、このようなパノラマ画像ファイルPDr1とデータファイルPDr2が、記録媒体に記録されたり、送信出力されたりする。各ファイルが記録される記録媒体は別の記録媒体でもよい。また各ファイルが別の機器やネットワークサーバ等に送信されてもよい。
 図15Cは、画像処理装置2における表示画像生成部20を示している。この第3構成例では、表示画像生成部20は関連付け情報抽出部20d、対応データ取得部20e、メタデータ解釈部20b、画像生成処理部20cを有する。
 関連付け情報抽出部20dには、記録媒体から再生されたり、或いは受信されたりしたパノラマ画像ファイルPDr1が入力される。関連付け情報抽出部20dは、このパノラマ画像ファイルPDr1からファイルリンク情報LK1を抽出して対応データ取得部20eに供給するとともに、パノラマ画像データPDを画像生成処理部20cに供給する。
 対応データ取得部20eはファイルリンク情報LK1を用いてアクセスACLKを行い、関連付けられたデータファイルPDr2を取得する。例えば所定の記録媒体にアクセスしてデータファイルPDr2を読み出す。或いは所定の外部機器、ネットワークサーバ等にアクセスしてデータファイルPDr2を受信する。そして対応データ取得部20eはデータファイルPDr2を取得したら、メタデータMTを抽出し、メタデータ解釈部20bに供給する。即ち今回の表示対象のパノラマ画像データPDに関連付けられたメタデータMTが得られたことになる。
 メタデータMTはメタデータ解釈部20bで解釈され、パノラマ処理情報Ip(パノラマモード種別情報、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、水平垂直画角情報)として画像生成処理部20cに供給される。
 画像生成処理部20cはパノラマ画像データPDに基づいて表示画像データPDdspを生成して出力する。このときに、パノラマ処理情報Ipの内容に応じて、投影表示のための表示画像データPDdsp生成を行うか否かを決定する。即ち表示対象のパノラマ画像データPDが全周パノラマ画像と判断される場合に、投影表示のための処理を行い、全周パノラマ画像ではない場合は、他の表示、例えばスクロール表示やシングルビュー表示のための処理を行う。
 そして生成した表示画像データPDdspを図示しない表示部や、表示部を有する機器に供給し、表示を実行させる。
 図9,図10で例示した各装置DVC1~DVC3、DVC5、DVC7では、この表示画像データPDdspが表示部21に供給されてパノラマ画像表示が行われる。
 以上の画像処理装置1、画像処理装置2の処理例を図16に示す。
 図16Aは画像処理装置1としてパノラマ合成部10及び関連付け部11の処理を示している。
 ステップF21でパノラマ合成部10は入力画像群FMSを取り込む。
 ステップF22でパノラマ合成部10がパノラマ合成処理を行って、パノラマ画像データPDを生成する。パノラマ合成部10は、このパノラマ合成処理過程で得られたパノラマ処理情報Ipを関連付け部11(メタデータ生成部11a)に供給する。
 ステップF23では、関連付け部11(メタデータ生成部11a)がパノラマ処理情報Ipに基づいてメタデータMTを生成する。 
 ステップF24では関連付け部11(関連付け情報付加部11c)が、パノラマ画像データPDとファイルリンク情報LK1を含むパノラマ画像ファイルPDr1を生成し、またメタデータMTとファイルリンク情報LK2を含むデータファイルPDr2を生成する。
 ステップF25では、パノラマ画像ファイルPDr1とデータファイルPDr2が、図示していない記録再生部で記録媒体に記録されたり、或いは図示していない通信部により外部機器、ネットワーク等に送信出力されたりする。
 図16Bは画像処理装置2の表示画像生成部20の処理を示している。
 ステップF71で表示画像生成部20(関連付け情報抽出部20d)は、図示しない記録再生部で再生されたり、又は図示しない通信部で受信されたりしたパノラマ画像ファイルPDr1を取り込む。
 ステップF72で表示画像生成部20(関連付け情報抽出部20d、対応データ取得部20e、メタデータ解釈部20b)が、パノラマ画像ファイルPDr1から抽出したリンク情報LK1を用いてアクセスを行い、データファイルPDr2を取得する。そしてデータファイルPDr2からメタデータMTを抽出し、これを解釈してパノラマ処理情報Ipを得る。
 ステップF73では、表示画像生成部20(画像生成処理部20c)は、今回の表示対象のパノラマ画像データPDが360°画角の全周パノラマ画像であるか否かで処理を分岐する。
 パノラマ画像データPDが全周パノラマ画像であるか否かの判断は、第1構成例で説明したように、パノラマ処理情報Ipにおけるパノラマモード種別情報、360°画角判定情報、両端位置合わせ情報のいずれかにより可能である。
 ステップF73で全周パノラマ画像と判断された場合、表示画像生成部20(画像生成処理部20c)は、ステップF74に進んで、表示用投影処理を行って表示画像データPDdspを生成し、ステップF75でその表示画像データPDdspを出力する処理を行う。このステップF74,F75の処理を、ステップF76で、ユーザ操作や自動処理により表示終了となるまで継続する。これによって、表示部では、投影表示として、例えば全周を見渡すような表示や、任意の方向の表示などが実行される。
 なおこの場合、パノラマ画像データPDは全周パノラマ画像であるので、表示用投影処理で用いる画角は360°とすればよい。
 またパノラマ処理情報Ipにおける合成用投影面情報を参照することで、画像生成処理部20cは正確に平面スクリーンVSへの再投影処理を行うことができる。
 ステップF73で全周パノラマ画像ではないと判断された場合は、表示画像生成部20(画像生成処理部20c)はステップF77で、他の方式の表示画像データ生成処理を行う。例えばスクロール表示、或いはシングルビュー表示としての表示画像データPDdspを生成する。そしてステップF78で表示画像データPDdspを出力する処理を行う。このステップF77,F78の処理を、ステップF79で表示終了と判断されるまで継続する。これによって表示部では、投影表示以外のスクロール表示やシングルビュー表示が実行される。つまりパノラマ画像データPDが全周パノラマ画像ではなく、画角が正確にわからない場合、スクロール表示やシングルビュー表示を行うようにする。
 以上のように第3構成例では、画像処理装置1においては、関連付け部11は、全周パノラマ画像であることを示す情報を含むメタデータMTを含むデータファイルPDr2と、パノラマ画像データPDを含むパノラマ画像ファイルPDr1を生成し、これらをファイルリンク情報LK1、LK2で関連付ける。
 一方で画像処理装置2では表示画像生成部20は、ファイルリンク情報を用いてパノラ
マ画像データPDに関連付けられたメタデータMTを取得し、メタデータMTからパノラマ画像データPDが全周パノラマ画像か否かを判断する。そしてパノラマ画像データPDが全周パノラマ画像であると判断されるときに表示用投影処理を行って表示画像データを生成し、投影表示を実行させるようにしている。
 このような構成により適切な投影表示が実行できる全周パノラマ画像については投影表示が自動的に実行されることになり、ユーザに対して臨場感のある表示を提供できる。一方で、全周パノラマ画像でなく画角が正確に特定できないときは、他の表示方式で表示を行うことで、低品質な投影表示を行うことがないように表示動作の切り替えができる。
 なお、図15,図16ではメタデータMTを用いる例で説明したが、第2構成例で述べた表示処理プログラムPGを利用することも考えられる。
 例えば図15Bに示したデータファイルPDr2には、メタデータMTではなく表示処理プログラムPGが含まれるようにする。表示画像生成部20は、関連付けられたデータファイルPDr2に表示処理プログラムPGが含まれていれば、その表示処理プログラムPGを用いて投影表示のための表示画像データPDdspの生成処理を行うようにする例である。
 以上のようにパノラマ画像データPDと、全周パノラマ画像であることを示す情報が別ファイルとして設けられ、それらが関連付けられるという形態は多様に考えられる。関連づけの手法の1つとして、例えば映像編集データ上で映像素材を参照する情報としてUMID(Unique Material Identifier)が知られている(例えば特開2004-312233号公報参照)。例えば図15BのデータファイルPDr2は、UMIDのような形態で、メタデータMTを、別ファイルであるパノラマ画像ファイルPDr1におけるパノラマ画像データPDに関連付けるものでもよい。
<6.第4構成例(専用フォーマット)>
 実施の形態の第4構成例を説明する。第4構成例は、画像処理装置1の関連付け部11は、全周パノラマ画像であることを示す情報として、パノラマ画像データ自体を特定フォーマットのデータとする。
 また画像処理装置2の表示画像生成部20は、パノラマ画像データが特定のフォーマットのデータとされていることにより、全周パノラマ画像であると判断し、表示用投影処理を行って表示画像データを生成する。
 図17Aは、画像処理装置1におけるパノラマ合成部10と関連付け部11を示している。この第4構成例では、関連付け部11はフォーマット処理部11fを有する。
 パノラマ合成部10はパノラマ画像データPDを生成するとともにパノラマ処理情報Ipを出力する。
 フォーマット処理部11fは、パノラマ処理情報Ipにおけるパノラマモード種別情報、360°画角判定情報、両端位置合わせ情報のいずれかにより、パノラマ画像データPDが全周パノラマ画像か否かを判断する。そして、全周パノラマ画像の場合に、専用フォーマットのパノラマ画像データPDを含むパノラマ画像ファイルPDrを生成する。全周パノラマ画像でない場合は、一般的な通常フォーマットのパノラマ画像データPDを含むパノラマ画像ファイルPDrを生成する。
 なお、通常フォーマットのパノラマ画像データPDとは、例えばJPEG(Joint Photographic Experts Group)フォーマットなど通常使用されている画像データ形式である。一方で専用フォーマットとは、全周パノラマ画像専用の新規のデータフォーマットとする。 
 図17Bは、画像処理装置2における表示画像生成部20を示している。この第4構成例では、表示画像生成部20はフォーマット判定部20g、画像生成処理部20cを有する。
 フォーマット判定部20gには、記録媒体から再生されたり、或いは受信されたパノラマ画像ファイルPDrが入力される。フォーマット判定部20gは、パノラマ画像ファイルPDrに含まれているパノラマ画像データPDが専用フォーマットであるか一般フォーマットであるかを判定する。そして抽出したパノラマ画像データPDとフォーマット判定情報FMを画像生成処理部20cに供給する。
 画像生成処理部20cはパノラマ画像データPDに基づいて表示画像データPDdspを生成して出力する。このときに、フォーマット判定情報FMにより全周パノラマ画像であるか否かを判断し、全周パノラマ画像であれば投影表示のための表示画像データPDdspの生成を行う。パノラマ画像データPDが全周パノラマ画像ではない場合は、他の表示、例えばスクロール表示やシングルビュー表示のための処理を行う。
 そして生成した表示画像データPDdspを図示しない表示部や、表示部を有する機器に供給し、表示を実行させる。
 以上の画像処理装置1、画像処理装置2の処理例を図18に示す。
 図18Aは画像処理装置1としてパノラマ合成部10及び関連付け部11の処理を示している。
 ステップF41でパノラマ合成部10は入力画像群FMSを取り込む。
 ステップF42でパノラマ合成部10がパノラマ合成処理を行って、パノラマ画像データPDを生成する。パノラマ合成部10は、パノラマ画像データPDと、パノラマ合成処理過程で得られたパノラマ処理情報Ipを関連付け部11(フォーマット処理部11f)に供給する。
 ステップF43では、関連付け部11(フォーマット処理部11f)がパノラマ処理情報Ipを確認し、生成されたパノラマ画像データPDが全周パノラマ画像か否かの判断を行う。全周パノラマ画像か否かの判断は、第1構成例で述べたものと同様に、パノラマ処理情報Ipにおける360°画角判定情報を参照する方式、両端位置合わせ情報を参照する方式、パノラマモード種別情報を参照する方式などが考えられる。
 全周パノラマ画像の場合は、ステップF44からF45に進み、関連付け部11(フォーマット処理部11f)はパノラマ画像データPDを専用フォーマットへ変換してパノラマ画像ファイルPDrを生成する。
 全周パノラマ画像ではない場合は、ステップF44からF46に進み、関連付け部11(フォーマット処理部11f)は通常フォーマットのパノラマ画像データPDを含むパノラマ画像ファイルPDrを生成する。
 ステップF47では、パノラマ画像ファイルPDrが、図示していない記録再生部で記録媒体に記録されたり、或いは図示していない通信部により外部機器、ネットワーク等に送信出力される。
 図18Bは、画像処理装置2の表示画像生成部20の処理を示している。
 ステップF81で表示画像生成部20(フォーマット判定部20g)は、図示しない記録再生部で再生されたり、又は図示しない通信部で受信されたパノラマ画像ファイルPDrを取り込む。
 ステップF82で表示画像生成部20(フォーマット判定部20g)が、パノラマ画像ファイルPDrに含まれるパノラマ画像データPDのフォーマットを判定する。
 そして表示画像生成部20はステップF83で、フォーマット判定結果に応じて処理を分岐する。 
 専用フォーマットと判定された場合は、表示画像生成部20(画像生成処理部20c)は、ステップF84に進んで、表示用投影処理を行って表示画像データPDdspを生成し、ステップF85でその表示画像データPDdspを出力する。このステップF84,F85の処理を、ステップF86で、ユーザ操作や自動処理により表示終了となるまで継続する。これによって、表示部では、投影表示として、例えば全周を見渡すような表示や、任意の方向の表示などが実行される。
 なお、表示用投影処理での投影演算で使用するパノラマ画像データPDの画角は360°とすればよい。
 またパノラマ画像データPDの投影面の情報やスクロール制限のための水平垂直画角情報などは、専用フォーマットのデータ形式内に埋め込まれているようにすることが考えられる。
 ステップF83で専用フォーマットではないと判断された場合は、表示画像生成部20(画像生成処理部20c)はステップF87で、他の方式、例えばスクロール表示、或いはシングルビュー表示としての表示画像データPDdspを生成する。そしてステップF88で表示画像データPDdspを出力する処理を行う。このステップF87,F88の処理を、ステップF89で表示終了と判断されるまで継続する。これによって表示部では、投影表示以外のスクロール表示やシングルビュー表示が実行される。
 以上のように第4構成例では、画像処理装置1においては、関連付け部11は、全周パノラマ画像の場合は専用フォーマット化する。
 一方で画像処理装置2では、表示画像生成部20は、専用フォーマットであればパノラマ画像データPDは全周パノラマ画像と判断して、表示用投影処理を行って投影表示のための表示画像データPDdspを生成する。
 このような構成により適切な投影表示が実行できる全周パノラマ画像については投影表示が自動的に実行されることになり、ユーザに対して臨場感のある表示を提供できる。一方で、全周パノラマ画像でなく画角が正確に特定できないときは、他の表示方式で表示を行うことで、低品質な投影表示を行うことがないように表示動作の切り替えができる。
<7.第5構成例(撮像装置への適用例)>
 [7-1:撮像装置の構成]
 続いて実施の形態の第5構成例として、本開示の画像処理装置1,2を備えた機器のより具体的な例として、撮像装置50を説明する。
 図19は撮像装置50の構成例を示している。
 撮像装置50はレンズユニット100、撮像素子101、画像処理部102、制御部103、表示部104、メモリ部105、記録デバイス106、操作部107、センサー部108、通信部109を備える。
 レンズユニット100は、被写体の光画像を集光する。レンズユニット100は制御部103からの指示に従い、適切な画像を得られるように、焦点距離、被写体距離、絞りなどを調整する機構を持つ。また光学的に画像のブレを抑止するための手ブレ補正機構も持つ。
 撮像素子101は、レンズユニット100で集光された光画像を光電変換して電気信号に変換する。具体的には、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary
Metal Oxide Semiconductor)イメージセンサなどにより実現される。
 画像処理部102は、撮像素子101からの電気信号をサンプリングするサンプリング
回路、アナログ信号をデジタル信号に変換するA/D変換回路、デジタル信号に所定の画像処理を施す画像処理回路などから構成される。ここでは、この画像処理部102は、撮像素子101での撮像によるフレーム画像データを得る処理を行うとともに、パノラマ画像を合成する処理も行うものとして示している。
 この画像処理部102は、専用のハードウエア回路のみではなく、CPU(Central Processing Unit)やDSP(Digital Signal
Processor)を備え、柔軟な画像処理に対応するためにソフトウエア処理を行うことができる。
 制御部103は、CPU及び制御プログラムからなり、撮像装置50の各部の制御を行う。制御プログラム自体は実際にはメモリ部105に格納され、CPUによって実行される。
 上述の各構成例で説明したパノラマ合成部10や関連付け部11の処理、さらには表示画像生成部20の処理は、制御部103と画像処理部102によって実行される。従って本開示の画像処理装置1,2は、制御部103と画像処理部102によって実現される。
 表示部104は、画像処理部102によって処理され、メモリ部105に格納されている画像データをアナログ化するD/A変換回路と、アナログ化された画像信号を後段の表装置に適合する形式のビデオ信号にエンコードするビデオエンコーダと、入力されるビデオ信号に対応する画像を表示する表示装置とから構成される。
 表示装置は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)パネル等により実現され、ファインダとしての機能も有する。
 メモリ部105は、DRAM(Dynamic Random Access Memory)などの半導体メモリから構成され、画像処理部102で処理された画像データ、制御部103における制御プログラム及び各種データなどが一時記録される。
 記録デバイス106は、フラッシュメモリ(Flash Memory)などの半導体メモリ、磁気ディスク、光ディスク、光磁気ディスクなどの記録媒体と、それらの記録媒体に対する記録再生系回路・機構により構成される。
 撮像装置50による撮像時には、画像処理部102でJPEG(Joint Photographic Experts Group)形式にエンコードされ、メモリ部105に格納されたJPEG画像データを記録メディアに記録する。
 再生時には、記録媒体に保存されたJPEG画像データをメモリ部105に読み込み、画像処理部102でデコード処理を行う。デコードされた画像データは、表示部104で表示させたり、或いは通信部109により外部機器に送信出力することも可能である。
 操作部107は、シャッターボタン、上下左右矢印キー、決定キー、キャンセルキーななどのハードウエアキー、操作ダイアル、タッチパネル、ズームレバーなどの入力デバイスを備え、撮像者(ユーザ)の入力操作を検出し、制御部103に伝達する。制御部103はユーザの入力操作に応じて撮像装置50の動作を決定し、各部が必要な動作を行うように制御する。
 センサー部108は、ジャイロセンサー、加速度センサー、地磁気センサー、GPS(Global Positioning System)センサーなどで構成され、各種情報の検出を行う。これらの情報は、撮像された画像データに対して、メタデータとして付加されるほか、各種画像処理、制御処理にも利用される。
 通信部109は外部機器との通信やネットワーク通信を行う。具体的には通信部109はUSB通信部、LAN通信部、インターネット等の公衆ネットワーク通信部、特定機器との専用通信部など、多様な例が考えられる。また伝送路の形態も、電波、赤外線等による無線伝送路や、ケーブル接続による有線伝送路のいずれでもよい。信号形態もデジタル
電気信号通信、アナログ電気信号通信、光通信などが想定される。
 画像処理部102、制御部103、表示部104、メモリ部105、記録デバイス106、操作部107、センサー部108、及び通信部109は、バス110を介して相互に接続され、画像データや制御信号等がやりとりされる。
 [7-2:パノラマ合成及び関連付け処理]
 次に、本実施の形態の撮像装置50のパノラマ合成処理及び関連付け処理についての詳細を説明する。
 図20はパノラマ合成処理及び関連付け処理のために画像処理部102及び制御部103において実行される処理を、機能構成として示し、それらの機能構成部位によって実行される処理を示している。
 なお、ここでは関連付け処理としては、上述の第1構成例で述べたメタデータを用いる例で説明する。
 機能構成としては、図20に一点鎖線で示すように、パノラマ合成部10、関連付け部11を備える。つまり画像処理部102又は制御部103にソフトウエア等により少なくとも関連付け部11としての機能が設けられることで、撮像装置50内に画像処理装置1が形成されることとなる。
 まずパノラマ合成部10としての機能で実行される処理機能を説明する。図20ではパノラマ合成部10として実行される処理(アルゴリズムフロー)を各ブロックで示している。即ちパノラマ合成部10では前処理200、画像レジストレーション処理201、動被写体検出処理202、検出・認識処理203、360°撮像判定処理204、360°最適化処理205、合成用投影処理206、シーム決定処理207、スティッチ処理208が行われる。
 各処理について説明する。
 前処理200の対象となる入力画像群FMSとは、図1で説明したように、撮像者が撮像装置50でパノラマ撮像を実行しているときに順次得られるフレーム画像データFM#0、FM#1、FM#2・・・である。
 パノラマ合成部10では、まず撮像者のパノラマ撮像操作によって撮像された画像(各フレーム画像データ)に対してパノラマ合成のための前処理200を行う。なおここでのフレーム画像データFMは、通常の撮像時と同様の画像処理は行われているものとする。
 入力された画像はレンズユニット100の特性に基づく収差の影響を受けている。特にレンズの歪曲収差は、画像レジストレーション処理201に悪影響を与え、位置合わせの精度を低下させる。さらに合成されたパノラマ画像のシーム付近にアーティファクトも発生させるため、この前処理200において歪曲収差の補正を行う。歪曲収差の補正によって、動被写体検出処理202、検出・認識処理203の精度を向上させる効果もある。
 次にパノラマ合成部10では、前処理200を行ったフレーム画像データに対して、画像レジストレーション処理201、動被写体検出処理202、検出・認識処理203を行う。
 パノラマ合成時には複数のフレーム画像データを単一の座標系に座標変換する必要があるが、この単一の座標系をパノラマ座標系と呼ぶことにする。
 画像レジストレーション処理201は、2枚の連続するフレーム画像データを入力し、パノラマ座標系での位置合わせを行う処理である。2枚のフレーム画像データについての画像レジストレーション処理201によって得られる情報は、あくまで2枚の画像座標間
の相対関係であるが、複数枚の画像座標系のうち一つ(例えば最初のフレーム画像データの座標系)を選び、パノラマ座標系に固定することによって、すべてのフレーム画像データの座標系をパノラマ座標系に変換することができる。
 画像レジストレーション処理201で行う具体的な処理は、以下の二つに大別される。1.画像内のローカルな動きを検出する。
2.上記で求めたローカルな動き情報から、画像全体のグローバルな動きを求める。
 上記1の処理では一般的に、
・ブロックマッチング
・Harris,Hessian,SIFT,SURF,FASTなどの特徴点抽出及び特徴点マッチング
 などが用いられ、画像の特徴点のローカルベクトルを求める。
 上記2の処理では、上記1の処理で求められたローカルベクトル群を入力として、
・最小二乗法
・M-Estimator
・最小メジアン法(LMedS)
・RANSAC(RANdom SAmple Consensus)
 などのロバスト推定手法が用いられ、2枚間の座標系の関係を記述する最適なアフィン変換行列や射影変換行列(Homography)を求める。本明細書では、これらの情報を画像レジストレーション情報と呼ぶことにする。
 また、パノラマ合成処理は、複数枚のフレーム画像データを合成するという特性上、撮像シーンに動被写体が存在すると動被写体の一部が分断されたり、ぼやけるなどの画像の破綻や画質の低下の原因となる。そのため動被写体を検出した上で、動被写体を避けてパノラマのシームを決定することが好ましい。
 動被写体検出処理202は、2枚以上の連続するフレーム画像データを入力し、動被写体の検出を行う処理である。具体的な処理の例は、画像レジストレーション処理201によって得られた画像レジストレーション情報により、実際に位置合わせを行った2枚のフレーム画像データの画素の差分値がある閾値以上の場合に、その画素を動被写体と判定するものである。
 あるいは、画像レジストレーション処理201のロバスト推定時に外れ値(アウトライア)として判断された、特徴点情報を利用して判定を行っても良い。
 検出・認識処理203では、撮像されたフレーム画像データ内の人間の顔や身体、動物などの位置情報を検出する。人間や動物は動被写体である可能性が高く、仮に動いていなかったとしても、その被写体上にパノラマのシームが決定された場合、他の物体と比べて視覚上の違和感を生じることが多いので、これらの物体を避けてシームを決定することが好ましい。つまりこの検出・認識処理203で得られた情報は、動被写体検出処理202の情報を補うために利用される。
 動被写体検出処理202および検出・認識処理203で得られた情報をもとに、後述するシーム決定処理207においてシーム(つなぎ目)が決定される。
 360°撮像判定処理204、360°最適化処理205は、360°の全周撮像に特化した処理を行う。
 ここで、これらの処理の理解のために、360°撮像時の諸問題について説明しておく。
 図21A、図21B、図22は、各場合におけるパノラマ画像の例である。なおこれらの図では、パノラマ画像の左端、右端の連続性を確認するために、それぞれのパノラマ画像の右端(境界線BDの右側)に、パノラマ画像の左端領域の一部をコピーして示している(画像RCP)。画像RCPを除いた画像部分、つまり出力されるパノラマ画像の範囲RPで示す部分が、最終的な1枚のパノラマ画像である。
 360°全周パノラマの場合、この境界線BDの両側でズレが無く連続性をもって自然に画像がつながっていることが望ましい。
 複数の静止画像を合成するパノラマ画像において、一般的にパノラマ画角を正確に知ることは困難である。通常、撮像装置のレンズの焦点距離(f:画素換算値)、パノラマ画像のスイープ方向の画素数(l)、パノラマ画角(θ)は以下の関係がある。
 l=fθ
 しかし現実には、
・スイープする際の回転半径
・歪曲収差の補正誤差
・レジストレーション処理の誤差などの影響を受けるため、実際の風景の画角と大幅に異なることがあり得る。
 撮像装置の処理性能のために、レジストレーション処理を平行移動のみに限定したり、投影処理を省略するなどのアルゴリズム上の簡略化を行っている場合には、その誤差はより顕著になる。
 図21Aは上式から360°相当のパノラマ画素数を決定し、合成処理を行ったパノラマ画像の例である。誤差のために360°を大きく超えて合成されており、パノラマ画像の左端と右端(境界線BD部分)の連続性はない。
 このように一般的にパノラマ画角を正確に決定することは難しいが、360°全周撮像の場合には、パノラマの右端と左端の連続性が得られるという拘束条件を考慮することにより画角の決定が可能である。
 図23を参照する。図23は360°パノラマ撮像によって得られた画像群(フレーム画像データFM#0~FM#(n-1))の概念図である。
 スイープ方向を左から右と仮定し、パノラマ左端に使用した先頭のフレーム画像データFM#0を0°の位置としたとき、360°の先の位置にある、これと全く同じ画像のフレーム画像データFM#0Aと、パノラマ画像の右端に使用される最終のフレーム画像データFM#(n-1)については、具体的には以下の条件が成立する。
・FM#0AとFM#(n-1)は重なり領域を持つ
・FM#(n-1)は、FM#0Aよりも左側にある最もFM#0Aに近接した画像である
 この条件を満たす最終画像としてのフレーム画像データFM#(n-1)を探索することにより、360°の位置を確定することができる。
 本例の撮像装置50において、この処理は360°撮像判定処理204によって行われる。
 360°撮像判定処理204では、上記2つの条件を満たす最終のフレーム画像データFM#(n-1)を確定できた場合は、合成処理中のパノラマ画像データが360°撮像による全周パノラマ画像であると判定する。逆に上記2つの条件を満たす最終のフレーム画像データFM#(n-1)を確定できなかった場合は、合成処理中のパノラマ画像データが全周パノラマ画像ではないと判定する。
 この判定結果が、上述したパノラマ処理情報Ipの1つである360°画角判定情報となる。360°撮像判定処理204では、関連付け部11に対して360°画角判定情報を出力する処理も行う。 
 なお、この360°撮像判定処理204は、パノラマ撮像が、360°パノラマ撮像モードで実行された場合に行えばよい。360°パノラマ撮像モード以外(例えば180°パノラマ撮像モードなど)の場合は、この360°撮像判定処理204を行うこと必要は無い。なお、その場合は、360°画角判定情報としては、非全周パノラマ画像を示す情報とすればよい。
 また、この360°撮像判定処理204の過程で、水平垂直画角情報や、パノラマモード種別情報を発生させて関連付け部11に出力してもよい。
 図21Bは、360°撮像判定処理204で決定した最終画像、つまり上記2つの条件に合致するフレーム画像データFM#(n-1)までを合成した結果の一例である。
 360°撮像判定処理204において360°位置を確定したため、パノラマ画像としては360°の画像となっている。しかしながらこの例は、図21Aの例と同様にパノラマの左端と右端の連続性はない。この例においては水平方向の位置はあっているが、垂直方向の位置がずれている。
 これは各画像の位置合わせを隣接画像間で行っているため、レジストレーション処理における誤差が累積することによって発生しているものである。
 すなわち図23でいうと、連続性のある全周パノラマとなるために360°の先の先頭画像のあるべき位置(フレーム画像データFM#0Bとして示す位置)が、レジストレーション処理の累積誤差のためにフレーム画像データFM#0Aとして示す位置に計算されてしまう現象である。
 次の360°最適化処理205では、この現象に対処するために、360°撮像判定処理204において360°全周撮像と判定された場合に、画像レジストレーション処理201から入力された画像レジストレーション情報と、360°撮像判定処理204によって確定した最終画像情報を用いて、画像レジストレーション情報を最適化し、360°全周パノラマとして適切なものに修正する。
 この処理が先に述べた両端位置合わせの処理である。つまりパノラマ画像の0°と360°の位置であるパノラマ画像の両端で、垂直方向及び水平方向に画像のズレが無いように画像レジストレーション情報を調整する。
 図23で説明すると、フレーム画像データFM#0Aの位置がフレーム画像データFM#0Bの位置に一致するように、すべてのフレーム画像データFM#0~FM#(n-1)の位置を最適化、修正するということになる。
 具体的には累積した誤差をすべての画像レジストレーション情報に単純分配する手法や、最小二乗法を用い元の画像レジストレーション情報をできる限り損なうことなく最適化を行う手法などがある。
 例えば単純分配する手法を簡単に述べると次のようになる。フレーム画像データFM#0Aの位置とフレーム画像データFM#0Bの位置には図23に示すように水平方向の誤差ΔXと垂直方向の誤差ΔYがある。パノラマ画像を構成するn個のフレーム画像データFM#0~FM#(n-1)のx座標位置とy座標位置を、それぞれ、ΔX/n、ΔY/nずつずらしていく。これにより、各フレーム画像データFMで少しずつ誤差を吸収していき、先頭のフレーム画像データFM#0と同様の画像としての仮想的なフレーム画像データFM#0Aの位置が、フレーム画像データFM#0Bとして示す位置に一致するようにする。
 各フレーム画像データFM#0~FM#(n-1)は、それぞれ本来の座標位置よりわずかにずれることになるが、全体としての画像品質は殆ど劣化しない。
 図22は360°最適化処理205において以上のような両端位置合わせが行われて修正された画像レジストレーション情報を用いてパノラマ合成を行った結果の一例である。360°撮像判定処理204、360°最適化処理205によって、出力されるパノラマ画像の範囲RPとしては、パノラマの両端で水平垂直のズレがなく、自然に画像がつながっていることが確認できる。
 以上のような360°最適化処理205により、両端位置合わせが実行されたか否かの情報が、パノラマ処理情報Ipの一つである両端位置合わせ情報となる。
 360°最適化処理205では、両端位置合わせ情報を関連付け部11へ出力する処理も行う。
 次に、合成用投影処理204では、画像レジストレーション処理201によって得られた画像レジストレーション情報(又は360°最適化処理205で修正された画像レジストレーション情報)に基づき、すべてのフレーム画像データを単一の平面、あるいは円筒面、球面などの単一の曲面に投影処理を行う。また同時に、動被写体情報、検出・認識情報についても同一平面もしくは曲面に投影処理を行う。投影面は撮像時の画角などから自動的に選択してもよいし、ユーザ操作に応じて設定してもよい。
 フレーム画像データの合成用投影処理204は、ピクセル処理の最適化を考慮して、スティッチ処理208の前段処理として、もしくはスティッチ処理208の一部として行ってもよい。また簡易的に画像レジストレーション処理201の前、例えば前処理200の一部として行ってもよい。またさらに簡略化して、処理そのものを行わず円筒投影処理の近似として扱ってもよい。
 なお、この合成用投影処理206での投影面の種別の情報が、パノラマ処理情報Ipの一つである合成用投影面情報となる。
 合成用投影処理206では、合成用投影面情報を関連付け部11へ出力する処理も行う。
 シーム決定処理207は、合成用投影処理206からの画像データ、画像レジストレーション処理201からの画像レジストレーション情報、動被写体検出処理202からの動被写体情報、検出・認識処理203からの検出・認識情報を入力とし、パノラマ画像として破綻の少ない、適切なシームSM(図2、図3で説明したシームSM0~SM(n-2))を決定する処理である。
 シーム決定処理207では、まず入力した情報から隣接するフレーム画像データ間の重なり領域に対するコスト関数を定義する。
 例えば重なり領域の各画素に対して動被写体検出処理202からの動被写体情報、検出・認識処理203からの検出・認識情報のそれぞれに適当な重みを付けた合計値を関数値とすればよい。
 この場合、コスト関数値が高いほど、その点上には動被写体や人体などの物体が多く存在することを意味するため、パノラマ画像における破綻を最小限に抑えるためには、コスト関数値の低い点の集合をシームとすればよい。
 パノラマ画像合成に用いる画像(フレーム画像データ)がn枚の場合、その重なり領域の数はn-1個になり、コスト関数もn-1個定義されることになる。よってパノラマ画像全体として最適なシームを選ぶためには、これらn-1個のコスト関数を最小化する組み合わせを求めることになる。これは一般に組み合わせ最適化問題と呼ばれ、以下のような解法が知られている。
・厳密解を求める解法
 -分枝限定法 
 -Memoization
 -動的計画法(Dynamic Programming)
 -グラフカット
・近似解を求める解法
 -局所探索法(山登り法)
 -焼きなまし法(Simulated Annealing)
 -タブーサーチ
 -遺伝的アルゴリズム(Genetic Algorithm)
 以上のいずれかの解法によりすべてのシームSM1~SM(n-2)を求めることができる。
 スティッチ処理208では、以上のように決定した全てのシームSM1~SM(n-2)と、各フレーム画像データFM#0~FM#(n-1)を使用して、最終的にパノラマ画像を合成する。
 シーム周辺の領域に対しては、つなぎ目の不自然さを低減するためにブレンド処理を行い、それ以外の領域に対しては、単純な画素値のコピー、あるいはパノラマ座標系への再サンプリングのみを行い、すべての画像を接合する。
 最終的に手振れ量を考慮してスイープと垂直な方向の不要な部分をトリミングすることによって、スイープ方向を長辺方向とするような、広画角のパノラマ画像(パノラマ画像データPD)を得ることができる。
 以上がパノラマ合成部10の処理となる。
 本実施の形態の場合、パノラマ合成部10で生成されたパノラマ画像データPDについて関連付け部11の処理がさらに行われる。
 本例の撮像装置50における図20の機能構成例では、先に第1構成例として図11Aの機能構成を採用したものとしている。関連付け部11はメタデータ生成処理301とデータ統合処理302を行う。
 パノラマ合成部10から関連付け部11に対して各種のパノラマ処理情報Ipが供給される。即ち360°撮像判定処理204で得られる360°画角判定情報、360°最適化処理205で得られる両端位置合わせ情報、合成用投影処理206で得られる合成用投影面情報が、関連付け部11に供給される。
 なお、さらにパノラマモード種別情報や、水平垂直画角情報も供給されるようにしてもよい。
 関連付け部11はメタデータ生成処理301として、パノラマ処理情報Ipを反映したメタデータMTを生成する。
 なお、メタデータMTは、少なくとも後述する表示画像生成部20の処理で全周パノラマ画像か否かの判断を行うため、及び表示用投影処理を行うために用いるという観点からは、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、パノラマモード種別情報、水平垂直画角情報の全てを含む必要はない。
 第1構成例~第4構成例で説明したが、表示画像生成部20が全周パノラマ画像か否かの判断は、360°画角判定情報、両端位置合わせ情報、パノラマモード種別情報のいずれかを参照すればよい。但し、表示用投影処理を適切に行うためには合成用投影面情報が必要である。
 そこで、パノラマ合成部10が発生し、メタデータ生成部11aがメタデータ化するパノラマ処理情報Ipとしては、
・360°画角判定情報と合成用投影面情報
・両端位置合わせ情報と合成用投影面情報
・パノラマモード種別情報と合成用投影面情報
のいずれかを少なくとも含むものとすればよい。
 関連付け部11は、データ統合処理302では、パノラマ合成部10で生成されたパノラマ画像データPDと、メタデータ生成処理301で生成されたメタデータMTを統合してパノラマ画像ファイルPDrを生成する。
 例えばパノラマ画像ファイルPDrは図11Bで説明したような画像データとメタデータを有する構造となる。より具体的にはEXIF(Exchangeable Image File Format)のようにメタデータを画像データ内に埋め込む例が考えられる。なお、パノラマ画像データPDとメタデータMTを独立したファイルとしてもよい。
 本例の撮像装置50では、画像処理部102、制御部103において、以上のパノラマ合成部10、関連付け部11としての処理が行われ、その結果のパノラマ画像ファイルPDrが記録デバイス106に記録される。
 なおパノラマ画像ファイルPDrが通信部109から外部送信されてもよい。
 以上のパノラマ合成部10及び関連付け部11の処理を含む、パノラマ撮像から記録までの一連の処理の一例を図24に示す。
 ステップF100の画像撮像は、パノラマ撮像モードにて1枚の静止画像を撮像し、撮像装置1内で1枚のフレーム画像データとして取り込む処理を意味する。即ち制御部103の制御により、撮像素子部101で得られる撮像信号が画像処理部102で撮像信号処理され、1枚のフレーム画像データとなる。
 このフレーム画像データは、そのまま画像処理部102でのパノラマ合成処理(図20のパノラマ合成部10の処理)に供されても良いし、一旦メモリ部105に取り込まれた後、1個のフレーム画像データとして画像処理部102でのパノラマ合成処理に供されてもよい。
 画像処理部102及び制御部103によって実現される図20のパノラマ合成部10では、ステップF100に基づくフレーム画像データの入力に応じて、ステップF101以降の処理を行う。
 ステップF101でパノラマ合成部10は前処理200を行う。
 ステップF102でパノラマ合成部10は、画像レジストレーション処理201を行う。
 ステップF103でパノラマ合成部10は、動被写体検出処理202を行う。
 ステップF104でパノラマ合成部10は、検出・認識処理203を行う。
 なお、これらの各処理で得られる画像のピクセル情報、画像レジストレーション情報、動被写体情報、検出・認識情報などは、それぞれ処理対象のフレーム画像データに対応する情報としてメモリ部105に一時記憶される。
 以上の処理は、ステップF105で撮像終了とされるまで、各フレーム画像データについて行われる。
 取り込まれた全てのフレーム画像データFMについて以上の処理を終えたら、ステップF106でパノラマ合成部10は、360°撮像判定処理204を行う。
 ステップF107でパノラマ合成部10は、360°最適化処理205を行う。
 そしてステップF108でパノラマ合成部10は、360°最適化処理205で調整された画像レジストレーション情報等を用いて、合成用投影処理206を行う。
 ステップF109でパノラマ合成部10は、シーム決定処理207を行って、シームSM0~SM(n-2)を決定する。 
 ステップF110ではパノラマ合成部10はスティッチ処理208を実行する。即ち各シームSM0~SM(n-2)で、各フレーム画像データをつなぎ合わせる。つなぎ合わせる際にはブレンド処理も行う。以上で、図3Aに示したような1つのパノラマ画像データPDが生成される。
 続いて関連付け部11はメタデータ生成処理301を行う。即ちパノラマ合成部10から供給されたパノラマ処理情報Ipを反映したメタデータMTを生成する。
 そしてステップF112で関連付け部11はデータ統合処理302を行ってパノラマ画像ファイルPDrを生成する。
 制御部103は、このようにパノラマ合成部10及び関連付け部11としての処理で生成されたパノラマ画像ファイルPDrを、記録デバイス106に記録させる制御を行う。
 以上の処理で、パノラマ画像データPDとメタデータMTを含むパノラマ画像ファイルPDrが記録され、その後の再生表示等が可能となる。
 [7-3:パノラマ画像表示]
 続いて、撮像装置50において上記のように記録したパノラマ画像ファイルPDrを選択して表示する場合の動作を説明する。
 まず撮像装置50の表示部104で行われる表示動作モードについて図25で説明する。
 撮像装置50では、上述したシングルビュー表示、リスト表示、スクロール表示、投影表示の4つの表示モードの表示動作が実行可能であるとする。図25は4つの表示モードの状態遷移を示している。
 説明の簡略化のため、記録デバイス106には複数のパノラマ画像ファイルPDrのみが記録されているとする。
 まずユーザが操作部107のキー等を用いて再生表示を指示すると、制御部103は撮像装置50を再生表示状態に設定する。このとき初期状態からシングルビュー表示モードに遷移する。ここでは、例えば最新のパノラマ画像ファイルPDrの画像が例えば図7Aのように表示される。このシングルビュー表示モードでは、例えばユーザが操作部107の右矢印キーおよび左矢印キーを押下することによって他のパノラマ画像ファイルPDrの画像に切り替えることができる。
 またシングルビュー表示において、上矢印キーが押下されると図7Bのようなリスト表示に状態が遷移し、画像の一覧表示が行われる。
 このリスト表示画面上で、ユーザが上下左右矢印キーを用いて目的の画像を選択し、決定キーを押下することによって、再びシングルビュー表示に状態が遷移し、選択したパノラマ画像ファイルPDrの画像が表示される。
 シングルビュー表示において例えば決定キーが押下された場合、拡大表示を行う。なおここでいう拡大表示とはスクロール表示又は投影表示のことである。
 制御部103は、表示しているパノラマ画像ファイルPDrの画像のメタデータを参照し、パノラマ画像ファイルPDrが全周パノラマ画像である場合には、投影表示モードに状態遷移し、投影表示を実行する。この場合、メタデータとして記録されている合成時投影面情報に応じて、投影処理を行い、投影表示が開始される。
 この投影表示モードにおいては、ユーザは、上下左右矢印キーを用いての視線方向の変更や、ズームレバーを用いてのズームイン、ズームアウトの指示が可能である。またこの
場合に、視線方向、ズーム値については、メタデータに水平垂直画角情報が記録されていることで、パノラマ画像としての水平画角、垂直画角によって制限を行うため、画像外を参照してしまうことはない。
 一定時間キー操作がない場合には、自動で視線変更を行うこともメニュー設定により可能である。
 この投影表示モードにおいて、ユーザがキャンセルキーを押下するとシングルビュー表示状態に遷移し、再びシングルビュー表示が行われる。
 シングルビュー表示において決定キーが押下された場合であって、表示しているパノラマ画像ファイルPDrの画像が全周パノラマ画像ではない場合には、スクロール表示モードに状態遷移し、スクロール表示を実行する。
 スクロール表示モードにおいては、自動的にパノラマの長辺方向にスクロールが開始されるが、ユーザは上下左右矢印キーを用いて任意の方向へのスクロール、ズームレバーを用いてのズームイン、ズームアウトの指示も可能である。
 スクロール表示モードにおいて、ユーザがキャンセルキーを押下するとシングルビュー表示状態に遷移し、再びシングルビュー表示が行われる。
 以上の表示モード遷移のように本実施の形態の撮像装置50では、全周パノラマ画像であれば投影表示が行われ、全周パノラマ画像でなければスクロール表示が行われるという表示動作の自動切り替えが行われる。
 全周パノラマ画像であれば、ユーザに対して自動的に高品質な投影表示が提供される。一方で全周パノラマ画像でない場合は、投影表示を行うと画歪等が生じる可能性があり、高品質な表示を保証できない。そこでスクロール表示でパノラマ画像の表示を行う。つまりパノラマ画像に応じて適切な表示モードが選択されるものである。
 このような表示を行うための構成及び処理を図26,図27で説明する。
 図26は表示画像データPDdspの生成処理のために制御部103に設けられる表示画像生成部20おいて実行される処理を示している。
 なお、表示画像生成部20の処理としては、上述の第1構成例で述べたメタデータを用いる例に準じた例としている。
 制御部103においてソフトウエアで実現される表示画像生成部20は、図示のようにデータ分離処理401、メタデータ解釈処理402、画像生成処理403を行うこととなる。
 表示画像生成部20は、記録デバイス106から読み出された表示対象のパノラマ画像ファイルPDrに対して、データ分離処理401として、メタデータMTとパノラマ画像データPDを分離する。
 分離されたメタデータMTはメタデータ解釈処理402で解釈され、パノラマ処理情報Ip(パノラマモード種別情報、360°画角判定情報、両端位置合わせ情報、合成用投影面情報、水平垂直画角情報)として画像生成処理403に供される。
 画像生成処理403では、表示モード情報Mdに応じて表示画像データPDdspを生成し、表示部104に出力する。
 画像生成処理403としては、表示方式選択処理403a、シングルビュー表示処理403b、リスト表示処理403c、スクロール表示処理403d、投影表示処理403eを行う。
 表示方式選択処理403aでは、ユーザ操作等に基づく上記の表示モード遷移に応じた表示モード情報Mdに基づいて、いずれの表示を実行するかを選択する処理を行う。また
シングルビュー表示モードの状態のときにスクロール表示モード又は投影表示モードに移行する際には、メタデータ解釈処理402で解釈されたパノラマ処理情報Ipを参照して、スクロール表示モードと投影表示モードを選択する。
 シングルビュー表示処理403bでは、供給されたパノラマ画像データPDについてシングルビュー表示としての表示画像データPDdspを生成する。
 リスト表示処理403bでは、例えば記録デバイス106から読み出された各パノラマ画像ファイルPDrのサムネイル画像などからリスト画像を生成し、それをリスト表示としての表示画像データPDdspとする処理を行う。
 スクロール表示処理403dでは、供給されたパノラマ画像データPDについてスクロール表示としての表示画像データPDdspを生成する。
 投影表示処理403eでは、供給されたパノラマ画像データPDについて表示用投影処理を行い、投影表示としての表示画像データPDdspを生成する。
 これらのいずれかの処理で生成された表示画像データPDdspが表示部104に供給されて画面表示される。
 図27は、図25の表示モード遷移に応じた制御部103(表示画像生成部20)の処理例を示している。
 ユーザ操作等に従って再生表示が開始されると、表示画像生成部20はステップF201で、シングルビュー表示モードの処理を行う。例えば表示画像生成部20は最新のパノラマ画像ファイルPDrを記録デバイス106から読み出し、シングルビュー表示処理403bを行って表示画像データPDdspを生成して表示部104に供給する。
 シングルビュー表示モードの期間は、表示画像生成部20はステップF202,F203,F206でモード遷移或いは表示終了のトリガを監視している(表示方式選択処理403a)。
 表示画像生成部20は終了トリガを検知したら、ステップF202から再生表示動作を終了させる。
 表示画像生成部20は、リスト表示モードへの操作を検知するとステップF203からF204に進み、リスト表示処理403cを行う。例えば記録デバイス106から各パノラマ画像ファイルPDrのサムネイル画像を読み出してリスト画像を生成し、表示画像データPDdspとして表示部104に供給する。
 ステップF205では表示画像生成部20はリスト表示終了のトリガを監視する(表示方式選択処理403a)。リスト表示終了の場合はステップF201に戻ってシングルビュー表示処理403bを行う。例えばリスト上で選択されたパノラマ画像について、シングルビュー表示としての表示画像データPDdspを生成して表示部104に供給する。
 シングルビュー表示状態で拡大表示(スクロール表示又は投影表示)が指示されると、表示画像生成部20はステップF206からF207に進み、まずパノラマ処理情報Ipを確認する。即ち現在シングルビュー表示している画像が全周パノラマ画像であるか否かを判断する。この場合表示画像生成部20は、パノラマ処理情報Ipにおけるパノラマモード種別情報、360°画角判定情報、両端位置合わせ情報のいずれかにより、パノラマ画像データPDが全周パノラマ画像か否かを判断できる。
 全周パノラマ画像である場合は、表示画像生成部20はステップF208からF211に進み、投影表示処理403eを行って、表示画像データPDdspを生成し、表示部104に供給する。
 表示画像生成部20はステップF212では、投影表示モードの終了を監視し、終了と
なったらステップF201のシングルビュー表示処理403bに戻る。
 全周パノラマ画像ではない場合は、表示画像生成部20はステップF208からF209に進み、スクロール表示処理403dを行って、表示画像データPDdspを生成し、表示部104に供給する。
 表示画像生成部20はステップF212では、投影表示モードの終了を監視し、終了となったらステップF201のシングルビュー表示処理403bに戻る。
 以上の処理により図25に示したモード遷移で各種表示が実行される。
 即ち撮像装置50においては、制御部103(表示画像生成部20)は、表示対象とされたパノラマ画像データPDが、全周パノラマ画像と判断される場合に、表示用投影処理を行って表示画像データPDdspを生成して投影表示を実行させる。
 全周パノラマ画像ではないと判断される場合に、表示用投影処理を行わないで、パノラマ画像データPDを合成時の投影面から順次切り出すのみのスクロール表示処理で表示画像データPDdspを生成してスクロール表示を実行させる。
 なお、この処理の変形例として、全周パノラマ画像ではないと判断される場合に、表示用投影処理を行わない表示処理として、シングルビュー表示処理を行うようにしてもよい。例えばシングルビュー表示処理で拡大表示の指示がなされても、全周パノラマ画像以外では拡大表示を行わない例である。
 またこの実施の形態の第5構成例としての撮像装置50では、上記第1構成例に沿った画像処理装置1,2が搭載される例としたが、上記第2~第4構成例に沿った画像処理装置1,2が搭載される例も当然想定される。
<8.第6構成例(コンピュータ装置への適用例及びプログラム)>
 第6構成例として、コンピュータ装置への適用例及びプログラムについて説明する。上述した画像処理装置1,2としての処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
 実施の形態のプログラムは、上述の実施の形態で示した処理を、例えばCPU(Central Processing Unit)、DSP(Digital Signal
Processor)等の演算処理装置に実行させるプログラムである。
 即ち画像処理装置1を実現するプログラムは、撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、全周パノラマ画像であることを示す情報を関連付ける処理を演算処理装置に実行させるプログラムである。
 具体的には、このプログラムは、図12A、図14A、図16A、図18A、又は図24に示した処理を演算処理装置に実行させるプログラムとすればよい。
 また画像処理装置2を実現するプログラムは、表示対象とされたパノラマ画像データが、全周パノラマ画像と判断される場合に、表示用投影処理を行って表示画像データを生成する処理を演算処理装置に実行させるプログラムである。
 具体的には、このプログラムは、図12B、図14B、図16B、図18B、又は図27に示した処理を演算処理装置に実行させるプログラムとすればよい。
 これらのプログラムにより、上述した画像処理装置1,2を、演算処理装置を用いて実現できる。 
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet
optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray(登録商標) Disc)、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の画像処理装置1,2の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該携帯型情報処理装置等を、画像処理装置1,2とすることができる。
 例えば、図28に示されるようなコンピュータ装置において、実施の形態の画像処理装置1,2と同様の処理が実行されるようにすることもできる。
 図28において、コンピュータ装置70のCPU71は、ROM72に記憶されているプログラム、または記憶部78からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
 入出力インターフェース75には、キーボード、マウスなどよりなる入力部76、CRT(Cathode Ray Tube)やLCD、或いは有機ELパネルなどよりなるディスプレイ、並びにスピーカなどよりなる出力部77、ハードディスクなどより構成される記憶部78、モデムなどより構成される通信部79が接続されている。通信部79は、インターネットを含むネットワークを介しての通信処理を行う。
 入出力インターフェース75にはまた、必要に応じてドライブ80が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア81が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部78にインストールされる。
 上述した画像処理装置1,2の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
 この記録媒体は、例えば図28に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布されるリムーバブルメディア81により構成される。リムーバブルディスク81は、例えばプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(ブルーレイディスク、CD-ROM、DVDを含む)、光磁気ディスク(MD(Mini Disc)を含む)、若しくは半導体メモリなどよりなる。
 或いは記録媒体は、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM72や、記憶部78に含まれるハードディスクなどでも構成される。
 このようなコンピュータ装置70は、通信部79による受信動作や、或いはドライブ8
0(リムーバブルメディア81)もしくは記録部78での再生動作等により、パノラマ画像生成のためのnフレームのフレーム画像データFM#0~FM#(n-1)を入力した際に、CPU71がプログラムに基づいて、画像処理装置1の機能を実現し、上述の関連付け部11としての処理を実行する。
 これにより入力されたnフレームのフレーム画像データFM#0~FM#(n-1)から1枚のパノラマ画像データが生成される。
 またパノラマ画像の表示のために、CPU71がプログラムに基づいて、画像処理装置2の機能を実現し、上述の表示画像生成部20としての処理を実行する。
<9.変形例>
 以上、実施の形態について説明してきたが、本開示の画像処理装置は多様な変形例が考えられる。
 第1構成例~第4構成例は、複合的に採用することもできる。
 例えば第1構成例と第2構成例を合わせて、関連付け処理としてメタデータと専用プログラムを付加することや、第1構成例と第4構成例を合わせて、関連付け処理としてメタデータと専用フォーマット化の処理を行うことなどが考えられる。
 第5構成例の撮像装置50としては、関連付け部11及び表示画像生成部20の両方の機能を備えた例としたが、例えば関連付け部11と表示画像生成部20のうちの一方の機能のみを設ける例も考えられる。
 実施の形態のでは全周パノラマ画像ではないパノラマ画像データPDについては投影表示の対象にはしていないが、特定の操作により、投影表示が行われるようにしてもよい。ただしこの場合には、正確な3次元モデルを構築することができないため、投影表示画像に歪みが生ずるなどの弊害が出る可能性があるが、特別なモードとしてそれを許容するという考え方もある。
 本開示の画像処理装置は、上述の撮像装置50やコンピュータ装置70に搭載するほか、撮像機能を有する携帯電話機、ゲーム機、ビデオ機器、撮像機能を有さないがフレーム画像データを入力する機能を有する携帯電話機、ゲーム機、ビデオ機器、情報処理装置に搭載することも有用である。
 なお本技術は以下のような構成も採ることができる。
 (1)撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける関連付け部を備える画像処理装置。
 (2)上記全周パノラマ画像と判断される場合とは、
 パノラマ画像データが、360°画角を有する場合である上記(1)に記載の画像処理装置。
 (3)上記全周パノラマ画像と判断される場合とは、
 パノラマ画像データが、360°画角を有し、画像両端の位置合わせ処理が行われたものである場合である上記(1)又は(2)に記載の画像処理装置。
 (4)上記全周パノラマ画像と判断される場合とは、
 パノラマ画像データが、撮像方向を略360°変位させながらの撮像動作によって得られる複数のフレーム画像データを用いてパノラマ画像データ生成する、360°パノラマ撮像モード動作によって得られた場合である上記(1)に記載の画像処理装置。
 (5)上記関連付け部は、上記全周パノラマ画像であることを示す情報としてのメタデ
ータを、パノラマ画像データに関連付ける上記(1)乃至(4)のいずれかに記載の画像処理装置。
 (6)上記関連付け部は、上記全周パノラマ画像であることを示す情報として、全周パノラマ画像の表示に用いる表示処理プログラムを、パノラマ画像データに関連付ける上記(1)乃至(4)のいずれかに記載の画像処理装置。
 (7)上記関連付け部は、上記全周パノラマ画像であることを示す情報として、パノラマ画像データ自体を特定フォーマットのデータとする上記(1)乃至(4)のいずれかに記載の画像処理装置。
 (8)上記関連付け部は、上記全周パノラマ画像であることを示す情報を含むデータファイルと、パノラマ画像データを含むデータファイルを関連付ける上記(1)乃至(4)のいずれかに記載の画像処理装置。
 (9)上記メタデータには、パノラマ画像生成時のフレーム画像データの投影面の種別を示す情報が含まれる上記(5)に記載の画像処理装置。
 (10)上記投影面の種別を示す情報は、曲面又は平面の投影面の種別として、単一平面、円筒面、球面、立方体のいずれかを示す情報である上記(9)に記載の画像処理装置。
 (11)上記メタデータには、パノラマ画像データの360°画角判定結果の情報が含まれる上記(5)、(9)又は(10)のいずれかに記載の画像処理装置。
 (12)上記メタデータには、パノラマ画像データの画像両端の位置合わせ処理の結果を示す情報が含まれる上記(5)、(9)、(10)又は(11)のいずれかに記載の画像処理装置。
 (13)上記メタデータには、パノラマ画像データが、撮像方向を略360°変位させながらの撮像動作によって得られる複数のフレーム画像データを用いてパノラマ画像データ生成する、360°パノラマ撮像モード動作によって得られたか否かを示す情報が含まれる上記(5)、(9)、(10)、(11)又は(12)のいずれかに記載の画像処理装置。
 (14)上記メタデータには、パノラマ画像データの水平画角及び垂直画角の情報が含まれる上記(5)、(9)、(10)、(11)、(12)又は(13)のいずれかに記載の画像処理装置。
 (15)撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを合成してパノラマ画像データを生成するパノラマ合成部を、さらに備え上記(1)乃至(14)のいずれかに記載の画像処理装置。

Claims (17)

  1.  撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける関連付け部を備える画像処理装置。
  2.  上記全周パノラマ画像と判断される場合とは、
     パノラマ画像データが、360°画角を有する場合である請求項1に記載の画像処理装置。
  3.  上記全周パノラマ画像と判断される場合とは、
     パノラマ画像データが、360°画角を有し、画像両端の位置合わせ処理が行われたものである場合である請求項1に記載の画像処理装置。
  4.  上記全周パノラマ画像と判断される場合とは、
     パノラマ画像データが、撮像方向を略360°変位させながらの撮像動作によって得られる複数のフレーム画像データを用いてパノラマ画像データ生成する、360°パノラマ撮像モード動作によって得られた場合である請求項1に記載の画像処理装置。
  5.  上記関連付け部は、上記全周パノラマ画像であることを示す情報としてのメタデータを、パノラマ画像データに関連付ける請求項1に記載の画像処理装置。
  6.  上記関連付け部は、上記全周パノラマ画像であることを示す情報として、全周パノラマ画像の表示に用いる表示処理プログラムを、パノラマ画像データに関連付ける請求項1に記載の画像処理装置。
  7.  上記関連付け部は、上記全周パノラマ画像であることを示す情報として、パノラマ画像データ自体を特定フォーマットのデータとする請求項1に記載の画像処理装置。
  8.  上記関連付け部は、上記全周パノラマ画像であることを示す情報を含むデータファイルと、パノラマ画像データを含むデータファイルを関連付ける請求項1に記載の画像処理装置。
  9.  上記メタデータには、パノラマ画像生成時のフレーム画像データの投影面の種別を示す情報が含まれる請求項5に記載の画像処理装置。
  10.  上記投影面の種別を示す情報は、曲面又は平面の投影面の種別として、単一平面、円筒面、球面、立方体のいずれかを示す情報である請求項9に記載の画像処理装置。
  11.  上記メタデータには、パノラマ画像データの360°画角判定結果の情報が含まれる請求項5に記載の画像処理装置。
  12.  上記メタデータには、パノラマ画像データの画像両端の位置合わせ処理の結果を示す情報が含まれる請求項5に記載の画像処理装置。
  13.  上記メタデータには、パノラマ画像データが、撮像方向を略360°変位させながらの撮像動作によって得られる複数のフレーム画像データを用いてパノラマ画像データ生成する、360°パノラマ撮像モード動作によって得られたか否かを示す情報が含まれる請求項5に記載の画像処理装置。 
  14.  上記メタデータには、パノラマ画像データの水平画角及び垂直画角の情報が含まれる請求項5に記載の画像処理装置。
  15.  撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを合成してパノラマ画像データを生成するパノラマ合成部を、さらに備えた請求項1に記載の画像処理装置。
  16.  撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける処理を行う画像処理方法。
  17.  撮像方向を変位させながらの撮像動作によって得られる複数のフレーム画像データを用いて生成されたパノラマ画像データが、全周パノラマ画像と判断される場合に、該パノラマ画像データと、該パノラマ画像データが全周パノラマ画像であることを示す情報とを関連付ける処理を演算処理装置に実行させるプログラム。
PCT/JP2013/060182 2012-06-06 2013-04-03 画像処理装置、画像処理方法、プログラム WO2013183346A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380028447.3A CN104365083B (zh) 2012-06-06 2013-04-03 图像处理装置、图像处理方法以及程序
US14/403,858 US10091417B2 (en) 2012-06-06 2013-04-03 Image processing apparatus, image processing method, and program
US15/964,727 US11102402B2 (en) 2012-06-06 2018-04-27 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012129100A JP2015156523A (ja) 2012-06-06 2012-06-06 画像処理装置、画像処理方法、プログラム
JP2012-129100 2012-06-06

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/403,858 A-371-Of-International US10091417B2 (en) 2012-06-06 2013-04-03 Image processing apparatus, image processing method, and program
US15/964,727 Continuation US11102402B2 (en) 2012-06-06 2018-04-27 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2013183346A1 true WO2013183346A1 (ja) 2013-12-12

Family

ID=49711747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/060182 WO2013183346A1 (ja) 2012-06-06 2013-04-03 画像処理装置、画像処理方法、プログラム

Country Status (4)

Country Link
US (2) US10091417B2 (ja)
JP (1) JP2015156523A (ja)
CN (2) CN104365083B (ja)
WO (1) WO2013183346A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017022363A1 (ja) * 2015-08-05 2017-02-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016162930A1 (ja) * 2015-04-06 2016-10-13 三菱電機株式会社 非破壊検査システム及び特異点検出システム
US20180176650A1 (en) * 2015-06-12 2018-06-21 Sony Corporation Information processing apparatus and information processing method
JP6807032B2 (ja) * 2015-06-12 2021-01-06 ソニー株式会社 情報処理装置および情報処理方法
CN106817516A (zh) * 2015-11-30 2017-06-09 英业达科技有限公司 摄像整合系统及方法
EP3398016A4 (en) 2016-01-03 2019-08-28 HumanEyes Technologies Ltd ADAPTIVE IMAGE ASSEMBLY DURING THE PROCESS OF CREATING A PANORAMIC IMAGE
WO2017149875A1 (ja) 2016-02-29 2017-09-08 ソニー株式会社 撮像制御装置、撮像装置及び撮像制御方法
US10148874B1 (en) * 2016-03-04 2018-12-04 Scott Zhihao Chen Method and system for generating panoramic photographs and videos
KR102208132B1 (ko) * 2016-05-26 2021-01-27 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
KR102568897B1 (ko) * 2016-08-16 2023-08-21 삼성전자주식회사 전자 장치 및 그 제어 방법
CN117201817A (zh) 2016-09-02 2023-12-08 Vid拓展公司 用于用信号通知360度视频信息的方法和系统
WO2018131813A1 (en) 2017-01-10 2018-07-19 Samsung Electronics Co., Ltd. Method and apparatus for generating metadata for 3d images
KR102329061B1 (ko) * 2017-01-10 2021-11-19 삼성전자주식회사 3차원 이미지에 대한 메타데이터를 생성하기 위한 방법 및 장치
US10498968B1 (en) * 2017-03-01 2019-12-03 Altia Systems, Inc. Intelligent zoom method and video system implementing same
JP6991830B2 (ja) 2017-10-25 2022-01-13 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
CN109819169A (zh) * 2019-02-13 2019-05-28 上海闻泰信息技术有限公司 全景拍摄方法、装置、设备和介质
CN110933295B (zh) * 2019-11-11 2021-09-10 北京三快在线科技有限公司 拍摄方法、装置、电子设备及可读存储介质
CN111047510B (zh) * 2019-12-17 2023-02-14 大连理工大学 一种基于标定的大视场角图像实时拼接方法
WO2021134183A1 (zh) * 2019-12-30 2021-07-08 深圳市大疆创新科技有限公司 图像处理方法、装置、可移动平台、摄像装置及存储介质
JP7376688B2 (ja) 2020-03-18 2023-11-08 株式会社ソニー・インタラクティブエンタテインメント 表示装置、表示方法およびコンピュータプログラム
CN111596594B (zh) 2020-06-08 2021-07-23 厦门理工学院 一种全景大数据应用监测管控系统
JP7422010B2 (ja) 2020-06-11 2024-01-25 三菱重工業株式会社 画像合成装置、画像合成方法及び画像合成プログラム並びに検査装置
US11610338B2 (en) * 2021-03-26 2023-03-21 Fotonation Limited Method of controlling a camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109881A (ja) * 1999-10-12 2001-04-20 Matsushita Electric Ind Co Ltd 画像処理システム及び画像処理方法
JP2003224838A (ja) * 2002-01-28 2003-08-08 Sony Corp 視点自由形画像表示装置及び方法、課金装置及び課金方法、記憶媒体、並びにコンピュータ・プログラム
JP2004312233A (ja) 2003-04-04 2004-11-04 Sony Corp データ処理方法およびその装置と映像記録装置
JP2005223416A (ja) * 2004-02-03 2005-08-18 Sony Corp 画像処理システム、画像処理装置および画像処理方法、並びにプログラム
JP2010161520A (ja) 2009-01-07 2010-07-22 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2012070329A (ja) * 2010-09-27 2012-04-05 Casio Comput Co Ltd 撮像装置及び方法、並びにプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3250388B2 (ja) * 1994-10-11 2002-01-28 ミノルタ株式会社 画像再生装置
US6389179B1 (en) * 1996-05-28 2002-05-14 Canon Kabushiki Kaisha Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US6486908B1 (en) * 1998-05-27 2002-11-26 Industrial Technology Research Institute Image-based method and system for building spherical panoramas
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
DE60222894D1 (de) * 2001-06-12 2007-11-22 Silicon Optix Inc Verfahen und vorrichtung zur verarbeitung einer nichtlinearen zweidimensionalen räumlichen transformation
CN100556109C (zh) * 2002-01-11 2009-10-28 株式会社尼康 数码相机
JP4100934B2 (ja) * 2002-02-28 2008-06-11 シャープ株式会社 複合カメラシステム、ズームカメラ制御方法およびズームカメラ制御プログラム
US7149367B2 (en) * 2002-06-28 2006-12-12 Microsoft Corp. User interface for a system and method for head size equalization in 360 degree panoramic images
CA2568060A1 (en) * 2004-05-25 2005-12-08 Samsung Electronics Co., Ltd. Method of reproducing multimedia data using musicphotovideo profiles and reproducing apparatus using the method
US8751156B2 (en) * 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
DE602006014302D1 (de) * 2005-09-12 2010-06-24 Trimble Jena Gmbh Vermessungsinstrument und Verfahren zur Bereitstellung von Vermessungsdaten unter Verwendung eines Vermessungsinstruments
US7990394B2 (en) * 2007-05-25 2011-08-02 Google Inc. Viewing and navigating within panoramic images, and applications thereof
US9307165B2 (en) * 2008-08-08 2016-04-05 Qualcomm Technologies, Inc. In-camera panorama image stitching assistance
JP5163409B2 (ja) * 2008-10-03 2013-03-13 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JP5237055B2 (ja) * 2008-11-07 2013-07-17 キヤノン株式会社 映像送信装置、映像送信方法、およびコンピュータプログラム
JP5347716B2 (ja) * 2009-05-27 2013-11-20 ソニー株式会社 画像処理装置、情報処理方法およびプログラム
KR101402622B1 (ko) * 2009-07-01 2014-06-09 삼성전자주식회사 영상표시장치 및 영상표시방법
KR101631912B1 (ko) * 2009-11-03 2016-06-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN102104641A (zh) * 2009-12-18 2011-06-22 深圳富泰宏精密工业有限公司 手机及其实现360度拍照的方法
JP5593695B2 (ja) * 2009-12-28 2014-09-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5504915B2 (ja) * 2010-01-26 2014-05-28 ソニー株式会社 撮像制御装置、撮像制御方法、プログラム
JP2011205573A (ja) * 2010-03-26 2011-10-13 Sony Corp 制御装置、カメラシステム及びプログラム
US9213220B2 (en) * 2010-04-06 2015-12-15 Youbiq, Llc Camera control
JP5691330B2 (ja) * 2010-09-15 2015-04-01 株式会社リコー 光書き込み装置、画像形成装置及び光書き込み装置の制御方法、制御プログラム及び記録媒体
JP5853359B2 (ja) * 2010-11-11 2016-02-09 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
DE102010053895A1 (de) * 2010-12-09 2012-06-14 Eads Deutschland Gmbh Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
CN102116938A (zh) * 2011-03-30 2011-07-06 浙江大学 一种基于柱面会聚定向屏的全景视场三维显示装置
JP5591281B2 (ja) * 2011-06-03 2014-09-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および動画再生制御方法
JP2015156051A (ja) 2012-06-06 2015-08-27 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109881A (ja) * 1999-10-12 2001-04-20 Matsushita Electric Ind Co Ltd 画像処理システム及び画像処理方法
JP2003224838A (ja) * 2002-01-28 2003-08-08 Sony Corp 視点自由形画像表示装置及び方法、課金装置及び課金方法、記憶媒体、並びにコンピュータ・プログラム
JP2004312233A (ja) 2003-04-04 2004-11-04 Sony Corp データ処理方法およびその装置と映像記録装置
JP2005223416A (ja) * 2004-02-03 2005-08-18 Sony Corp 画像処理システム、画像処理装置および画像処理方法、並びにプログラム
JP2010161520A (ja) 2009-01-07 2010-07-22 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2012070329A (ja) * 2010-09-27 2012-04-05 Casio Comput Co Ltd 撮像装置及び方法、並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017022363A1 (ja) * 2015-08-05 2017-02-09 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JPWO2017022363A1 (ja) * 2015-08-05 2018-06-07 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10511767B2 (en) 2015-08-05 2019-12-17 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
CN104365083A (zh) 2015-02-18
JP2015156523A (ja) 2015-08-27
CN110177211A (zh) 2019-08-27
US20150124049A1 (en) 2015-05-07
US11102402B2 (en) 2021-08-24
US10091417B2 (en) 2018-10-02
CN104365083B (zh) 2019-07-19
US20180249077A1 (en) 2018-08-30
CN110177211B (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
WO2013183346A1 (ja) 画像処理装置、画像処理方法、プログラム
WO2013183347A1 (ja) 画像処理装置、画像処理方法、プログラム
JP6673381B2 (ja) 画像処理装置
US10789676B2 (en) Image processing device, image processing method, and program
JP6337888B2 (ja) 画像処理装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13799820

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14403858

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013799820

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP