WO2011064918A1 - 画像データ作成支援装置および画像データ作成支援方法 - Google Patents

画像データ作成支援装置および画像データ作成支援方法 Download PDF

Info

Publication number
WO2011064918A1
WO2011064918A1 PCT/JP2010/004774 JP2010004774W WO2011064918A1 WO 2011064918 A1 WO2011064918 A1 WO 2011064918A1 JP 2010004774 W JP2010004774 W JP 2010004774W WO 2011064918 A1 WO2011064918 A1 WO 2011064918A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
zoom magnification
display
image data
images
Prior art date
Application number
PCT/JP2010/004774
Other languages
English (en)
French (fr)
Inventor
大場章男
山岸建
勢川博之
稲田徹悟
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US13/511,408 priority Critical patent/US8670046B2/en
Priority to CN201080053122.7A priority patent/CN102668585B/zh
Priority to EP10832774.3A priority patent/EP2506219B1/en
Publication of WO2011064918A1 publication Critical patent/WO2011064918A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games

Definitions

  • the present invention relates to an image data creation support apparatus and a creation support method used in an image processing technique for enlarging or reducing a display image.
  • a home entertainment system that can not only execute game programs but also play videos has been proposed.
  • the GPU generates a three-dimensional image using polygons (see, for example, Patent Document 1).
  • a technique for enlarging / reducing a display image and moving in the vertical and horizontal directions using tile images having a plurality of resolutions generated from digital images such as high-definition photographs has been proposed.
  • an original image size is reduced in a plurality of stages to generate images with different resolutions, and images in each layer are divided into one or a plurality of tile images to represent the original image in a hierarchical structure.
  • the image with the lowest resolution is composed of one tile image
  • the original image with the highest resolution is composed of the largest number of tile images.
  • the image processing apparatus quickly performs enlarged display or reduced display by switching the tile image being used to a tile image of a different hierarchy at the time of enlargement processing or reduction processing of the display image.
  • the present invention has been made in view of such problems, and an object thereof is to provide a technique capable of easily creating image data that enables various expressions.
  • An aspect of the present invention relates to an image data creation support device.
  • This image data creation support device when enlarging / reducing a display image, changes the image data used for display at a predetermined scale ratio between image data captured at different zoom magnifications.
  • An apparatus that assists creation an input information acquisition unit that receives an input specifying a desired zoom magnification of an image of an object from a user, and a zoom magnification specified by the user that is received by the input information acquisition unit
  • Each image that associates a plurality of images photographed by the photographing unit with a plurality of zoom magnifications used for display and a plurality of images photographed by the photographing unit, and determines a switching order and a switching timing at the time of display
  • a metadata creation unit that obtains the zoom magnification of the image as metadata and adds it to the image data and stores it in a storage device.
  • Another aspect of the present invention relates to an image data creation support method.
  • this image data creation support method when the display image is enlarged or reduced, the image data used by the display device that switches the image data used for display at a predetermined scale ratio between the data of a plurality of images taken at different zoom magnifications.
  • a method for supporting creation wherein a step of receiving an input specifying a desired zoom magnification of an image of an object from a user and a plurality of zoom magnifications used for display starting from the zoom magnification specified by the user
  • Multiple images are layered in order of zoom magnification, and each image is analyzed to extract feature points of the same object in the image. Creating hierarchical data that has been aligned so that the positions of the feature points match when the images in each hierarchy are scaled and matched in size, and storing them in a storage device.
  • FIG. 1 It is a figure which shows the use environment of the image processing system concerning embodiment of this invention. It is a figure which shows the external appearance structure of the input device applicable to the image processing system of FIG. It is a figure which shows the hierarchical structure example of the image data used in this Embodiment. It is a figure which shows the structure of the image processing apparatus which displays the image data produced
  • FIG. 6 is a flowchart illustrating a procedure of processing for supporting image shooting in the present embodiment. It is a figure which shows the structural example of the screen displayed on a display by S34 of FIG. In this Embodiment, it is a figure which shows the structural example of the screen displayed on a display in the aspect which a user selects a target image. It is a flowchart which shows the procedure of the process which supports the image shooting demonstrated in FIG.
  • the image data created in the present embodiment has a hierarchical structure formed by hierarchizing data of a plurality of resolutions or images taken at a plurality of zoom magnifications.
  • a mechanism for displaying image data having a hierarchical structure will be described.
  • FIG. 1 shows a configuration example of an image processing system that displays image data generated in the embodiment of the present invention.
  • the image processing system 1 includes an image processing device 10 that performs processing related to image display, and a display device 12 that outputs a processing result of the image processing device 10.
  • the display device 12 may be a television having a display that outputs an image and a speaker that outputs sound.
  • the display device 12 may be connected to the image processing device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like.
  • LAN Local Area Network
  • the image processing apparatus 10 may be connected to an external network such as the Internet via the cable 14 to download and acquire content software including hierarchical compressed image data.
  • the image processing apparatus 10 may be connected to an external network by wireless communication.
  • the image processing apparatus 10 may be a game device, a personal computer, or the like, and may implement functions described later by loading software from various recording media.
  • the image processing apparatus 10 may have a function of performing processing other than the image display described below, for example, voice processing, game execution, and connection to a network.
  • the input device When the user inputs to the input device requesting enlargement / reduction of the display region and scrolling in the up / down / left / right direction while viewing the image displayed on the display device 12, the input device responds accordingly. Are transmitted to the image processing apparatus 10.
  • the image processing device 10 changes the image in the screen of the display device 12 according to the signal.
  • FIG. 2 shows an external configuration example of the input device 20.
  • the input device 20 includes a cross key 21, analog sticks 27a and 27b, and four types of operation buttons 26 as operation means that can be operated by the user.
  • the four types of operation buttons 26 include a circle button 22, a x button 23, a square button 24, and a triangle button 25.
  • a function for inputting a display area enlargement / reduction request and a vertical / left / right scroll request is assigned to the operation unit of the input device 20.
  • the input function for requesting enlargement / reduction of the display area is assigned to the right analog stick 27b.
  • the user can input a display area reduction request by pulling the analog stick 27b forward, and can input a display area enlargement request by pressing it from the front.
  • the input function for scrolling the display area is assigned to the cross key 21.
  • the user can input a scroll request in the direction in which the cross key 21 is pressed by pressing the cross key 21.
  • the display area movement request input function may be assigned to another operation means.
  • the scroll request input function may be assigned to the analog stick 27a.
  • the input device 20 has a function of transmitting the input display area movement request signal to the image processing device 10, and is configured to be capable of wireless communication with the image processing device 10 in the present embodiment.
  • the input device 20 and the image processing device 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol, an IEEE802.11 protocol, or the like.
  • the input device 20 may be connected to the image processing apparatus 10 via a cable and transmit a display area movement request signal to the image processing apparatus 10.
  • FIG. 3 shows an example of the hierarchical structure of image data used in the present embodiment.
  • the image data has a hierarchical structure including a 0th hierarchy 30, a first hierarchy 32, a second hierarchy 34, and a third hierarchy 36 in the depth (Z-axis) direction. Although only four layers are shown in the figure, the number of layers is not limited to this.
  • image data having such a hierarchical structure is referred to as “hierarchical data”.
  • the hierarchical data shown in Fig. 3 has a hierarchical structure of a quadtree, and each hierarchy is composed of one or more tile images 38. All the tile images 38 are formed in the same size having the same number of pixels, and have, for example, 256 ⁇ 256 pixels.
  • the image data of each layer expresses one image with different resolutions, and the resolution decreases in the order of the third layer 36, the second layer 34, the first layer 32, and the 0th layer 30.
  • the resolution of the Nth layer (N is an integer greater than or equal to 0) may be 1 ⁇ 2 of the resolution of the (N + 1) th layer in both the left and right (X axis) direction and the up and down (Y axis) direction.
  • a high-resolution image such as the third layer 36 may be prepared for only a partial area.
  • the image of the corresponding area in the upper hierarchy is enlarged and displayed or cannot be enlarged.
  • one tile image at the lower right of the second hierarchy 34 and a 2 ⁇ 2 tile image at the lower right of the third hierarchy 36 are used.
  • the hierarchical data is held in the storage device in a compressed state in a predetermined compression format, and is read from the storage device and decoded when the image display content is activated.
  • the image processing apparatus 10 may have a decoding function corresponding to a plurality of types of compression formats.
  • the image processing device 10 can decode compressed data in the S3TC format, JPEG format, and JPEG2000 format.
  • the compression processing may be performed in units of tile images, or may be performed in units of a plurality of tile images included in the same layer or a plurality of layers.
  • the hierarchical structure of the hierarchical data is set with the horizontal direction as the X axis, the vertical direction as the Y axis, and the depth direction as the Z axis, thereby constructing a virtual three-dimensional space.
  • the image processing apparatus 10 derives the movement amount of the display area from the display area movement request signal supplied from the input device 20, the image processing apparatus 10 derives the coordinates (frame coordinates) of the four corners of the frame in the virtual space using the movement amount. .
  • the frame coordinates in the virtual space are used for display image generation processing. Instead of the frame coordinates in the virtual space, the image processing apparatus 10 may derive information for specifying the hierarchy and texture coordinates (UV coordinates) in the hierarchy.
  • the image data of each layer included in the layer data exists discretely with respect to the Z axis of the virtual space. Therefore, when displaying an image at a scale ratio between hierarchies where there is no image data, image data in the vicinity in the Z-axis direction is used. For example, when the scale ratio of the display image is in the vicinity of the second hierarchy 34, the display image is created using the image data of the second hierarchy. In order to realize this, a source image switching boundary is set between the layers, for example, in the middle. When the scale ratio of the display image exceeds the switching boundary, the image data used to generate the display image is switched, and the image is enlarged or reduced for display.
  • FIG. 4 shows the configuration of the image processing apparatus 10.
  • the image processing apparatus 10 includes a wireless interface 40, a switch 42, a display processing unit 44, a hard disk drive 50, a recording medium mounting unit 52, a disk drive 54, a main memory 60, a buffer memory 70, and a control unit 100.
  • the display processing unit 44 has a frame memory that buffers data to be displayed on the display of the display device 12.
  • the switch 42 is an Ethernet switch (Ethernet is a registered trademark), and is a device that transmits and receives data by connecting to an external device in a wired or wireless manner.
  • the switch 42 may be connected to an external network via the cable 14 and receive a content file including hierarchized compressed image data.
  • the switch 42 is connected to the wireless interface 40, and the wireless interface 40 is connected to the input device 20 using a predetermined wireless communication protocol.
  • the display area movement request signal input from the user by the input device 20 is supplied to the control unit 100 via the wireless interface 40 and the switch 42.
  • the hard disk drive 50 functions as a storage device that stores data. Various data received via the switch 42 is stored in the hard disk drive 50.
  • the recording medium mounting unit 52 reads data from the removable recording medium.
  • the disk drive 54 drives and recognizes the ROM disk to read data.
  • the ROM disk may be an optical disk or a magneto-optical disk. The content file may be stored in these recording media.
  • the control unit 100 includes a multi-core CPU, and has one general-purpose processor core and a plurality of simple processor cores in one CPU.
  • the general-purpose processor core is called PPU (PowerPC Processor Unit), and the remaining processor cores are called SPU (Synergistic Processor Unit).
  • the control unit 100 includes a memory controller connected to the main memory 60 and the buffer memory 70.
  • the PPU has a register, has a main processor as an operation execution subject, and efficiently assigns a task as a basic processing unit in an application to be executed to each SPU. Note that the PPU itself may execute the task.
  • the SPU has a register, and includes a sub-processor as an operation execution subject and a local memory as a local storage area. The local memory may be used as the buffer memory 70.
  • the main memory 60 and the buffer memory 70 are storage devices and are configured as a RAM (Random Access Memory).
  • the SPU has a dedicated DMA (Direct Memory Access) controller as a control unit, can transfer data between the main memory 60 and the buffer memory 70 at high speed, and the frame memory and the buffer memory 70 in the display processing unit 44 High-speed data transfer can be realized.
  • the control unit 100 according to the present embodiment realizes a high-speed image processing function by operating a plurality of SPUs in parallel.
  • the display processing unit 44 is connected to the display device 12 and outputs a processing result according to a request from the user.
  • the image processing apparatus 10 loads at least a part of the compressed image data from the hard disk drive 50 to the main memory 60 in advance in order to smoothly move the display image. Further, an area to be displayed in the future is predicted based on a display area movement request from the user, and a part of the compressed image data loaded in the main memory 60 is decoded and stored in the buffer memory 70. This makes it possible to instantaneously switch an image used for generating a display image at a necessary later timing.
  • a plurality of hierarchical data may be prepared as a display target, and a display image may be transferred between the hierarchical data.
  • FIG. 5 schematically shows a relationship between a plurality of hierarchical data to be displayed in such a mode.
  • two triangles indicate different hierarchical data 150 and 152.
  • Each of the hierarchical data 150 and 152 actually has a configuration in which a plurality of image data having different resolutions exist discretely with respect to the Z axis in the drawing as shown in FIG.
  • the display area moves in the Z-axis direction in the figure.
  • the horizontal plane in the figure is moved.
  • image data in which two hierarchical data 150 and 152 overlap as shown in the figure is constructed.
  • the display area moves as indicated by an arrow a and enters the area of the hierarchical data 152. .
  • the data for generating the display image is switched from the hierarchical data 150 to the hierarchical data 152. This process can be realized by changing the hierarchical data to be loaded into the main memory 60 in the image display processing procedure described so far.
  • the resolution and position of the image when switching the hierarchical data 150 and the hierarchical data 152 are set in advance. This setting is represented by a line 154 in FIG. 5, whereby the degree of overlap of the hierarchical data can be determined.
  • switching from the hierarchical data 150 to the hierarchical data 152 is performed at the resolution indicated by the z-axis z1 and the position represented by the line 154.
  • link such switching between hierarchical data is referred to as “link”.
  • the hierarchical data image to be switched may be the same image with different resolutions or may be completely different images.
  • processing such as moving image reproduction, audio reproduction, display processing, and movement of the display area may be performed. Also in this case, as shown by the line 154, a link area is set for the hierarchical data 150, and when the viewpoint reaches the area, processing associated with the area is started.
  • a mode such as can be realized. For example, when the face, eyes, and display area are enlarged from the image of the whole person, the image will eventually become a pupil image, and when further enlarged, the display changes to another world reflected in the pupil. It is possible to produce a presentation effect such as a certain object moving.
  • a link to a plurality of hierarchical data may be set for one hierarchical data, or a link to another hierarchical data may be set for the linked hierarchical data.
  • the advantage of the data structure can be utilized as the Z-axis, that is, the variable range in the resolution direction is larger.
  • the target position is matched by the hierarchy by matching the positions of the target objects in the corresponding regions of the upper and lower hierarchies.
  • the images that make up the hierarchical data are photographs or videos taken with different zoom magnifications of images that contain the same object, changes in weather, shooting conditions, movement of subjects, etc. may occur during shooting. It is possible that the color and composition will change.
  • the work of aligning the same object in the individually photographed images in this manner between layers and within the same layer requires a lot of labor. Therefore, in the present embodiment, support is provided to reduce the burden on the creator in a mode in which hierarchical data is generated by taking a photograph or a moving image.
  • a plurality of hierarchical data to which links are set may be collectively referred to as “hierarchical data”.
  • FIG. 6 exemplifies a usage mode of the imaging apparatus for supporting image data creation according to the present embodiment.
  • the imaging device 200 has the same configuration as that of a general digital camera, digital video camera, and the like in appearance, and includes a function of shooting the subject 202.
  • the subject 202 side includes a mechanism such as a lens provided in a general camera and a zoom magnification changing function (not shown).
  • the image capturing apparatus 200 further includes a display 204 for presenting information necessary for the user to perform the functions described later, and the user inputs instructions while confirming the display 204.
  • an instruction input unit 206 is included.
  • the display 204 is composed of a liquid crystal panel provided in a general camera. An example of the screen to be displayed will be described later.
  • the instruction input unit 206 is a shutter button 206a that performs shooting when pressed by the user, a zoom button 206b that changes the zoom magnification, a direction instruction button 206d that selects a mode and a frame displayed on the display 204, and a selection decision.
  • the instruction input unit 206 may also be realized by the same structure as that of a general camera.
  • the photographing apparatus 200 has two modes, a normal mode in which a user takes a picture by shooting a shutter or a moving picture, and an image creation support mode that supports creation of hierarchical data, as in a general camera. May be configured to be switchable. Alternatively, the creation support function may be realized by connecting a device that supports image creation to a general camera. Since the normal mode is the same as that of a general camera, the configuration in the image creation support mode will be described below.
  • FIG. 7 shows the configuration of the photographing apparatus 200 in more detail.
  • the imaging device 200 controls the orientation and zoom magnification of the imaging device to support the creation of image data, and the input information acquisition unit 208 that acquires the contents of user instruction input.
  • a shooting control unit 210 that performs actual shooting, a metadata creation unit 214 that acquires metadata necessary for generating hierarchical data, a display image control unit 216 that controls an image displayed on the display 204, an image
  • a storage unit 218 that stores data and metadata is included.
  • the photographing apparatus 200 further includes a hierarchical data creation unit 220 that creates hierarchical data from the captured image, and the storage unit 218 also stores the created hierarchical data.
  • the input information acquisition unit 208 interprets an operation performed on the instruction input unit 206 by the user, converts it into information necessary for support, and supplies the information to the imaging control unit 210.
  • the necessary information here includes not only the selection result from the options displayed on the display 204 but also shooting conditions such as the zoom magnification when the user takes an image.
  • the shooting control unit 210 determines shooting conditions based on information necessary for support according to the user's input, controls the shooting device to satisfy the conditions, and instructs the shooting unit 212 to perform shooting.
  • the control target is the direction of the lens of the photographing apparatus 200 and the zoom magnification.
  • the photographing control unit 210 is equipped with a lens direction control mechanism equipped in a general pan / tilt camera.
  • a signal for controlling the zoom magnification is transmitted to the photographing unit 212.
  • the imaging control unit 210 may be equipped with a position information acquisition mechanism using GPS (Global Positioning System) or a direction acquisition mechanism using a gyro sensor depending on a support method described later. In this case, the user himself / herself releases the shutter by notifying the user when the determined shooting condition is obtained as a result of the user holding and moving the imaging apparatus 200 or changing the direction of the lens. You can also.
  • GPS Global Positioning System
  • the imaging unit 212 captures an image in accordance with an instruction from the imaging control unit 210.
  • Image data such as taken photographs and moving images is stored in the storage unit 218.
  • the metadata creation unit 214 adds metadata to be added to the image data such as the zoom magnification of the photographed image, the lens direction, and the association information between the images, every time the photographing unit 212 photographs the image, or one hierarchical data. It is created after a series of images to be constructed is photographed and stored in the storage unit 218.
  • the display image control unit 216 images the image captured by the lens in real time and outputs the image to the display 204.
  • image data such as a selection screen for the normal mode, the image creation support mode, a selection screen for various support methods in the image creation support mode, and a selection screen for a target image, which will be described in detail later, is generated and output to the display 204.
  • the captured image is analyzed and the target is detected.
  • the hierarchical data creation unit 220 reads the image data and metadata stored in the storage unit 218, and creates hierarchical data based on the metadata.
  • Hierarchical data to be created as described above, when images taken at different zoom magnifications are to be in another hierarchy, or to be another hierarchical data set with a link, images taken at the same zoom magnification are pasted together to create one Any of a hierarchy or a combination thereof may be used. Specific examples will be described later.
  • the created hierarchical data is appropriately compressed and stored in the storage unit 218.
  • the hierarchical data creation unit 220 may be realized as another device independent of other functions. Further, the processing of image capturing and generation of hierarchical data may be continuous in time, or may be performed at another opportunity.
  • FIG. 8 is a diagram for explaining a basic aspect of the image data creation support method in the present embodiment.
  • the imaging apparatus 200 When creating hierarchical data of an image including the subject 202, the imaging apparatus 200 generates, for example, a first image 230 with a minimum zoom magnification, a third image 234 with a maximum zoom magnification, and a second image 232 with an intermediate zoom magnification. Obtained as a captured image.
  • the first image 230 can be an initial image
  • the third image 234 can be an image to be displayed at the highest resolution
  • the second image can be an image in the transition period.
  • the shooting order of the first image 230, the second image 232, and the third image 234 is not particularly limited. As will be described later, depending on the support method to be implemented, the nature of the subject, or the user's settings, the third image may be taken first, zoomed out, and taken as the second image and the third image, or vice versa. Good. Alternatively, after the first image 230 is photographed, the third image 234 may be photographed by zooming in, and the second image 232 may be photographed by zooming out.
  • each hierarchical image is composed of four hierarchical layers having a magnification twice as long as that of the upper hierarchical image. Therefore, when such hierarchical data is created, shooting is performed by changing the zoom magnification in four stages.
  • the user captures either the minimum magnification image or the maximum magnification image, which is the reference image, and the zoom control is changed by a predetermined change amount based on the image by the imaging control unit 210 based on the image.
  • An image may be taken, or an image of the minimum magnification and an image of the maximum magnification may be taken by the user, and then images of the remaining layers may be taken by the control of the photography control unit 210 at a zoom magnification that interpolates between them. Good.
  • a plurality of photographs may be taken with one zoom magnification.
  • the aspect N ratio zoom magnification reference image the aspect N sheets in total N 2 images, continuous shooting by controlling the pan tilter so that the panoramic photograph. Then, by connecting the captured images, it is possible to obtain an image constituting one hierarchy.
  • only a region desired to be displayed with high resolution may be captured, and a hierarchy may be created in which the captured image is arranged at a position corresponding to the region in the reference image.
  • any one of the captured images may be used as another hierarchical data set with a link.
  • the first image data composed of the first image 230 and the second image 232 and the second image data composed of the second image 232 and the third image 234 are linked in the second image 232 which is a common image.
  • the zoom magnification for photographing may be determined according to the image to be displayed.
  • an image to be interpolated is appropriately captured so that the zoom magnification is not too high in the upper and lower layers.
  • the mode of generating a plurality of hierarchical data set with links assumes that the area where the links are set is enlarged and displayed, so that all the areas photographed in the reference image are all displayed. Even if shooting is not performed at the zoom magnification, it is only necessary to selectively increase the zoom magnification to shoot some areas. Then, as described above, when the enlargement ratio around the face is increased in a state where the first image 230 showing the entire person as the subject 202 is displayed, the second image 232 with the face enlarged is displayed, When the enlargement ratio is further increased, image data can be created such that the third image 234 with the pupil enlarged is displayed.
  • the hierarchical data creation unit 220 assigns a captured image to each level of the hierarchical data based on the association information between images and the zoom magnification in the metadata. Further, the layers are aligned based on the relative position of each image with respect to the reference image in the metadata and the position of the target object such as the subject 202 or the characteristic point of a part thereof obtained by image analysis of each image. Do. The more accurate the alignment, the more seamless switching of the hierarchy during display is possible.
  • the relative position of each image with respect to the reference image can be calculated by geometric calculation similar to the technique for synthesizing panoramic images from continuous shot images from the lens direction information and zoom magnification controlled by the pantilter. Or you may calculate from the direction of the lens acquired with the gyro sensor, and zoom magnification. In this case, it is possible to cope with the case where the user manually changes the direction of the lens. Alternatively, position information obtained by GPS may be acquired, and the case where the user manually moves the photographing apparatus to change the magnification of the image may be handled. In either case, since final alignment is performed based on feature points when creating hierarchical data, it is sufficient that an approximate relative position can be specified at the metadata stage.
  • FIG. 9 is a flowchart showing an example of a processing procedure for supporting image capturing for creating hierarchical data.
  • This example shows a technique for capturing a plurality of images while zooming out in stages from an initial image captured by a user.
  • the user shoots the second image 232 and the first image 230 by the shooting control unit 210 and the shooting unit 212 after shooting the high-magnification third image 234.
  • An image in which an object (hereinafter referred to as “target”) always falls within the field of view can be taken.
  • the smaller the zoom magnification the less the image is changed even with a slight movement. This is particularly important when the target is an object such as an insect or an animal that moves against the photographer's intention.
  • shooting can be completed in a short time by continuously shooting while changing the zoom magnification as in the present embodiment, there is a low possibility that the shooting will not be performed during shooting. Become.
  • the user selects an image creation support mode from the mode list displayed on the mode selection screen displayed on the display 204 of the photographing apparatus 200, and further performs an input for selecting a mode for performing the support method (S10). ). Then, the user images the target as a target image at a desired zoom magnification (S12). Then, as described above, the shooting control unit 210 determines the zoom magnification of the image to be shot using the target image as a starting point, and instructs the shooting with the determined zoom magnification, so that the shooting unit 212 captures the image ( S14, S16). At this time, the direction of the lens of the photographing apparatus 200 may be the same as the direction at the time of photographing in S12.
  • the zoom magnification change and the photographing process are repeated until the minimum zoom magnification among the determined zoom magnifications is reached (N in S18, S14, S16), and when the image with the minimum zoom magnification is finished (Y in S18).
  • the metadata creation unit 214 creates metadata and stores it in the storage unit 218 in correspondence with the data of the photographed image (S20).
  • the metadata creating unit 214 may acquire image shake information, position information of each part of the face detected by face detection technology, and the like.
  • the number of images photographed at the zoom magnification is also used as metadata.
  • FIG. 10 is a flowchart showing a processing procedure in which the hierarchical data creation unit 220 creates hierarchical data using captured image data and metadata.
  • the hierarchical data creation unit 220 reads image data and metadata from the storage unit 218 (S22).
  • the image data to be read is the one associated with the metadata.
  • the hierarchy of hierarchy data is assigned in the order of zoom magnification (S24).
  • a plurality of layers of hierarchical data set with links may be assigned according to a user instruction or the like.
  • a file in which a link is set is also generated by receiving from the user which region in which image the link is set.
  • the plurality of images are specified based on the metadata, and one layer is assigned to them.
  • an approximate corresponding position is narrowed down based on the relative position information in the metadata between the two hierarchical images having the vertical relationship, or the reference image and the image of the other hierarchical layer, and alignment is performed by image analysis ( S26). For example, an image of a certain layer is enlarged to the zoom magnification of the image of the layer below it, and the positions of the feature points of the same object are compared. Then, the image of the lower layer is translated so that the positions match, and the final image of the layer is determined. This is repeated at all levels. By doing in this way, the correspondence of the tile image between hierarchies can be obtained accurately in the virtual space as shown in FIG.
  • the image photographed in this embodiment basically has the property that the same target is photographed at any zoom magnification. By using this property and paying attention to the target and comparing the positions of the feature points, it is possible to accurately align between layers.
  • the hierarchical data thus generated is stored in the storage unit 218 (S28).
  • FIG. 11 is a diagram for explaining another example of processing for supporting image capturing for creating hierarchical data.
  • this method first, an image with the smallest zoom magnification and the widest angle such as a panoramic image is taken as the initial image 240. Then, the user selects a target from the initial image 240 and zooms in on the target to shoot the target image himself.
  • the house image 242 and the tree image 244 of the initial image 240 are captured as target images. The user may further select a target from the target images thus captured and zoom in for shooting.
  • the image 246 of the flower at the base of the tree among the image 244 of the tree is captured as the target image.
  • the images photographed in such a manner constitute a tree structure in which the images are connected in an inclusive relationship with the initial image 240 as a root node.
  • the house image 242 and the tree image 244 directly selected and photographed from the initial image 240 are connected to the root node of the initial image 240, and the flower image 246 is connected to the tree image 244. It becomes a tree structure.
  • the image of the upper node connected in such a tree structure is called a parent image
  • the image of the lower node included therein is called a child image.
  • the metadata creation unit 214 creates a tree structure of image data as metadata.
  • the hierarchical data creating unit 220 can set links to a plurality of hierarchical data in one hierarchical data. For example, when the initial image 240 is displayed, if the image is enlarged around the house, the display can be further enlarged by switching to the display using the data of the image 242. Similarly, when the image is enlarged around the tree, the display is switched to the display using the data of the image 244. When the root of the tree is further enlarged, the display is switched to the display using the data of the image 246. It is possible to realize a mode in which a detailed structure of a flower that cannot be seen well is displayed.
  • the image capturing apparatus 200 captures an interpolation image that interpolates the initial image 240 and the target image with respect to the zoom magnification.
  • the shooting procedure is performed by zooming out from the target image until the zoom magnification of the initial image 240 is reached.
  • the initial image includes a moving object such as a person, an animal, or a vehicle
  • an image having the same composition as the initial image 240 may be taken again and used as hierarchical data. This is because the time required for automatic continuous shooting while the camera apparatus 200 zooms out after the user has taken a target image can be shortened, and the change in the composition of the series of images is less than the initial image 240 taken first. This is because it can.
  • FIG. 12 is a flowchart showing a procedure of processing for supporting the image capturing described in FIG.
  • the user selects an image creation support mode from the mode list displayed on the mode selection screen displayed on the display 204 of the photographing apparatus 200, and further performs an input for selecting a mode for performing the support method (S30). ).
  • the imaging control unit 210 captures an initial image such as a panoramic image according to the information on the angle of view designated by the user when the mode is selected (S32).
  • the user designates the upper left and lower right angles of view of the panoramic image
  • the shooting control unit 210 calculates the angle of view of the entire panoramic image such that the designated angle of view becomes upper left and lower right, and controls the pan tilter.
  • the photographing unit 212 is caused to photograph a plurality of images constituting the panoramic image while moving the direction of the camera.
  • a panoramic image is generated by stitching the images thus captured.
  • the user may perform the process of S32.
  • the display image control unit 216 displays the initial image captured in S32 on the display 204 as a parent image, and displays an image that represents where the current angle of view captured by the lens is in the initial image by a rectangle or the like. It is displayed on 204 (S34).
  • the user changes the direction of the photographing apparatus 200 and the zoom magnification while viewing it, and photographs a desired target image (S36).
  • the shooting control unit 210 determines the zoom magnification of an image to be shot as an interpolated image, and instructs the shooting unit 212 to perform shooting at the determined zoom rate. 212 captures an interpolated image (S38, S40).
  • the parent-child relationship of the image can be specified by setting a rectangular region in the parent image displayed in S34 as a child image when the region is photographed in S36. At this time, the relative position of the parent image and the child image is also automatically determined. If an interpolated image is captured in S40, corresponding nodes are inserted in the tree structure. Note that the time when each image was captured may be acquired, and tree structure information may be generated based on the zoom magnification and the lens direction for the image captured within a predetermined time.
  • the metadata creation unit 214 creates metadata including tree structure information and relative position information, and stores the metadata in the storage unit 218 in association with the captured image data (S46).
  • FIG. 13 shows a configuration example of a screen displayed on the display 204 in S34 of FIG.
  • the target selection screen 250 includes an electronic viewfinder area 252 that displays an image currently captured by the lens, and a parent image display area 254 that displays a parent image such as an initial image.
  • the parent image display area 254 may be arranged so as to overlap a part of the electronic viewfinder area 252 as shown, or may be arranged in an independent area.
  • the electronic finder area 252 is configured by an electronic finder provided in a general digital camera or the like.
  • the parent image display area 254 displays a captured image that is a parent image of the target image that is currently being captured. Immediately after taking the initial image, the initial image is displayed as the parent image.
  • a current view angle area frame 256 indicating which area of the parent image corresponds to the angle of view currently captured by the lens is indicated by a rectangle or the like.
  • the image in the area surrounded by the current angle-of-view area frame 256 matches the image displayed in the electronic viewfinder area 252.
  • a captured area frame 258 indicating an area already captured as a target image is also indicated by a rectangle or the like.
  • the current view angle area frame 256 and the photographed area frame 258 are different in line form and color so that they can be distinguished from each other.
  • the former is represented by a solid line and the latter is represented by a broken line.
  • an initial image may always be displayed in the parent image display area 254 so that the position in the initial image can be known even when a target image is further captured from the target image.
  • the current view angle region frame 256 is inside the photographed region frame 258.
  • FIG. 14 shows a configuration example of a screen displayed on the display 204 in such a mode.
  • the target image selection screen 260 includes a parent image display area 262 for displaying a parent image such as an initial image.
  • the display image control unit 216 represents, as a target image candidate frame 264, 266, an area in which a target such as a human face or object is detected as a result of image analysis of the parent image.
  • a target such as a human face or object
  • General image analysis techniques such as face detection, foreground extraction, frequency analysis, color histogram, feature point extraction, and pattern matching can be applied to the image analysis performed here.
  • the image analysis method may be determined in advance by allowing the user to specify the attribute of the target desired.
  • the imaging control unit 210 and the imaging unit 212 change the pantilter and zoom magnification so that the selected image is obtained. Take a picture. Note that instead of the target image selection screen 260 of FIG. 14, only target image candidates may be arranged and displayed as thumbnail images.
  • FIG. 15 is a flowchart showing a procedure of processing for supporting the image capturing described in FIG.
  • the user selects an image creation support mode from the mode list displayed on the mode selection screen displayed on the display 204 of the photographing apparatus 200, and further performs an input for selecting a mode for implementing the support method (S50). ).
  • the imaging control unit 210 captures an initial image such as a panoramic image according to the information on the angle of view designated by the user when the mode is selected (S52).
  • the display image control unit 216 performs image analysis on the captured initial image, and displays an initial image surrounded by a target image candidate frame on the display 204 in which a target image is captured (S54).
  • the user performs an input for selecting an image candidate frame of a desired target among the displayed target image candidate frames (S56).
  • the photographing control unit 210 and the photographing unit 212 photograph the target image by increasing the zoom magnification while moving the pantilter as necessary so that an angle of view corresponding to the selected frame is obtained (S58, S60).
  • the user himself / herself may perform the processing of S58 and S60.
  • the user holds the photographing apparatus 200 and adjusts the direction of the lens and the zoom magnification near the target.
  • the photographing unit 212 may perform fine photographing after the photographing control unit 210 performs fine adjustment, or the angle of view captured by the lens is selected while the user is changing the zoom magnification or the like.
  • the user may be notified by voice or display, and the user may take a picture.
  • the shooting control unit 210 determines the zoom magnification of the image to be shot as the interpolated image, and instructs the shooting at the determined zoom magnification so that the shooting unit 212 performs the interpolation.
  • An image is taken (S62, S64).
  • the processing from S54 to S64 is repeated. If there is a target to be photographed at a higher magnification in the target image, the image displayed in S54 may be replaced with the target image to be the parent image by the user inputting an instruction to that effect.
  • the metadata creation unit 214 identifies the parent-child relationship of the plurality of photographed images as in S44 of FIG. Structure information is generated (S68). Then, together with other metadata such as relative position information, it is stored in the storage unit 218 in association with the data of the photographed image (S70).
  • candidate target images are displayed and selected by the user, but pattern candidates for images to be displayed are prepared in advance, and the user may select them when setting the shooting mode in S50.
  • pattern candidates for images to be displayed are prepared in advance, and the user may select them when setting the shooting mode in S50.
  • general-purpose patterns such as the whole image of a person ⁇ face ⁇ pupil pattern, landscape ⁇ person ⁇ face pattern, etc. are prepared and stored in the storage unit 218. Then, the user selects one of the patterns at the time of setting the shooting mode, and places a person or landscape as a subject in front of the lens of the shooting apparatus 200.
  • the imaging control unit 210 and the imaging unit 212 capture the widest-angle image with the selected pattern in S52 of FIG. Then, instead of the processing of S54 and S56, the display image control unit 216 analyzes the captured image, extracts the target according to the selected pattern, and determines the angle of view of the target image. The subsequent processing is the same as in FIG. If it does in this way, the data of the image suitable for the display mode which a user images can acquire a user's effort to the minimum.
  • a sample image may be displayed on the display 204 so that it can be imaged what kind of display is possible.
  • image shooting and hierarchical data suitable for hierarchical data display technology capable of displaying one image with a wide range of resolutions or seamlessly switching the display to another image.
  • images including the target subject are continuously photographed while changing the zoom magnification. This makes it possible to acquire a series of image data with little change in light intensity, movement of objects, etc., and notice even if the image data used for display is switched by enlarging or reducing the image during display. Seamless changes can be achieved without any changes.
  • the relative position information and zoom magnification of each image is allocated hierarchical data layers and set links with less burden on the user.
  • the position and direction of the imaging device obtained by GPS, gyro sensor, etc. are also used as metadata, so that even if the user moves with the imaging device, the images can be roughly aligned. .
  • accurate alignment is performed by feature point extraction, it is possible to suppress the occurrence of a problem that the position of the object is slightly shifted due to switching of image data during display.
  • even if many shots are taken with the same shooting device it is possible to easily extract a series of images for which one hierarchical data should be created by using parent-child relationships as metadata and shooting times close to each other. .
  • the image captured by the photographing apparatus may be a moving image, or a moving image and a still image may be mixed.
  • a wide-angle image can be a photo
  • a target image with the zoom magnification maximized can be a moving image.
  • data in which a link for reproducing the moving image is set in an area where the moving image is captured in the wide-angle image is created. Then, for example, if you expand the display from a landscape photograph to a track, the train that was part of the landscape photograph starts to move. Can be generated.
  • an image obtained by continuous shooting in a short time is used as one hierarchical data, but the shooting interval may be long.
  • the same scenery is photographed every season, and the display season is switched by a display area movement request or the like at the time of display.
  • the position and orientation of the photographing apparatus obtained by the GPS and the gyro sensor are obtained as metadata at the time of photographing.
  • the image is captured at the same angle of view as the image.
  • 1 image processing system 10 image processing device, 12 display device, 20 input device, 30 0th layer, 32 1st layer, 34 2nd layer, 36 3rd layer, 38 tile image, 44 display processing unit, 50 hard disk drive , 60 main memory, 70 buffer memory, 100 control unit, 200 shooting device, 204 display, 206 instruction input unit, 208 input information acquisition unit, 210 shooting control unit, 212 shooting unit, 214 metadata creation unit, 216 display image control Part, 218 storage part, 220 hierarchical data creation part.
  • the present invention can be used for information processing apparatuses such as a photographing machine and an image processing apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)

Abstract

 ユーザは撮影モードを選択する入力を行う(S10)。そしてユーザはターゲット画像としてターゲットを所望のズーム倍率で撮影する(S12)。撮影装置は、当該ターゲット画像を起点として撮影すべき画像のズーム倍率を決定し、決定したズーム倍率へズームアウトさせながら画像を撮影する(S14、S16)。ズーム倍率の変更および撮影の処理を、決定したズーム倍率のうち最小のズーム倍率となるまで繰り返し(S18のN、S14、S16)、最小のズーム倍率の画像を撮影し終えたら(S18のY)、各画像のズーム倍率、画像の相対位置情報を含むメタデータを作成し、撮影した画像のデータに対応させて記憶部に格納する(S20)。

Description

画像データ作成支援装置および画像データ作成支援方法
 本発明は、表示画像の拡大縮小を行う画像処理技術において使用する画像データの作成支援装置および作成支援方法に関する。
 ゲームプログラムを実行するだけでなく、動画を再生できる家庭用エンタテインメントシステムが提案されている。この家庭用エンタテインメントシステムでは、GPUがポリゴンを用いた三次元画像を生成する(例えば特許文献1参照)。
 一方、高精細な写真などのディジタル画像から生成された複数の解像度のタイル画像を用いて、表示画像の拡大/縮小処理や、上下左右方向の移動処理を行う技術が提案されている。この画像処理技術では、原画像サイズを複数段階に縮小して異なる解像度の画像を生成し、各階層の画像を一又は複数のタイル画像に分割して、原画像を階層構造で表現する。通常、最も解像度の低い画像は1つのタイル画像で構成され、最も解像度の高い原画像は、最も多い数のタイル画像で構成される。画像処理装置は、表示画像の拡大処理または縮小処理時に、使用しているタイル画像を、異なる階層のタイル画像に切り替えることで、拡大表示または縮小表示を迅速に行うようにしている。
米国特許第6563999号公報
 近年は携帯端末などでも表示画面のサイズが拡大し、情報処理装置の種類によらず高精細画像を表示することが可能となってきている。そのため視覚に訴える様々なコンテンツがより身近なものとなった。同時に、魅力のあるコンテンツを作成したいという要求も強くなっている。しかしながら、例えば上述の階層構造を有する画像データを用いて画像表示コンテンツを作成するような場合、効果的な演出をしようと思うほど、素材画像の取得やコンテンツデータの生成が複雑化し、専門的な知識や手間が必要となる、という問題があった。
 本発明はこのような課題に鑑みてなされたものであり、その目的は、様々な表現を可能とする画像のデータを容易に作成することのできる技術を提供することにある。
 本発明のある態様は画像データ作成支援装置に関する。この画像データ作成支援装置は、表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成を支援する装置であって、ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付ける入力情報取得部と、入力情報取得部が受け付けた、ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、対象物を含む複数の画像を撮影する撮影部と、撮影部が撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得し、画像のデータに付加して記憶装置に格納するメタデータ作成部と、を備えることを特徴とする。
 本発明の別の態様は画像データ作成支援方法に関する。この画像データ作成支援方法は、表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成を支援する方法であって、ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付けるステップと、ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、対象物を含む複数の画像を撮影装置で撮影するステップと、撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得するステップと、複数の画像をズーム倍率順に階層化したうえ、各画像を解析して、画像に写る同一の物の特徴点を抽出し、各階層の画像を拡縮させてサイズを揃えたとき当該特徴点の位置が一致するように位置合わせを行った階層データを、画像データとして作成して記憶装置に格納するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、様々な表現が可能な画像データの作成がユーザの負担を最小限に実現できる。
本発明の実施の形態にかかる画像処理システムの使用環境を示す図である。 図1の画像処理システムに適用できる入力装置の外観構成を示す図である。 本実施の形態において使用する画像データの階層構造例を示す図である。 本実施の形態で生成する画像データを表示する画像処理装置の構成を示す図である。 本実施の形態において生成対象となる複数の階層データの関係を模式的に示す図である。 本実施の形態の、画像データ作成支援を行う撮影装置の使用形態を例示する図である。 本実施の形態における撮影装置の構成を詳細に示す図である。 本実施における画像データ作成支援手法の基本的な態様を説明するための図である。 本実施の形態において階層データを作成するための画像撮影を支援する処理手順の例を示すフローチャートである。 本実施の形態において階層データを作成する処理手順を示すフローチャートである。 本実施の形態において階層データを作成するための画像撮影を支援する処理の別の例を説明するための図である。 本実施の形態において画像撮影を支援する処理の手順を示すフローチャートである。 図12のS34でディスプレイに表示する画面の構成例を示す図である。 本実施の形態において、ユーザがターゲット画像を選択する態様でディスプレイに表示する画面の構成例を示す図である。 図14で説明した画像撮影を支援する処理の手順を示すフローチャートである。
 本実施の形態で作成する画像データは、複数の解像度の画像、または複数のズーム倍率で撮影した画像のデータを階層化してなる階層構造を有する。そこでまず、階層構造を有する画像データを表示する機構について説明する。
 図1は、本発明の実施の形態で生成する画像データを表示する画像処理システムの構成例を示す。画像処理システム1は、画像表示に係る処理を実施する画像処理装置10と、画像処理装置10による処理結果を出力する表示装置12とを備える。表示装置12は、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよい。表示装置12は、画像処理装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。
 画像処理システム1において、画像処理装置10は、ケーブル14を介してインターネットなどの外部ネットワークに接続し、階層化された圧縮画像のデータを含むコンテンツのソフトウェアなどをダウンロードして取得してもよい。なお画像処理装置10は、無線通信により外部ネットワークに接続してもよい。画像処理装置10は、ゲーム装置やパーソナルコンピュータなどであってもよく、ソフトウェアを各種記録媒体からロードすることで後述する機能を実現してもよい。なお画像処理装置10は、以後に述べる画像表示以外の処理、例えば音声処理、ゲームの実行、ネットワークへの接続などを行う機能を有していてよい。
 ユーザが、表示装置12に表示された画像を見ながら、表示領域の拡大/縮小、上下左右方向へのスクロールを要求する入力を入力装置に対して行うと、入力装置はそれに応じて、表示領域の移動および拡大縮小の要求信号を画像処理装置10に送信する。画像処理装置10は当該信号に応じて、表示装置12の画面内の画像を変化させる。
 図2は、入力装置20の外観構成例を示す。入力装置20は、ユーザが操作可能な操作手段として、十字キー21、アナログスティック27a、27bと、4種の操作ボタン26を備える。4種の操作ボタン26は、○ボタン22、×ボタン23、□ボタン24および△ボタン25で構成される。画像処理システム1において、入力装置20の操作手段には、表示領域の拡大/縮小要求、および上下左右方向へのスクロール要求を入力するための機能が割り当てられる。
 たとえば、表示領域の拡大/縮小要求の入力機能は、右側のアナログスティック27bに割り当てられる。ユーザはアナログスティック27bを手前に引くことで、表示領域の縮小要求を入力でき、また手前から押すことで、表示領域の拡大要求を入力できる。また、表示領域のスクロールの入力機能は、十字キー21に割り当てられる。ユーザは十字キー21を押下することで、十字キー21を押下した方向へのスクロール要求を入力できる。なお、表示領域移動要求の入力機能は別の操作手段に割り当てられてもよく、たとえばアナログスティック27aに、スクロール要求の入力機能が割り当てられてもよい。
 入力装置20は、入力された表示領域移動要求信号を画像処理装置10に伝送する機能をもち、本実施の形態では画像処理装置10との間で無線通信可能に構成される。入力装置20と画像処理装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルやIEEE802.11プロトコルなどを用いて無線接続を確立してもよい。なお入力装置20は、画像処理装置10とケーブルを介して接続して、表示領域移動要求信号を画像処理装置10に伝送してもよい。
 図3は、本実施の形態において使用する画像データの階層構造例を示す。画像データは、深さ(Z軸)方向に、第0階層30、第1階層32、第2階層34および第3階層36からなる階層構造を有する。なお同図においては4階層のみ示しているが、階層数はこれに限定されない。以下、このような階層構造をもつ画像データを「階層データ」とよぶ。
 図3に示す階層データは4分木の階層構造を有し、各階層は、1以上のタイル画像38で構成される。すべてのタイル画像38は同じ画素数をもつ同一サイズに形成され、たとえば256×256画素を有する。各階層の画像データは、一つの画像を異なる解像度で表現しており、第3階層36、第2階層34、第1階層32、第0階層30の順で解像度が小さくなっている。たとえば第N階層の解像度(Nは0以上の整数)は、左右(X軸)方向、上下(Y軸)方向ともに、第(N+1)階層の解像度の1/2であってよい。
 また図3では各階層において全てのタイル画像が描かれているが、例えば第3階層36などの高解像度の画像は、部分的な領域のみタイル画像を準備してもよい。タイル画像を準備しない領域を拡大する場合は、上の階層の対応する領域の画像を拡大して表示したり、拡大できないようにしたりする。このように一部の領域のみタイル画像を準備する場合も、例えば第2階層34の右下の1つのタイル画像と第3階層36の右下の2×2のタイル画像といった、上下の階層の対応する領域の画像が致するように位置合わせをすることにより、表示時の階層の切り替えをシームレスに実現できる。
 画像処理装置10において、階層データは、所定の圧縮形式で圧縮された状態で記憶装置に保持されており、画像表示コンテンツの起動などに際し記憶装置から読み出されてデコードされる。画像処理装置10は複数種類の圧縮形式に対応したデコード機能を有してよく、たとえばS3TC形式、JPEG形式、JPEG2000形式の圧縮データをデコード可能とする。階層データにおいて、圧縮処理は、タイル画像単位に行われていてもよく、また同一階層または複数の階層に含まれる複数のタイル画像単位に行われていてもよい。
 階層データの階層構造は、図3に示すように、左右方向をX軸、上下方向をY軸、深さ方向をZ軸として設定され、仮想的な3次元空間を構築する。画像処理装置10は、入力装置20から供給される表示領域移動要求信号から表示領域の移動量を導出すると、その移動量を用いて仮想空間におけるフレームの4隅の座標(フレーム座標)を導出する。仮想空間におけるフレーム座標は、表示画像の生成処理に利用される。なお、仮想空間におけるフレーム座標の代わりに、画像処理装置10は、階層を特定する情報と、その階層におけるテクスチャ座標(UV座標)を導出してもよい。
 階層データに含まれる各階層の画像データは仮想空間のZ軸に対して離散的に存在する。そのため、画像データがない階層間の縮尺率で画像を表示する場合は、Z軸方向で近傍にある画像データを用いる。例えば、表示画像の縮尺率が第2階層34の近傍にある場合、表示画像は当該第2階層の画像データを用いて作成する。これを実現するためには、各階層の間、例えば中間にソース画像の切り替え境界を設定する。表示画像の縮尺率が当該切り替え境界を越えると、表示画像の生成に用いる画像データを切り替え、当該画像を拡大したり縮小したりして表示する。
 図4は画像処理装置10の構成を示している。画像処理装置10は、無線インタフェース40、スイッチ42、表示処理部44、ハードディスクドライブ50、記録媒体装着部52、ディスクドライブ54、メインメモリ60、バッファメモリ70および制御部100を有して構成される。表示処理部44は、表示装置12のディスプレイに表示するデータをバッファするフレームメモリを有する。
 スイッチ42は、イーサネットスイッチ(イーサネットは登録商標)であって、外部の機器と有線または無線で接続して、データの送受信を行うデバイスである。スイッチ42は、ケーブル14を介して外部ネットワークに接続し、階層化された圧縮画像データを含むコンテンツファイルを受信してもよい。またスイッチ42は無線インタフェース40に接続し、無線インタフェース40は、所定の無線通信プロトコルで入力装置20と接続する。入力装置20においてユーザから入力された表示領域移動要求信号は、無線インタフェース40、スイッチ42を経由して、制御部100に供給される。
 ハードディスクドライブ50は、データを記憶する記憶装置として機能する。スイッチ42を介して受信された各種データは、ハードディスクドライブ50に格納される。記録媒体装着部52は、メモリカードなどのリムーバブル記録媒体が装着されると、リムーバブル記録媒体からデータを読み出す。ディスクドライブ54は、読み出し専用のROMディスクが装着されると、ROMディスクを駆動して認識し、データを読み出す。ROMディスクは、光ディスクや光磁気ディスクなどであってよい。コンテンツファイルはこれらの記録媒体に格納されていてもよい。
 制御部100は、マルチコアCPUを備え、1つのCPUの中に1つの汎用的なプロセッサコアと、複数のシンプルなプロセッサコアを有する。汎用プロセッサコアはPPU(PowerPC Processor Unit)と呼ばれ、残りのプロセッサコアはSPU(Synergistic Processor Unit)と呼ばれる。
 制御部100は、メインメモリ60およびバッファメモリ70に接続するメモリコントローラを備える。PPUはレジスタを有し、演算実行主体としてメインプロセッサを備えて、実行するアプリケーションにおける基本処理単位としてのタスクを各SPUに効率的に割り当てる。なお、PPU自身がタスクを実行してもよい。SPUはレジスタを有し、演算実行主体としてのサブプロセッサとローカルな記憶領域としてのローカルメモリを備える。ローカルメモリは、バッファメモリ70として使用されてもよい。
 メインメモリ60およびバッファメモリ70は記憶装置であり、RAM(ランダムアクセスメモリ)として構成される。SPUは制御ユニットとして専用のDMA(Direct Memory Access)コントローラをもち、メインメモリ60とバッファメモリ70の間のデータ転送を高速に行うことができ、また表示処理部44におけるフレームメモリとバッファメモリ70の間で高速なデータ転送を実現できる。本実施の形態の制御部100は、複数のSPUを並列動作させることで、高速な画像処理機能を実現する。表示処理部44は、表示装置12に接続されて、ユーザからの要求に応じた処理結果を出力する。
 画像処理装置10は、表示画像を円滑に移動するために、あらかじめ圧縮画像データの少なくとも一部をハードディスクドライブ50からメインメモリ60にロードしておく。また、ユーザからの表示領域移動要求をもとに、将来表示させる領域を予測し、メインメモリ60にロードした圧縮画像データのさらに一部をデコードしてバッファメモリ70に格納しておく。これにより、後の必要なタイミングで、表示画像の生成に使用する画像を瞬時に切り替えることが可能となる。表示対象として複数の階層データを用意し、表示画像が階層データ間を行き来するようにしてもよい。
 図5はそのような態様において表示対象となる複数の階層データの関係を模式的に示している。図中、2つの三角形は異なる階層データ150および152を示している。それぞれの階層データ150、152は実際には、図3に示すように解像度の異なる複数の画像データが図のZ軸に対し離散的に存在する構成を有する。ユーザが入力装置20によって表示領域の拡大/縮小を要求すると、表示領域が、図のZ軸方向に移動することになる。一方、表示領域を上下左右に移動させる要求を行うと、図の水平面を移動することになる。このような仮想空間において、2つの階層データ150および152が図のように重なり合った画像データを構築する。
 このような画像データを用いて階層データ150の画像を表示中、ユーザが、ある領域で継続的に拡大要求を行うと、表示領域が矢印aのように移動し階層データ152の領域へ進入する。この操作によって、表示画像を生成するためのデータを階層データ150から階層データ152へと切り替える。この処理は、これまで述べた画像表示の処理手順において、メインメモリ60へロードする対象の階層データを変更することで実現できる。
 図5のような複数の階層データからなる画像データを構築するために、階層データ150と階層データ152を切り替えるときの画像の解像度および位置をあらかじめ設定しておく。この設定は図5中、線154で表され、これにより階層データの重なり具合が決定できる。同図の例では、Z軸がz1なる解像度、線154が表す位置において、階層データ150から階層データ152への切り替えが行われる。以後、このような階層データ間の切り替えを「リンク」と呼ぶ。なお切り替えを行う階層データの画像は解像度の異なる同一の画像でもよいし、全く異なる画像でもよい。
 さらに、階層データ152への表示画像の切り替えに代わり、動画再生、音声再生、表示の加工、表示領域の移動、といった処理を行うようにしてもよい。この場合も、線154のように、階層データ150に対しリンク領域を設定しておき、視点が当該領域に到達したらそれに対応づけておいた処理を開始する。
 このようにすると、ユーザが階層データ150の画像を見ながら表示領域を移動させ、表示領域がリンク領域に達すると、その領域に対応づけた画像や情報が表示されたり、動画再生がなされたりする、といった態様を実現できる。例えば、人の全体像の画像から顔、目、と表示領域を拡大していくと、やがて瞳の画像となり、さらに拡大していくと、瞳に映っている別世界へ表示が移り変わったりその世界にある物が動き出したり、といった表示上の演出が可能になる。なお一つの階層データに複数の階層データへのリンクを設定してもよいし、リンク先の階層データに、さらに別の階層データへのリンクを設定してもよい。
 このような階層データの画像を表示する場合、Z軸、すなわち解像度方向の可変範囲が大きいほどデータ構造の利点を生かすことができる。また上述したように、リンクの有無に関わらず同一の対象物を含む画像を複数の階層で表現する場合は、上下の階層の対応する領域における対象物の位置を合致させることで、階層によって対象物がずれたりすることなくシームレスに表示を切り替え、上述のような様々な演出を実現できる。
 しかしながら階層データを構成する画像を、同じ対象物を含む像をズーム倍率を異ならせて撮影した写真や動画などとした場合、撮影している間に天候や撮影条件の変化、被写体の移動などが生じ、色合いや構図が変化してしまうことは十分考えられる。また、このように個別に撮影した画像における同一の対象物を、階層間および同一階層内で位置合わせする作業は多大な労力を要する。そこで本実施の形態では、写真や動画などを撮影して階層データを生成する態様において、作成者の負担を軽減するための支援を行う。なお以後の説明では、リンクが設定されている複数の階層データもまとめて「階層データ」と呼ぶ場合がある。
 図6は本実施の形態の、画像データ作成支援を行う撮影装置の使用形態を例示している。撮影装置200は外観上、一般的なデジタルカメラ、デジタルビデオカメラなどと同様の構成を有し、被写体202を撮影する機能を含む。そのため被写体202側には一般的なカメラに備えられるレンズやズーム倍率変更機能などの機構を含む(図示せず)。撮影装置200はさらに、レンズが捉えている像の表示のほか、後述する機能を発揮するためにユーザに必要な情報を提示するためのディスプレイ204、ディスプレイ204を確認しながらユーザが指示入力を行うために操作する指示入力部206を含む。
 ディスプレイ204は一般的なカメラに備えられる液晶パネルなどで構成する。表示する画面例については後に述べる。指示入力部206は、ユーザが押下することにより撮影を実行するシャッターボタン206a、ズーム倍率を変更するズームボタン206b、ディスプレイ204に表示されたモードや枠の選択を行う方向指示ボタン206d、選択を決定する入力を行う決定ボタン206cを含む。指示入力部206も、一般的なカメラに備えられる物と同様の構造で実現してよい。
 撮影装置200は、一般的なカメラと同じくユーザがシャッターを切ることにより写真を撮影したり、動画を撮影したりする通常モードと、階層データを作成する支援を行う画像作成支援モードの2つのモードを切り替え可能に構成してよい。または、画像作成支援を行う装置を一般的なカメラに接続することによって、作成支援機能を実現するようにしてもよい。通常モードについては一般的なカメラと同様であるため、以後は、画像作成支援モード時の構成について説明する。
 図7は撮影装置200の構成をより詳細に示している。撮影装置200は、上述の指示入力部206、およびディスプレイ204のほか、ユーザの指示入力の内容を取得する入力情報取得部208、画像データの作成支援のために撮影装置の向きやズーム倍率を制御する撮影制御部210、実際の撮影を行う撮影部212、階層データ生成のために必要なメタデータを取得するメタデータ作成部214、ディスプレイ204に表示する画像を制御する表示画像制御部216、画像データおよびメタデータを記憶する記憶部218を含む。撮影装置200はさらに、撮影された画像から階層データを作成する階層データ作成部220を含み、記憶部218は作成された階層データも記憶する。
 入力情報取得部208は、ユーザが指示入力部206に対して行った操作を解釈し支援に必要な情報に変換して撮影制御部210に供給する。ここで必要な情報とは、ディスプレイ204に表示された選択肢からの選択結果のほか、ユーザが画像を撮影したときのズーム倍率などの撮影条件を含む。撮影制御部210は、ユーザの入力に応じた支援に必要な情報に基づき撮影条件を決定し、その条件となるように撮影装置を制御したうえ撮影部212に撮影を指示する。制御対象は撮影装置200のレンズの方向およびズーム倍率である。
 そのため撮影制御部210は、一般的なパンチルトカメラに装備されているレンズの方向制御機構を装備する。またズーム倍率を制御する信号を撮影部212に送信する。また撮影制御部210は、後述する支援手法によっては、GPS(Global Positioning System)による位置情報取得機構やジャイロセンサによる方向取得機構を装備してもよい。この場合、ユーザが撮影装置200を保持して移動したりレンズの方向を変えたりした結果、決定した撮影条件となったときにユーザにそれを通知することにより、ユーザ自らにシャッターを切らせることもできる。
 撮影部212は、撮影制御部210からの指示に従い画像を撮影する。撮影した写真や動画などの画像データは記憶部218に格納する。メタデータ作成部214は、撮影された画像のズーム倍率、レンズの方向、画像同士の関連付け情報など画像データに付加するメタデータを、撮影部212が画像を撮影する都度、あるいは一つの階層データを構成する一連の画像が撮影された後などに作成し、記憶部218に格納する。
 表示画像制御部216は、レンズが捉えている像をリアルタイムで画像化してディスプレイ204に出力する。また、通常モード、画像作成支援モードの選択画面、画像作成支援モードにおける各種支援手法の選択画面、後に詳述するターゲット画像の選択画面などの画像データを生成し、ディスプレイ204に出力する。また支援手法によっては、撮影した画像を解析し、ターゲットの検出も行う。
 階層データ作成部220は、記憶部218に格納された画像データおよびメタデータを読み出し、メタデータに基づき階層データを作成する。作成する階層データは上述のとおり、異なるズーム倍率で撮影した画像を別の階層とする場合、リンクが設定された別の階層データとする場合、同じズーム倍率で撮影した画像を貼り合わせて一つの階層とする場合、またはそれらの組み合わせのいずれでもよい。具体例は後に述べる。
 作成した階層データは適宜圧縮して記憶部218に格納する。当該階層データを記録媒体などに書き出し、当該記録媒体を図4の記録媒体装着部52に装着するなどにより、撮影した画像の表示が可能になる。なお階層データ作成部220は、その他の機能と独立した別の装置として実現してもよい。また画像の撮影と階層データの生成の処理は時間的に連続していてもよいし、別の機会に実施してもよい。
 図8は本実施における画像データ作成支援手法の基本的な態様を説明するための図である。被写体202を含む画像の階層データを作成するとき、撮影装置200は、例えばズーム倍率が最小の第1画像230、ズーム倍率が最大の第3画像234、その中間のズーム倍率の第2画像232を撮影画像として取得する。実際に表示する際は、第1画像230を初期画像、第3画像234は最も高い解像度で表示したい画像、第2画像はその移行期の画像とすることができる。
 このような画像表示を実現するため、撮影時は、第1画像230を基準画像としたときのその他の画像、すなわち第2画像232、第3画像234の相対的なズーム倍率、および相対位置を取得する。また、第1画像230、第2画像232、第3画像234を、一つの階層データの素材として用いることを示す関連づけも行う。これらの情報はメタデータとして、関連付けがなされた画像データとともに記憶部218に格納する。なお図8に示した画像の枚数はあくまで例示であり、第1画像230と第3画像234の間のズーム倍率の差、シームレスな表示を行えるズーム倍率の間隔などによって、必要なズーム倍率を決定する。
 なお第1画像230、第2画像232、第3画像234の撮影順は特に限定されない。後述するように、実施する支援手法、被写体の性質、あるいはユーザの設定によって、第3画像を先に撮影してズームアウトし第2画像、第3画像と撮影してもよいし、その逆でもよい。また第1画像230を撮影したあと、ズームインして第3画像234を撮影し、ズームアウトさせて第2画像232を撮影するなどでもよい。
 第1画像230、第2画像232、第3画像234を、リンク設定のない一つの階層データの別の階層の画像として使用する場合は、各階層の解像度に対応するように所定の間隔のズーム倍率で撮影を行うか、撮影した画像を適宜拡大縮小して所定の間隔の解像度の画像を取得する。例えば図3に示した階層データの場合、各階層の画像が上の階層の画像の縦横2倍の倍率を有する、4階層で構成されている。したがってこのような階層データを作成する場合、4段階にズーム倍率を変化させて撮影を行う。このとき、基準画像である最小倍率の画像、最大倍率の画像のどちらか一方をユーザが撮影し、それに基づき撮影制御部210の制御によって、所定の変化量でズーム倍率を変化させて各階層の画像を撮影してもよいし、最小倍率の画像と最大倍率の画像をユーザが撮影してから、その間を補間するズーム倍率で残りの階層の画像を撮影制御部210の制御によって撮影してもよい。
 またこのように一つの階層データを作成するときは、一つのズーム倍率で複数の写真を撮影してもよい。ズーム倍率が基準画像の縦横N倍であれば、縦横N枚の計N枚の画像を、パノラマ写真のようにパンチルタを制御して連続撮影する。そして撮影した画像をつなげることにより、一つの階層を構成する画像とすることができる。あるいは上述のように、高解像度で表示したい領域のみを撮影し、基準画像における当該領域に対応する位置に撮影画像を配置した階層を作成してもよい。
 また撮影した画像のいずれかを、リンクが設定された別の階層データとしてもよい。例えば第1画像230と第2画像232によって構成される第1階層データと、第2画像232と第3画像234によって構成される第2階層データに対し、共通画像である第2画像232においてリンクを設定する。このような場合は、個々の階層データにおいて倍率の刻み幅を設定できるため、撮影するズーム倍率は表示したい画像に応じて決定してよい。ただし上下の階層でズーム倍率が離れすぎないように適宜、補間する画像を撮影する。
 このようにリンクを設定した複数の階層データを生成する態様は、特にリンクが設定されている領域を拡大して表示することを想定しているため、基準画像で撮影した全ての領域を全てのズーム倍率で撮影せずとも、一部の領域を、選択的にズーム倍率を上げて撮影すればよくなる。すると上述のように、被写体202である人物全体が写った第1画像230を表示させた状態で顔の辺りの拡大率を上げていくと、顔が拡大された第2画像232が表示され、さらに拡大率を上げていくと、瞳が拡大された第3画像234が表示されるような画像データを作成できる。
 階層データ作成部220は、メタデータのうち画像同士の関連付けの情報やズーム倍率に基づき、撮影画像を階層データの各階層に割り当てる。さらにメタデータのうち基準画像に対する各画像の相対位置、および各画像を画像解析することによって取得した、被写体202などの対象物またはその一部位の特徴点の位置に基づき、階層同士の位置合わせを行う。位置合わせが正確になるほど、表示時の階層の切り替わりをシームレスに実現することができる。
 各画像の基準画像に対する相対位置は、パンチルタが制御するレンズの方向情報とズーム倍率とから、連写画像からパノラマ画像を合成する技術と同様の幾何計算によって算出できる。またはジャイロセンサで取得したレンズの方向とズーム倍率とから算出してもよい。この場合は、ユーザが手動でレンズの方向を変化させても対応可能となる。あるいは、GPSによる位置情報を取得し、ユーザが手動で撮影装置を移動させて画像の倍率を変化させる場合にも対応できるようにしてもよい。いずれの場合も、階層データを作成する際には特徴点によって最終的な位置合わせを行うため、メタデータの段階ではおよその相対位置が特定できていればよい。
 次に、上述の構成による動作を説明する。図9は階層データを作成するための画像撮影を支援する処理手順の例を示すフローチャートである。この例は、ユーザが撮影した初期画像から段階的にズームアウトさせながら複数の画像を撮影する手法を示している。図8の例では、ユーザが高倍率の第3画像234を撮影したあと、撮影制御部210および撮影部212によって第2画像232および第1画像230を撮影する場合である。
 初めにズーム倍率の高い画像を撮影しておき、次第にズームアウトさせて画像を撮影していくことにより、レンズの方向を調整せずにズーム倍率を変化させるのみで、瞳など高倍率で表示したい対象物(以後、「ターゲット」と呼ぶ)が必ず視野に収まる画像を撮影できる。またズーム倍率が小さいほど、多少の動きに対しても画像に大きな変化を与えなくなる。このことは、ターゲットが虫や動物など撮影者の意図に反して動いてしまう物の場合には特に重要である。またそのようなターゲットの場合、本実施の形態のようにズーム倍率を変化させながら連写をすることで短期間に撮影を完了できれば、撮影中に飛んで行っていなくなってしまうといった可能性が低くなる。
 まずユーザは、撮影装置200のディスプレイ204に表示されたモード選択画面に表示されたモードリストのうち、画像作成支援モードを選択し、さらに当該支援手法を実施するモードを選択する入力を行う(S10)。そしてユーザはターゲット画像としてターゲットを所望のズーム倍率で撮影する(S12)。すると撮影制御部210は上述のように、当該ターゲット画像を起点として撮影すべき画像のズーム倍率を決定し、決定したズーム倍率での撮影を指示することで、撮影部212が画像を撮影する(S14、S16)。このときの撮影装置200のレンズの方向はS12の撮影時の方向と同一でよい。
 ズーム倍率の変更および撮影の処理を、決定したズーム倍率のうち最小のズーム倍率となるまで繰り返し(S18のN、S14、S16)、最小のズーム倍率の画像を撮影し終えたら(S18のY)、メタデータ作成部214がメタデータを作成し、撮影した画像のデータに対応させて記憶部218に格納する(S20)。メタデータ作成部214はメタデータとして、上述したもののほか、画像の手ぶれ情報、顔検出技術によって検出する顔の各部位の位置情報などを取得してもよい。また同じズーム倍率で複数の画像を撮影して貼り合わせ、一階層とする場合は、当該ズーム倍率で撮影した枚数もメタデータとする。
 図10は撮影した画像のデータとメタデータとを用いて、階層データ作成部220が階層データを作成する処理手順を示すフローチャートである。まず階層データ作成部220は、画像データおよびメタデータを記憶部218より読み出す(S22)。読み出す画像データはメタデータにより関連付けられたものを対象とする。次に、ズーム倍率の順に階層データの階層を割り当てる(S24)。
 この際、ユーザの指示などにより、リンクを設定した複数の階層データの階層を割り当ててもよい。この場合は、どの画像のどの領域でリンクを設定するかをユーザより受け付けることにより、リンクを設定したファイルも生成する。また一つの階層に複数の画像を貼り合わせたものを使用する場合は、メタデータをもとに当該複数の画像を特定し、それらに対して一つの階層を割り当てる。
 次に、上下関係を有する2つの階層の画像、あるいは基準画像とその他の階層の画像とで、メタデータにおける相対位置情報に基づきおよその対応位置を絞り込んだうえ、画像解析により位置合わせを行う(S26)。例えばある階層の画像を、その下の階層の画像のズーム倍率まで拡大し、同じ対象物の特徴点の位置を比較する。そして位置が一致するように下の階層の画像を平行移動させて当該階層の最終的な画像を決定する。これを全ての階層において繰り返す。このようにすることで、図3に示すような仮想空間内で、階層間のタイル画像の対応関係が正確に得られる。
 一つの階層を構成する複数の画像を撮影した場合も、レンズの方向などの情報によって同じズーム倍率の画像の位置合わせを行い、貼り合わせることで一つの画像を生成する。本実施の形態で撮影する画像は基本的に、どのズーム倍率においても同じターゲットが撮影されている、という性質を有する。この性質を利用し、当該ターゲットに着目してその特徴点の位置を比較することにより、階層間、階層内で精度よく位置合わせができる。そのようにして生成した階層データは記憶部218に格納する(S28)。
 図11は階層データを作成するための画像撮影を支援する処理の別の例を説明するための図である。この手法では、まずパノラマ画像などズーム倍率が小さく最も広角の画像を初期画像240として撮影する。そしてユーザが当該初期画像240中からターゲットを選び、そこをズームアップすることでターゲット画像を自分で撮影する。図11の例では、初期画像240のうち家の画像242、木の画像244がターゲット画像として撮影されたことを示している。ユーザはさらに、そのようにして撮影したターゲット画像からさらにターゲットを選びズームアップして撮影してもよい。図11の例では、木の画像244のうち、木の根元にある花の画像246がターゲット画像として撮影されたことを示している。
 このような態様で撮影された画像は、初期画像240をルートノードとして画像同士が包含関係で結びつけられるツリー構造を構成すると考えることができる。図11の例では、初期画像240から直接選択して撮影した家の画像242、木の画像244が、初期画像240のルートノードに接続され、花の画像246は木の画像244に接続されるツリー構造となる。以後、このようなツリー構造で接続された上のノードの画像を親画像、それに含まれる下のノードの画像を子画像と呼ぶ。
 本手法においてメタデータ作成部214は、画像データのツリー構造をメタデータとして作成する。このようなツリー構造を撮影とともに作成することで、階層データ作成部220は、一つの階層データに複数の階層データへのリンクを設定することができる。例えば、初期画像240を表示中、家の辺りで画像が拡大された場合、画像242のデータを用いた表示に切り替えることによりさらに拡大が可能となる。同様に木の辺りで画像が拡大された場合、画像244のデータを用いた表示に切り替え、さらに木の根元が拡大された場合、画像246のデータを用いた表示に切り替えることにより、初期画像240ではよく見えなかった花の詳細な構造を表示する、といった態様を実現できる。
 ユーザが家の画像242などのターゲット画像を撮影した後、撮影装置200は、初期画像240とターゲット画像をズーム倍率に対して補間する補間画像を撮影する。撮影手順は図9で説明したのと同様、ターゲット画像からズームアウトしていき初期画像240のズーム倍率になるまで撮影を繰り返す。初期画像に人、動物、乗り物など動く物が写っている場合は、初期画像240と同じ構図の画像を再度撮影し、それを階層データとして使用してもよい。これはユーザがターゲット画像を撮影した後に、撮影装置200がズームアウトさせながら自動で連写する所要時間は短くてすみ、最初に撮影した初期画像240より、一連の画像における構図内の変化を少なくできるためである。
 図12は図11で説明した画像撮影を支援する処理の手順を示すフローチャートである。まずユーザは、撮影装置200のディスプレイ204に表示されたモード選択画面に表示されたモードリストのうち、画像作成支援モードを選択し、さらに当該支援手法を実施するモードを選択する入力を行う(S30)。すると撮影制御部210は、モード選択時などにユーザが指定した画角の情報に従いパノラマ画像などの初期画像を撮影する(S32)。
 例えばユーザがパノラマ画像の左上および右下の画角を指定し、撮影制御部210は、指定された画角が左上、右下になるようなパノラマ画像全体の画角を計算し、パンチルタを制御してカメラの方向を動かしながらパノラマ画像を構成する複数の画像を撮影部212に撮影させる。そのようにして撮影した画像をつなぎ合わせてパノラマ画像を生成する。複数の画像をつなぎ合わせる必要のない1枚の画像を初期画像とする場合は、S32の処理をユーザが行ってもよい。
 次に表示画像制御部216は、ディスプレイ204にS32で撮影した初期画像を親画像として表示し、レンズが捉えている現在の画角が初期画像のどこに当たるかを矩形などで表した画像をディスプレイ204に表示する(S34)。ユーザはそれを見ながら撮影装置200の方向やズーム倍率を変化させ、所望のターゲット画像を撮影する(S36)。すると撮影制御部210は、図9で説明したのと同様に、補間画像として撮影すべき画像のズーム倍率を決定し、決定したズーム率での撮影を撮影部212に指示することで、撮影部212が補間画像を撮影する(S38、S40)。
 ユーザが、別のターゲット画像またはターゲット画像からさらに選択したターゲットの画像を撮影するために撮影の続行を指示する入力を行ったら(S42のY)、S34、S36、S38、およびS40の処理を繰り返す。このとき、ターゲット画像内でさらにターゲット画像を撮影する場合は、S34において、親画像となるターゲット画像へ表示を切り替える。全てのターゲット画像とその間の補間画像を撮影し終えたら(S42のN)、メタデータ作成部214は、撮影された複数の画像の親子関係を特定し、画像データのツリー構造の情報を生成する(S44)。
 画像の親子関係は、S34に表示する親画像において矩形で表示された領域がS36で撮影されたらそれを子画像とすることで特定できる。このとき、親画像と子画像の相対位置も自動的に判明する。またS40で補間画像を撮影したら、ツリー構造において対応するノードを挿入していく。なお、各画像が撮影された時刻を取得しておき、所定の時間内に撮影された画像に対し、ズーム倍率、レンズの方向に基づきツリー構造の情報を生成してもよい。そしてメタデータ作成部214は、ツリー構造の情報や相対位置の情報を含むメタデータを作成し、撮影した画像のデータに対応させて記憶部218に格納する(S46)。
 図13は図12のS34でディスプレイ204に表示する画面の構成例を示している。ターゲット選択画面250は、現在レンズが捉えている像を表示する電子ファインダー領域252および、初期画像など親画像を表示する親画像表示領域254を含む。親画像表示領域254は図示するように電子ファインダー領域252の一部に重なるように配置してもよいし、独立した領域に配置してもよい。
 電子ファインダー領域252は一般的なデジタルカメラなどに備えられる電子ファインダーで構成する。親画像表示領域254は、現在撮影しようとしているターゲット画像の親画像となる撮影済みの画像を表示する。初期画像を撮影した直後は親画像として初期画像を表示する。そして親画像表示領域254において、現在レンズが捉えている画角が親画像のどの領域に対応するかを示す現画角領域枠256を矩形などで示す。現画角領域枠256で囲まれた領域の画像は、電子ファインダー領域252に表示されている画像と一致する。さらに親画像表示領域254には、すでにターゲット画像として撮影されている領域を示す撮影済み領域枠258も矩形などで示す。
 現画角領域枠256と撮影済み領域枠258は互いに区別できるように線の態様や色を異ならせる。同図では前者を実線、後者を破線で表している。なお親画像表示領域254には常に初期画像を表示しておき、ターゲット画像からさらにターゲット画像を撮影する場合も初期画像においてどの位置であるかがわかるようにしてもよい。この場合、撮影済み領域枠258の内部に現画角領域枠256がある、といった態様となる。このような画面をディスプレイ204に表示することにより、ユーザが初期画像からターゲットを自由に選ぶことができるとともに、メタデータ作成部214は親画像と子画像の相対位置を明確に得られる。
 このようにして撮影した画像のデータとメタデータとを用いた階層データの作成は、図10で説明したのと同様の処理手順で実現できる。ただし図11で表したように、一つの親画像に対し複数の子画像が存在するツリー構造が許容されるため、メタデータとして取得したツリー構造の情報に基づき、一つの階層の複数の領域に画像を貼り付けたり、一つの階層データに複数の階層データへのリンクを設定する必要がある。このとき、子画像が複数であっても親画像に対してそれぞれ位置合わせを実施することで、図11の初期画像240である全体的な風景からターゲット画像である花のアップまで、表示をシームレスに変化させることができる。
 図11から図13で説明した手法は、最初にパノラマ写真など広角の初期画像を撮影し、その後にユーザが自分でターゲットを選択しターゲット画像を撮影した。一方、撮影装置200が、初期画像を撮影後、ターゲットとなり得る物を画像解析によって検出し、ユーザがそこから選択できるようにしてもよい。図14はそのような態様においてディスプレイ204に表示する画面の構成例を示している。ターゲット画像選択画面260は、初期画像などの親画像を表示する親画像表示領域262を含む。
 親画像表示領域262において、表示画像制御部216は、親画像を画像解析した結果、人の顔や物などターゲットとなり得るものが検出された領域をターゲット画像候補枠264、266などで表す。ここで実施する画像解析には、顔検出、前景抽出、周波数解析、カラーヒストグラム、特徴点抽出、パターンマッチングなど、一般的な画像解析技術を適用できる。あらかじめターゲットとしたいものの属性をユーザに指定させることにより画像解析手法を決定してもよい。
 そしてユーザが、ターゲット画像候補枠264、266などから選択する入力を行うと、撮影制御部210および撮影部212は、選択された画像が得られるようにパンチルタやズーム倍率を変化させてターゲット画像を撮影する。なお図14のターゲット画像選択画面260に代え、ターゲット画像の候補のみをサムネイル画像として配列表示してもよい。
 図15は図14で説明した画像撮影を支援する処理の手順を示すフローチャートである。まずユーザは、撮影装置200のディスプレイ204に表示されたモード選択画面に表示されたモードリストのうち、画像作成支援モードを選択し、さらに当該支援手法を実施するモードを選択する入力を行う(S50)。すると撮影制御部210は、モード選択時などにユーザが指定した画角の情報に従いパノラマ画像などの初期画像を撮影する(S52)。これらの処理は図12のS30、S32と同様である。
 次に表示画像制御部216は、撮影した初期画像を画像解析し、ターゲットとなり得るものが写っている領域をターゲット画像候補枠で囲った初期画像をディスプレイ204に表示する(S54)。ユーザは、表示されたターゲット画像候補枠のうち、所望のターゲットの画像候補枠を選択する入力を行う(S56)。すると撮影制御部210および撮影部212は、選択された枠に対応する画角が得られるように、必要に応じてパンチルタを動かしつつズーム倍率を上げ、ターゲット画像を撮影する(S58、S60)。
 なおS58、S60の処理をユーザ自身が実施してもよい。このときユーザが撮影装置200を保持してターゲット近辺へレンズの方向、ズーム倍率を合わせる。その後、撮影制御部210が微調整を行ったあと撮影部212が撮影を実施してもよいし、ユーザがズーム倍率などを変化させている途中で、レンズが捉えている画角が選択された枠に対応するものとなったときに音声や表示などでその旨をユーザに通知し、ユーザが撮影してもよい。
 次に撮影制御部210は、図9で説明したのと同様に、補間画像として撮影すべき画像のズーム倍率を決定し、決定したズーム倍率での撮影を指示することで、撮影部212が補間画像を撮影する(S62、S64)。ユーザが別のターゲット画像を撮影する旨の指示入力を行ったら(S66のY)、S54からS64の処理を繰り返す。ターゲット画像の中にさらに倍率を上げて撮影したいターゲットがある場合は、ユーザがその旨の指示入力を行うことにより、S54において表示する画像を、親画像となる当該ターゲット画像に置き換えてもよい。
 全てのターゲット画像とその補間画像を撮影し終えたら(S66のN)、図12のS44と同様、メタデータ作成部214は、撮影された複数の画像の親子関係を特定し、画像データのツリー構造の情報を生成する(S68)。そして相対位置情報など他のメタデータとともに、撮影した画像のデータに対応させて記憶部218に格納する(S70)。
 この手法では、候補となるターゲット画像を表示し、ユーザがその中から選択したが、表示させたい画像のパターン候補をあらかじめ準備しておき、ユーザがS50の撮影モード設定時に選択するようにしてもよい。例えば、人物の全体像→顔→瞳のパターン、風景→人→顔のパターンなど、汎用的なパターンを準備して記憶部218に格納しておく。そしてユーザがそのうちの一つのパターンを、撮影モード設定時に選択したうえ、撮影装置200のレンズの前に被写体である人物や風景を配置する。
 すると撮影制御部210および撮影部212は、図15のS52において、選択されたパターンで最も広角な画像を撮影する。そしてS54、S56の処理に代え、表示画像制御部216が、撮影された画像を解析し、選択されたパターンに従ったターゲットを抽出してターゲット画像の画角を決定する。以後の処理は図15と同様となる。このようにすると、ユーザがイメージする表示態様に適した画像のデータが、ユーザの手間を最小限に取得できる。パターンの選択時には、どのような表示が可能となるかをイメージできるように、ディスプレイ204にサンプル画像を表示するようにしてもよい。
 以上述べた本実施の形態によれば、一つの画像を幅広い解像度で表示させたり別の画像へシームレスに表示を切り替えたりすることが可能な階層データの表示技術に適した画像の撮影および階層データの作成を支援する。具体的には、ターゲットとなる被写体を含む画像を、ズーム倍率を変化させながら連続的に撮影する。これにより、光の加減や物の移動などの変化が少ない一連の画像のデータを取得でき、表示時に画像の拡大、縮小がなされることにより表示に用いる画像のデータが切り替わっても、それを気づかせることなくシームレスな変化が実現できる。
 また撮影と同時に、各画像の相対位置情報、ズーム倍率をメタデータとして取得しておくことにより、階層データの階層の割り振り、リンクの設定を、ユーザの負担を少なく実施できる。それらのデータに加え、GPSやジャイロセンサなどで得られた撮影装置の位置や方向もメタデータとすることにより、ユーザが撮影装置を持って移動しても、画像同士のおよその位置合わせを行える。その後に、特徴点抽出によって正確な位置合わせを行えば、表示時に画像データの切り替わりによって対象物の位置が微妙にずれる、といった不具合の発生を抑制できる。また、同じ撮影装置で多くの撮影を行っても、親子関係をメタデータとしたり、撮影時刻が近接していたりすることにより、一つの階層データを作成すべき一連の画像の抽出が容易にできる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 例えば本実施の形態において示した図は静止画である写真を例示しているが、撮影装置で撮影する画像は動画であっても、動画と静止画が混在していてもよい。例えば広角の画像は写真、ズーム倍率を最大に上げたターゲット画像は動画とすることもできる。この場合、広角の画像のうち動画が撮影された領域に、当該動画を再生するリンクを設定したデータを作成する。すると、例えば風景写真から線路へ表示を拡大していくと、風景写真の一部であった電車が動き出す、といった、静止画と動画を混在させた効果的な表現を実現させる画像データを容易に生成できる。
 また、本実施の形態では短時間に連写して取得した画像を一つの階層データとしたが、逆に撮影間隔が長期にわたってもよい。例えば同じ風景を季節ごとに撮影し、表示時には表示領域移動要求などによって表示する季節を切り替える。この場合、撮影時にはメタデータとして、GPSおよびジャイロセンサで取得した撮影装置の位置および向きを取得しておく。そして、前の季節で撮影した画像のデータとそのメタデータを呼び出すことにより、当該画像と同じ画角で撮影を行う。そして画像同士を関連付けて記憶部に格納することにより、本実施の形態で説明したのと同様に階層データを生成することができる。
 1 画像処理システム、 10 画像処理装置、 12 表示装置、 20 入力装置、 30 第0階層、 32 第1階層、 34 第2階層、 36 第3階層、 38 タイル画像、 44 表示処理部、 50 ハードディスクドライブ、 60 メインメモリ、 70 バッファメモリ、 100 制御部、 200 撮影装置、 204 ディスプレイ、 206 指示入力部、 208 入力情報取得部、 210 撮影制御部、 212 撮影部、 214 メタデータ作成部、 216 表示画像制御部、 218 記憶部、 220 階層データ作成部。
 以上のように本発明は撮影機、画像処理装置などの情報処理装置に利用可能である。

Claims (17)

  1.  表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成を支援する装置であって、
     ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付ける入力情報取得部と、
     前記入力情報取得部が受け付けた、ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、前記対象物を含む複数の画像を撮影する撮影部と、
     前記撮影部が撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得し、画像のデータに付加して記憶装置に格納するメタデータ作成部と、
     を備えることを特徴とする画像データ作成支援装置。
  2.  前記複数の画像をズーム倍率順に階層化したうえ、各画像を解析して、画像に写る同一の物の特徴点を抽出し、各階層の画像を拡縮させてサイズを揃えたとき当該特徴点の位置が一致するように位置合わせを行った階層データを、前記画像データとして作成する階層データ作成部をさらに備えたことを特徴とする請求項1に記載の画像データ作成支援装置。
  3.  前記撮影部が備えるレンズの方向を制御する撮影制御部をさらに備え、
     前記メタデータ作成部は、少なくとも、前記撮影部が撮影した各画像の撮影時のズーム倍率およびレンズの方向に基づき、最もズーム倍率の小さい基準画像に対する各画像の相対位置情報をメタデータとしてさらに取得し、
     前記階層データ作成部は、当該相対位置情報に基づき第1段階の位置合わせを行い、前記特徴点の位置によって第2段階の位置合わせを行うことを特徴とする請求項2に記載の画像データ作成支援装置。
  4.  前記画像データ作成支援装置の方向を特定するジャイロセンサをさらに備え、
     前記メタデータ作成部は、少なくとも、前記撮影部が撮影した各画像の撮影時のズーム倍率および前記ジャイロセンサによって測定された前記画像データ作成支援装置の方向に基づき、最もズーム倍率の小さい基準画像に対する各画像の相対位置情報をメタデータとしてさらに取得し、
     前記階層データ作成部は、当該相対位置情報に基づき第1段階の位置合わせを行い、前記特徴点の位置によって第2段階の位置合わせを行うことを特徴とする請求項2に記載の画像データ作成支援装置。
  5.  前記画像データ作成支援装置の位置を特定するGPS(Global Positioning System)の電波受信部をさらに備え、
     前記メタデータ作成部は、少なくとも、前記撮影部が撮影した各画像の撮影時のズーム倍率および前記電波受信部によって測定された前記画像データ作成支援装置の位置に基づき、最もズーム倍率の小さい基準画像に対する各画像の相対位置情報をメタデータとしてさらに取得し、
     前記階層データ作成部は、当該相対位置情報に基づき第1段階の位置合わせを行い、前記特徴点の位置によって第2段階の位置合わせを行うことを特徴とする請求項2に記載の画像データ作成支援装置。
  6.  前記入力情報取得部は、最もズーム倍率の小さい画像の画角を指定する入力をユーザより受け付け、
     前記撮影部は、前記入力情報取得部が受け付けた、ユーザが指定した画角で初期画像を撮影し、
     前記入力情報取得部は、前記初期画像中で、ユーザがターゲットとして選択した領域のターゲット画像を撮影した際のズーム倍率を、前記ズーム倍率を指定する入力として受け付けることを特徴とする請求項1から5のいずれかに記載の画像データ作成支援装置。
  7.  ユーザが前記初期画像からターゲットを選択するため、レンズが捉えている画角の枠を前記初期画像上に表した画像を表示するディスプレイをさらに備えることを特徴とする請求項6に記載の画像データ作成支援装置。
  8.  前記入力情報取得部は、最もズーム倍率の小さい画像の画角を指定する入力をユーザより受け付け、
     前記撮影部は、前記入力情報取得部が受け付けた、ユーザが指定した画角で初期画像を撮影し、
     前記入力情報取得部は、前記初期画像を解析した結果抽出された、ターゲット画像の候補からユーザが選択する入力を、前記ズーム倍率を指定する入力として受け付けることを特徴とする請求項1から5のいずれかに記載の画像データ作成支援装置。
  9.  ユーザが前記ターゲット画像の候補から選択する入力を行うため、ターゲット画像候補の輪郭を表す枠を前記初期画像上に表した画像を表示するディスプレイをさらに備えることを特徴とする請求項8に記載の画像データ作成支援装置。
  10.  ユーザが前記ターゲット画像の候補から選択する入力を行うため、ターゲット画像候補サムネイル表示した画像を表示するディスプレイをさらに備えることを特徴とする請求項8に記載の画像データ作成支援装置。
  11.  前記撮影部は、前記初期画像と前記ターゲット画像のズーム倍率の間のズーム倍率を補間する補間画像を撮影することを特徴とする請求項6から10のいずれかに記載の画像データ作成支援装置。
  12.  前記入力情報取得部は、前記初期画像中、複数のターゲットに対するズーム倍率の指定を受け付け、
     前記メタデータ作成部は、前記撮影部が撮影した複数の画像を関連づける、前記初期画像をルートノードとする画像データのツリー構造の情報をメタデータとして取得することを特徴とする請求項6から11のいずれかに記載の画像データ作成支援装置。
  13.  前記撮影部は、前記複数の画像のいずれかとして、当該ターゲットを含む動画像を撮影することを特徴とする請求項1から12のいずれかに記載の画像データ作成支援装置。
  14.  前記入力情報取得部は、あらかじめ準備されたターゲットのパターンからユーザが選択する入力と、ユーザがレンズの前に配置した被写体に基づき、選択されたパターンにおけるターゲットを撮影するために必要なズーム倍率を取得し、それをもってユーザが指定する前記ズーム倍率とすることを特徴とする請求項1から5のいずれかに記載の画像データ作成支援装置。
  15.  表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成を支援する方法であって、
     ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付けるステップと、
     ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、前記対象物を含む複数の画像を撮影装置で撮影するステップと、
     撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得するステップと、
     前記複数の画像をズーム倍率順に階層化したうえ、各画像を解析して、画像に写る同一の物の特徴点を抽出し、各階層の画像を拡縮させてサイズを揃えたとき当該特徴点の位置が一致するように位置合わせを行った階層データを、前記画像データとして作成して記憶装置に格納するステップと、
     を含むことを特徴とする画像データ作成支援方法。
  16.  表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成の支援をコンピュータに実現させるコンピュータプログラムであって、
     ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付ける機能と、
     ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、前記対象物を含む複数の画像を撮影装置で撮影する機能と、
     撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得する機能と、
     前記複数の画像をズーム倍率順に階層化したうえ、各画像を解析して、画像に写る同一の物の特徴点を抽出し、各階層の画像を拡縮させてサイズを揃えたとき当該特徴点の位置が一致するように位置合わせを行った階層データを、前記画像データとして作成して記憶装置に格納する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラム。
  17.  表示画像を拡大縮小する際、所定の縮尺率で表示に用いる画像のデータを、異なるズーム倍率で撮影した複数の画像のデータ間で切り替える表示装置が用いる画像データの作成の支援をコンピュータに実現させるコンピュータプログラムを記録した記録媒体であって、
     ユーザから、対象物の画像の所望のズーム倍率を指定する入力を受け付ける機能と、
     ユーザが指定したズーム倍率を起点として、表示に用いる複数のズーム倍率で、前記対象物を含む複数の画像を撮影装置で撮影する機能と、
     撮影した複数の画像を関連づけるとともに、表示時の切り替え順および切り替えのタイミングを決定づける、各画像のズーム倍率をメタデータとして取得する機能と、
     前記複数の画像をズーム倍率順に階層化したうえ、各画像を解析して、画像に写る同一の物の特徴点を抽出し、各階層の画像を拡縮させてサイズを揃えたとき当該特徴点の位置が一致するように位置合わせを行った階層データを、前記画像データとして作成して記憶装置に格納する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラムを記録した記録媒体。
PCT/JP2010/004774 2009-11-24 2010-07-27 画像データ作成支援装置および画像データ作成支援方法 WO2011064918A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/511,408 US8670046B2 (en) 2009-11-24 2010-07-27 Image data creation support device and image data creation support method
CN201080053122.7A CN102668585B (zh) 2009-11-24 2010-07-27 图像数据生成辅助装置和图像数据生成辅助方法
EP10832774.3A EP2506219B1 (en) 2009-11-24 2010-07-27 Image data creation support device and image data creation support method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-266666 2009-11-24
JP2009266666A JP5340895B2 (ja) 2009-11-24 2009-11-24 画像データ作成支援装置および画像データ作成支援方法

Publications (1)

Publication Number Publication Date
WO2011064918A1 true WO2011064918A1 (ja) 2011-06-03

Family

ID=44066033

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004774 WO2011064918A1 (ja) 2009-11-24 2010-07-27 画像データ作成支援装置および画像データ作成支援方法

Country Status (5)

Country Link
US (1) US8670046B2 (ja)
EP (1) EP2506219B1 (ja)
JP (1) JP5340895B2 (ja)
CN (1) CN102668585B (ja)
WO (1) WO2011064918A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056038A (zh) * 2012-03-12 2016-10-26 佳能株式会社 图像显示装置和图像显示方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630307B1 (ko) * 2010-05-12 2016-06-14 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
KR20120019603A (ko) * 2010-08-26 2012-03-07 삼성전자주식회사 터치 기반 입력 인터페이스를 가지는 터치 디바이스의 컨택트 리스트 제공 방법 및 장치
JP5005080B2 (ja) * 2010-09-06 2012-08-22 キヤノン株式会社 パノラマ画像の生成方法
US8692907B2 (en) * 2010-09-13 2014-04-08 Sony Corporation Image capturing apparatus and image capturing method
JP5652097B2 (ja) 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
US20120188248A1 (en) * 2011-01-26 2012-07-26 The Boeing Company Image Management and Presentation
KR101303017B1 (ko) * 2011-05-11 2013-09-03 엘지전자 주식회사 이미지의 리사이징 방법, 이미지의 전송방법 및 전자기기
JP2013013065A (ja) * 2011-06-01 2013-01-17 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
GB2511679B (en) * 2011-12-08 2016-06-08 Canon Kk Image pickup apparatus, method for controlling the same, and program
JP6186775B2 (ja) * 2012-05-31 2017-08-30 株式会社リコー 通信端末、表示方法、及びプログラム
JP6192276B2 (ja) * 2012-09-14 2017-09-06 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、及び記録媒体
JP6102588B2 (ja) * 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN104284077B (zh) * 2013-07-12 2019-06-25 联想(北京)有限公司 一种图像处理方法和装置
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
CN104301676B (zh) * 2014-10-14 2018-12-07 浙江宇视科技有限公司 一种监控目标搜索方法和装置以及球型摄像机
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
JP6594666B2 (ja) * 2015-06-01 2019-10-23 オリンパス株式会社 撮像補助装置、撮像装置および撮像補助方法
CN105007413B (zh) * 2015-06-30 2018-01-19 广东欧珀移动通信有限公司 一种拍摄控制方法及用户终端
US10397484B2 (en) * 2015-08-14 2019-08-27 Qualcomm Incorporated Camera zoom based on sensor data
US10366144B2 (en) 2016-04-01 2019-07-30 Ebay Inc. Analyzing and linking a set of images by identifying objects in each image to determine a primary image and a secondary image
CN113542601B (zh) 2016-06-20 2024-01-23 麦克赛尔株式会社 摄像装置、显示装置和摄像显示系统
US10373290B2 (en) * 2017-06-05 2019-08-06 Sap Se Zoomable digital images
KR102344104B1 (ko) 2017-08-22 2021-12-28 삼성전자주식회사 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법
JP7051396B2 (ja) * 2017-11-30 2022-04-11 キヤノン株式会社 通信装置、通信方法、およびプログラム
JP7419723B2 (ja) * 2019-09-25 2024-01-23 株式会社リコー 画像処理システム、画像処理装置および方法
US20230035765A1 (en) * 2020-01-30 2023-02-02 Sony Group Corporation Control device, imaging system, and 3d model data generation method
CN111294517B (zh) * 2020-03-03 2021-12-17 荣耀终端有限公司 一种图像处理的方法及移动终端
JP6871458B2 (ja) * 2020-05-12 2021-05-12 マクセル株式会社 撮像表示方法
WO2024025086A1 (ko) * 2022-07-29 2024-02-01 삼성전자 주식회사 상호작용에 기반하여 이미지를 표시하기 위한 전자 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181949A (ja) * 1991-12-26 1993-07-23 Toshiba Corp 画像位置合わせ装置
JPH11205653A (ja) * 1998-01-19 1999-07-30 Canon Inc カメラ制御システム及びカメラ制御方法およびクライアントおよびその動作処理を実行するプログラムを記憶した記憶媒体
US6563999B1 (en) 1997-03-27 2003-05-13 Sony Computer Entertainment, Inc. Method and apparatus for information processing in which image data is displayed during loading of program data, and a computer readable medium and authoring system therefor
JP2004062671A (ja) * 2002-07-30 2004-02-26 Dream Technologies Kk 対象物が立体的に表されているかのように画像を表示するためのシステム及び方法
JP2005275797A (ja) * 2004-03-24 2005-10-06 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2007102634A (ja) * 2005-10-06 2007-04-19 Sony Corp 画像処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681056B1 (en) * 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
US7551223B2 (en) * 2002-12-26 2009-06-23 Sony Corporation Apparatus, method, and computer program for imaging and automatic focusing
JP2005123667A (ja) * 2003-10-14 2005-05-12 Seiko Epson Corp 複数の画像データからの静止画像データの生成
WO2006059504A1 (ja) * 2004-11-30 2006-06-08 Matsushita Electric Industrial Co., Ltd. 画像処理方法、画像処理装置、画像処理プログラムおよび画像ファイルフォーマット
JP4379728B2 (ja) * 2005-01-31 2009-12-09 カシオ計算機株式会社 撮像装置及びそのプログラム
WO2006121203A1 (en) * 2005-05-11 2006-11-16 Fujifilm Corporation Image capturing apparatus, image capturing method, image processing apparatus, image processing method and program
US7609958B2 (en) * 2006-08-01 2009-10-27 Eastman Kodak Company Automatic focus system calibration for image capture systems
JP4948294B2 (ja) * 2007-07-05 2012-06-06 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
JP2009077363A (ja) * 2007-08-24 2009-04-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
CN101527039B (zh) * 2008-03-06 2011-12-28 河海大学 基于边缘特征的图像自动配准及快速超分辨率融合方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181949A (ja) * 1991-12-26 1993-07-23 Toshiba Corp 画像位置合わせ装置
US6563999B1 (en) 1997-03-27 2003-05-13 Sony Computer Entertainment, Inc. Method and apparatus for information processing in which image data is displayed during loading of program data, and a computer readable medium and authoring system therefor
JPH11205653A (ja) * 1998-01-19 1999-07-30 Canon Inc カメラ制御システム及びカメラ制御方法およびクライアントおよびその動作処理を実行するプログラムを記憶した記憶媒体
JP2004062671A (ja) * 2002-07-30 2004-02-26 Dream Technologies Kk 対象物が立体的に表されているかのように画像を表示するためのシステム及び方法
JP2005275797A (ja) * 2004-03-24 2005-10-06 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2007102634A (ja) * 2005-10-06 2007-04-19 Sony Corp 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2506219A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056038A (zh) * 2012-03-12 2016-10-26 佳能株式会社 图像显示装置和图像显示方法
CN106056038B (zh) * 2012-03-12 2019-09-06 佳能株式会社 图像显示装置和图像显示方法

Also Published As

Publication number Publication date
CN102668585B (zh) 2015-09-30
JP2011114401A (ja) 2011-06-09
EP2506219A4 (en) 2014-07-23
US8670046B2 (en) 2014-03-11
EP2506219B1 (en) 2017-08-23
US20120281119A1 (en) 2012-11-08
JP5340895B2 (ja) 2013-11-13
CN102668585A (zh) 2012-09-12
EP2506219A1 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5340895B2 (ja) 画像データ作成支援装置および画像データ作成支援方法
KR101458645B1 (ko) 파노라믹 이미지를 조합하는 방법, 파노라믹 이미지의버추얼 3d 프로젝션을 제공하는 방법 및 이를 위한 카메라
JP5398408B2 (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法
TW527828B (en) Image-capturing apparatus
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
JP5406813B2 (ja) パノラマ画像表示装置およびパノラマ画像表示方法
JP2012242821A (ja) 表示画像生成方法
JP2003199034A (ja) パノラマ画像を形成するための事後的ピクチャスティッチ用スチルピクチャフォーマット
JP5404690B2 (ja) 撮像装置
JP2007086269A (ja) カメラ装置およびカメラ装置のズームレンズ光学系の焦点距離調節方法
JP5393237B2 (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP2009272840A (ja) 画像記録再生装置、画像記録再生方法、画像処理装置、および画像処理方法
JP2007096774A (ja) 画像表示装置及びプログラム
JP6104077B2 (ja) 撮影機器及び撮影方法
JP2009230635A (ja) 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム
KR100579135B1 (ko) 수렴형 3차원 다시점 영상 획득 방법
JP2006020105A (ja) 撮像装置、スロット写真撮影方法、及びプログラム
JP5249078B2 (ja) 撮像装置
JP6708495B2 (ja) 映像処理装置、撮像装置および映像処理プログラム
JP5715179B2 (ja) 再生表示装置および再生表示方法
JP5269639B2 (ja) 撮像装置および通信システム
JP5613285B2 (ja) 撮像装置、撮像方法、表示装置および表示方法
JP2022138535A (ja) 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
JP2014082764A (ja) 画像表示装置、画像表示方法、サーバ装置、および画像データ構造
KR20170082116A (ko) 움직이는 사진 생성 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080053122.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10832774

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010832774

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010832774

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13511408

Country of ref document: US