WO2020195232A1 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
WO2020195232A1
WO2020195232A1 PCT/JP2020/004841 JP2020004841W WO2020195232A1 WO 2020195232 A1 WO2020195232 A1 WO 2020195232A1 JP 2020004841 W JP2020004841 W JP 2020004841W WO 2020195232 A1 WO2020195232 A1 WO 2020195232A1
Authority
WO
WIPO (PCT)
Prior art keywords
shaking
information
image data
image
shake
Prior art date
Application number
PCT/JP2020/004841
Other languages
English (en)
French (fr)
Inventor
小曽根 卓義
隆一 唯野
洋司 山本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP20777115.5A priority Critical patent/EP3952276B1/en
Priority to US17/434,196 priority patent/US11716537B2/en
Priority to CN202080022096.5A priority patent/CN113574856A/zh
Priority to JP2021508201A priority patent/JP7444162B2/ja
Publication of WO2020195232A1 publication Critical patent/WO2020195232A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • This technology relates to image processing devices, image processing methods, and programs, and particularly to image processing related to image shake.
  • Patent Document 1 discloses that vibration isolation processing is performed on image data related to a captured image, and the influence of vibration isolation processing is removed on the image data after the vibration isolation treatment.
  • the image processing device uses a shake information adjusting unit that adjusts the shake information at the time of imaging when the input image data constituting the moving image is imaged and generates the shake information after adjustment, and the shake information after adjustment.
  • the shaking change unit that performs the shaking change processing to obtain the shaking changed image data by changing the shaking state of the input image data, at least one of the input image data and the shaking changed image data, and the shaking at the time of imaging. It is provided with an association unit that associates the information with the shaking change information that can specify the processing amount of the shaking change processing.
  • the shaking change process is to change the shaking state by reducing the shaking generated in the moving image or adding the shaking.
  • the sway changing unit performs the sway changing process using the sway information after adjustment by the sway information adjusting unit.
  • the image data, the shaking information at the time of imaging, and the adjusted shaking information are associated with each other.
  • the shaking information at the time of imaging is information indicating the movement of the imaging device at the time of imaging, for example, the detection values of sensors such as the acceleration sensor and the angular velocity sensor of the imaging device, the attitude information of the imaging device obtained from them, and the rotation. Amount, amount of movement, etc.
  • the shaking changing unit adds a shaking effect to the input image data based on the adjusted shaking information as the shaking changing process.
  • the shaking effect corresponds to adding a shaking state or adjusting the shaking condition of the image as an image effect.
  • the adjusted shaking information becomes the shaking information adjusted for the shaking effect.
  • the associating unit associates the shaking information at the time of imaging and the shaking change information with the input image data. For example, an image in a state where the shaking has not been changed can be associated and provided to another device.
  • the shaking changing unit removes the shaking of the input image data based on the shaking information at the time of imaging as the shaking changing process.
  • Shake removal is to remove (including reduction of shake) the shake generated in the image due to the movement of the image pickup device (camera shake, etc.) at the time of imaging.
  • the camera shake of the image is removed by using the shaking information at the time of imaging.
  • the associating unit associates the shaking information at the time of imaging and the shaking change information with the shake-changed image data.
  • an image that has undergone the shaking change processing as shaking removal that is, an image in which the shaking due to the movement of the imaging device at the time of imaging is removed, can be associated and provided to another device.
  • an image subjected to the shaking change processing as a shaking effect may be associated and provided to another device.
  • the shaking changing unit cancels the shaking removing process performed at the time of imaging by using the metadata associated with the input image data with respect to the input image data. It is conceivable that the shaking change processing is performed after the processing is performed. When a shake removing process such as camera shake removal has been performed in the image pickup apparatus, the shake change process is performed after returning to the state in which the camera shake has not been removed.
  • the image data associated with the shaking information and the shaking change information at the time of imaging by the association unit is the image data in a state where the shaking removal processing at the time of imaging is not performed. Be done.
  • the image data is the input image data that has not been subjected to the shaking removal processing at the time of imaging.
  • the image data is image data obtained by performing a process of canceling the shaking removing process performed at the time of imaging on the input image data. For example, an image in which shake removal at the time of imaging is canceled or an image in which shake removal is not performed at the time of imaging can be associated and provided to another device.
  • the shaking information at the time of imaging is the attitude information of the imaging device at the time of capturing the input image data by the imaging device.
  • the attitude information of the image pickup device can be obtained from, for example, information from an angular velocity sensor or an acceleration sensor.
  • the attitude information is shift information or rotation information indicating the movement of the image pickup device when the input image data is captured by the image pickup device.
  • the posture information of the imaging device is converted into shift information and rotation information and stored.
  • the shaking information adjusting unit is designated by the shaking change parameter based on the shaking information at the time of imaging and the shaking change parameter that specifies the processing amount of the shaking change processing. It is conceivable to generate the adjusted sway information for adding the sway amount of sway. For example, the post-adjusted posture information obtained by adjusting the posture information with the swing change parameter is generated and used for the swing change process.
  • the shaking change information is the shaking change parameter.
  • the shaking change parameter is, for example, a parameter of the shaking change processing input for the shaking effect.
  • the shaking change parameter is a parameter specified by a user operation. That is, the swing change parameter can be arbitrarily input by the user.
  • the shaking change information is the adjusted shaking information.
  • the adjusted posture information adjusted by the shaking change parameter is stored as the shaking change information.
  • the shaking information adjusting unit performs gain processing based on the shaking change parameter for each shaking frequency band with respect to the shaking information for adding shaking based on the shaking information at the time of imaging. Therefore, it is conceivable to generate the shaking information after the adjustment.
  • the posture information is given the gain specified by the shaking change parameter for each shaking frequency band to generate the adjusted posture information, and is used for the shaking change processing.
  • the shaking information adjusting unit performs gain processing based on the shaking change parameter for each shaking direction with respect to the shaking information for adding the shaking based on the shaking information at the time of imaging. It is conceivable to generate the post-adjustment shaking information.
  • the posture information is given a gain specified by the swing change parameter for each swing direction (yaw, pitch, roll) to generate the adjusted posture information, and is used for the swing change process.
  • the shaking information at the time of imaging is the attitude information corresponding to each frame of the input image data obtained based on the metadata generated at the time of imaging the input image data. It is conceivable that.
  • the attitude information for example, quaternion
  • the imaging device obtained from the information of the angular velocity sensor and the acceleration sensor is adjusted so that the adjusted attitude information is used for the shaking change processing.
  • the shaking changing unit attaches each frame of the input image data to the celestial sphere model, and the adjusted shaking information corresponding to each frame is the adjusted. It is conceivable to perform the shaking change processing by rotating each frame using the posture information. For example, rotation processing is performed on the celestial sphere model based on the adjusted attitude information obtained by adjusting the attitude information (for example, the quarterion) of the imaging device obtained from the information of the angular velocity sensor and the acceleration sensor.
  • the attitude information for example, the quarterion
  • Other image processing devices related to this technology use the shake information at the time of imaging associated with the image data constituting the moving image and the shake change information that can specify the processing amount of the shake change process, and obtain the adjusted shake information. It includes a shaking information adjusting unit to be generated, and a shaking changing unit that performs a shaking changing process for changing the shaking state of image data using the adjusted shaking information. That is, when the image data constituting the moving image, the shaking information at the time of imaging, and the shaking change information capable of specifying the processing amount of the shaking change processing are provided with information, the secondary shaking change processing is performed.
  • An image processing device is configured to perform the above.
  • the image data is image data that has not been subjected to the shake removing process at the time of imaging, or image data that has been subjected to a process of canceling the shake removing process performed at the time of imaging. That is, it is the image data in a state where the shaking removal processing by the image pickup apparatus has not been performed. Further, it is considered that the image data is image data in which the shaking is removed by the shaking change information based on the shaking information at the time of imaging. That is, it is image data in a state in which the influence of shaking in the imaging device is removed (including reduction).
  • the image processing method uses the shaking information adjustment processing that adjusts the shaking information at the time of imaging when the input image data constituting the moving image is imaged to generate the shaking information after adjustment, and the shaking information after adjustment.
  • the shaking change process for obtaining the shaking changed image data by changing the shaking state of the input image data, at least one of the input image data and the shaking changed image data, the shaking information at the time of imaging, and the shaking. Performs association processing that associates with fluctuation change information that can specify the processing amount of change processing. As a result, the information that the shaking effect and the shaking removal are performed on the image is saved.
  • the program according to the present technology is a program that causes an information processing apparatus to execute a process corresponding to such an image processing method. As a result, the image processing of the present disclosure can be executed by various information processing devices.
  • hake refers to an interframe shake of images that make up a moving image. It broadly refers to vibration components (image fluctuations between frames) that occur between frames, such as shaking caused by camera shake in an image captured by a so-called image pickup device, or shaking intentionally added by image processing. It shall be.
  • Interframe shake modification refers to changing the state of shaking in an image, such as reducing the shaking occurring in the image or adding shaking to the image.
  • This "shaking change” shall include the following “interframe shake reduction” and “interframe shake production”.
  • Hande removal refers to eliminating or reducing the shaking that occurs in the image due to camera shake (total removal of shaking) or reduction (partial removal of shaking). That is, it means adjusting so as to reduce the shaking based on the shaking information at the time of imaging.
  • image stabilization performed in the image pickup apparatus is to remove the shaking.
  • the "shaking effect” may add shaking to the image or reduce the shaking, and in that sense, it may be the same as “shaking removal” as a result.
  • the user operates or automatically. It means that the amount of change in shaking is instructed by control, and the shaking state of the image is changed according to the instruction. For example, information that reduces or increases the shaking by changing the shaking information at the time of imaging according to a user instruction or the like and performing the shaking change processing based on the changed shaking information, or adds shaking generated by the user instruction or the like. Reducing or increasing the shaking by changing the shaking based on the above corresponds to the "shaking effect".
  • Hande information during imaging is information related to shaking when imaged by an imaging device, such as motion detection information of the imaging device, information that can be calculated from the detection information, and attitude information indicating the posture of the imaging device.
  • Information such as shift and rotation as the movement of the image pickup device is applicable.
  • specific examples of the “sway information during imaging” include quotation (QD), IMU data, shift / rotation information (SFRO), and the like. Of course, it is not limited to these.
  • the “adjusted shaking information” is shaking information generated by adjusting the shaking information at the time of imaging, and is information used for the shaking changing process. For example, it is shaking information adjusted according to user operation or automatic control.
  • adjusted quarternion (eQD) and adjusted IMU data (eIMU) are given, but of course, the present invention is not limited thereto.
  • the “sway change information” is information on the shake change process of the image data, and may be any information that can specify the processing amount of the shake change process.
  • specific examples of the “sway change information” include the shake change parameter (PRM) and the adjusted quota (eQD), but of course, the present invention is not limited to these.
  • FIG. 1A shows an example of an image source VS and an image processing device (TDx, TDy) that acquires an image file MF from the image source VS.
  • the image processing device TDx is a device that temporarily performs shaking change processing on the image data acquired from the image source VS.
  • the image processing device TDy is a device that secondarily performs the shaking change processing on the image data that has already been shake-changing processing by another image processing device.
  • an image pickup device 1 As the image source VS, an image pickup device 1, a server 4, a recording medium 5, and the like are assumed.
  • a mobile terminal 2 such as a smartphone, a personal computer 3 and the like are assumed.
  • various devices such as an image editing dedicated device, a cloud server, a television device, and a video recording / playback device are assumed as image processing devices TDx and TDy. These devices can function as any of the image processing devices TDx and TDy.
  • the image pickup device 1 as an image source VS is a digital camera or the like capable of capturing a moving image, and transfers the image file MF obtained by the moving image imaging to a mobile terminal 2 or a personal computer 3 via wired communication or wireless communication.
  • the server 4 may be a local server, a network server, a cloud server, or the like, but refers to a device capable of providing an image file MF captured by the image pickup device 1. It is conceivable that the server 4 transfers the image file MF to the mobile terminal 2 or the personal computer 3 via some kind of transmission path.
  • the recording medium 5 may be a solid-state memory such as a memory card, a disk-shaped recording medium such as an optical disk, or a tape-shaped recording medium such as a magnetic tape, but removable recording in which the image file MF captured by the image pickup apparatus 1 is recorded. Pointing to the medium. It is conceivable that the image file MF read from the recording medium 5 is read by the mobile terminal 2 or the personal computer 3.
  • the mobile terminal 2 and the personal computer 3 as the image processing devices TDx and TDy are capable of performing image processing on the image file MF acquired from the above image source VS.
  • the image processing referred to here includes shaking change processing (shaking effect and shaking removal).
  • the shaking change processing is performed, for example, by rotating each frame of the image data constituting the moving image by using the posture information corresponding to the frame after the processing of pasting the image data on the celestial sphere model is performed.
  • a certain mobile terminal 2 or personal computer 3 may serve as an image source VS for another mobile terminal 2 or personal computer 3 that functions as an image processing device TDx or TDy.
  • FIG. 1B shows an image pickup device 1 and a mobile terminal 2 as one device that can function as both an image source VS and an image processing device TDx.
  • a microcomputer or the like inside the image pickup apparatus 1 performs a shaking change process. That is, the image pickup apparatus 1 can perform the shake change processing on the image file MF generated by the imaging, and can output the image as the result of the image processing in which the shake is removed and the shake effect is applied.
  • the mobile terminal 2 since it can be an image source VS by having an image pickup function, the image processing result obtained by performing the above-mentioned shaking change processing on the image file MF generated by the imaging to remove the shaking and to produce the shaking effect.
  • the image can be output as.
  • various other devices that can serve as an image source and an image processing device can be considered.
  • the image processing device TDx of the embodiment, the device functioning as the TDy, and the image source VS are various, but in the following, the image source VS of the image pickup device 1 and the like, and the image processing device TDx of the mobile terminal 2 and the like, And another image processing device TDy will be described as separate devices.
  • FIG. 2 shows a state of information transmission in the image processing device TDy of the image source VS and the image processing device TDx.
  • the image data VD1 and the metadata MTD1 are transmitted from the image source VS to the image processing device TDx via wired communication, wireless communication, or a recording medium.
  • the image data VD1 and the metadata MTD1 are information transmitted as, for example, an image file MF.
  • the metadata MTD1 may include the coordinate conversion parameter HP as information on shaking removal at the time of imaging performed as, for example, camera shake correction.
  • the image processing device TDx can perform various processes by receiving the image data VD1, the metadata MTD1, and the coordinate conversion parameter HP. For example, the image processing device TDx can perform the shaking change processing on the image data VD1 by using the shaking information at the time of imaging included in the metadata MTD1. Further, for example, the image processing apparatus TDx can cancel the shaking removal applied to the image data VD1 at the time of imaging by using the coordinate conversion parameter HP included in the metadata MTD1.
  • the image processing device TDx When the shaking change processing is performed, the image processing device TDx performs a process of associating the image data with the shaking information at the time of imaging and the shaking change information SMI that can specify the processing amount of the shaking change processing. Then, the associated image data, the shaking information at the time of imaging, and the shaking change information SMI are collectively or separately transmitted to the image processing device TDy via wired communication, wireless communication, or a recording medium. Can be done.
  • the term "associate" means, for example, to make the other information available (linkable) when processing one piece of information (data, commands, programs, etc.). That is, the information associated with each other may be collected as one file or the like, or may be individual information.
  • the information B associated with the information A may be transmitted on a transmission path different from that of the information A. Further, for example, the information B associated with the information A may be recorded on a recording medium (or another recording area of the same recording medium) different from the information A.
  • this "association" may be a part of the information, not the entire information.
  • an image and information corresponding to the image may be associated with each other in an arbitrary unit such as a plurality of frames, one frame, or a part within the frame. More specifically, for example, assigning the same ID (identification information) to a plurality of information, recording the plurality of information on the same recording medium, storing the plurality of information in the same folder, and the like.
  • Information is stored in the same file (one is given as metadata to the other), multiple pieces of information are embedded in the same stream, for example, meta is embedded in an image like a digital watermark. , Included in "associate”.
  • FIG. 2 shows image data transmitted from the image processing device TDx to the image processing device TDy as image data VD2.
  • the image data VD2 is an image in which the shake removal by the image pickup apparatus 1 is canceled, an image in which the shake removal is performed by the image processing device TDx, or before the shake change processing is performed by the image processing device TDx.
  • FIG. 2 shows the metadata MTD2 transmitted from the image processing device TDx to the image processing device TDy.
  • the metadata MTD2 may have the same information as the metadata MTD1 or may have some different information. However, the metadata MTD2 includes shaking information during imaging.
  • the image processing apparatus TDy can acquire at least the image data VD2, the shaking information at the time of imaging included in the metadata MTD2, and the shaking change information SMI in association with each other. It should be noted that a data form in which the shaking change information SMI is also included in the metadata MTD2 can be considered.
  • the image processing that can be executed by the image processing devices TDx and TDy will be described on the assumption of such information transmission.
  • the image pickup apparatus 1 includes, for example, a lens system 11, an image sensor unit 12, a camera signal processing unit 13, a recording control unit 14, a display unit 15, an output unit 16, an operation unit 17, a camera control unit 18, and a memory. It has a unit 19, a driver unit 22, and a sensor unit 23.
  • the lens system 11 includes a lens such as a cover lens, a zoom lens, and a focus lens, and an aperture mechanism. Light from the subject (incident light) is guided by the lens system 11 and focused on the image sensor unit 12. Although not shown, the lens system 11 may be provided with an optical image stabilization mechanism that corrects image shake (interframe shake) and blur due to camera shake or the like.
  • the image sensor unit 12 includes, for example, an image sensor 12a (imaging element) such as a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type.
  • image sensor 12a imaging element
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • ADC Automatic Gain Control
  • the image pickup signal as digital data is output to the camera signal processing unit 13 and the camera control unit 18 in the subsequent stage.
  • the optical image stabilization mechanism (not shown) is a mechanism that corrects image shake by moving the image sensor 12a side instead of the lens system 11 side, or spatial optical image stabilization using a gimbal. In some cases, it may be a balanced optical image stabilization mechanism, and any method may be used. In the optical image stabilization mechanism, in addition to the interframe shake, the blur in the frame is also corrected as described later.
  • the camera signal processing unit 13 is configured as an image processing processor by, for example, a DSP (Digital Signal Processor) or the like.
  • the camera signal processing unit 13 performs various signal processing on the digital signal (image image signal) from the image sensor unit 12. For example, as a camera process, the camera signal processing unit 13 performs preprocessing, simultaneous processing, YC generation processing, resolution conversion processing, codec processing, and the like.
  • the camera signal processing unit 13 also performs various correction processes. However, it is assumed that the image stabilization may or may not be performed in the image pickup apparatus 1.
  • the captured image signal from the image sensor unit 12 is clamped to clamp the black levels of R, G, and B to a predetermined level, and correction processing between the color channels of R, G, and B is performed.
  • a color separation processing is performed so that the image data for each pixel has all the color components of R, G, and B.
  • demosaic processing is performed as color separation processing.
  • YC generation process a luminance (Y) signal and a color (C) signal are generated (separated) from the image data of R, G, and B.
  • the resolution conversion process the resolution conversion process is executed on the image data subjected to various signal processing.
  • FIG. 4 shows an example of various correction processes (internal correction of the image pickup apparatus 1) performed by the camera signal processing unit 13.
  • the optical image stabilization performed by the lens system 11 and the correction processing performed by the camera signal processing unit 13 are illustrated by their execution order.
  • the in-lens image stabilization by shifting the yaw direction and pitch direction of the lens system 11 and the in-body image stabilization by shifting the yaw direction and pitch direction of the image sensor 12a are performed to perform camera shake correction.
  • the image of the subject is formed on the image sensor 12a in a state where the influence of the above is physically canceled.
  • the in-lens image stabilization and the in-body image stabilization may be only one, or both may be used. When both in-lens image stabilization and in-body image stabilization are used, it is conceivable that the in-body image stabilization does not shift in the yaw direction or pitch direction.
  • neither in-lens image stabilization nor in-body image stabilization is adopted, and for image stabilization, only electronic image stabilization or only optical image stabilization may be performed.
  • processing from processing F2 to processing F7 is performed by spatial coordinate conversion for each pixel.
  • Lens distortion correction is performed in the process F2.
  • focal plane distortion correction is performed as one element of electronic image stabilization. It should be noted that this corrects distortion when, for example, the CMOS type image sensor 12a reads out the rolling shutter method.
  • Roll correction is performed in the process F4. That is, the roll component is corrected as one element of the electronic image stabilization.
  • trapezoidal distortion correction is performed for the trapezoidal distortion caused by the electronic image stabilization.
  • the trapezoidal distortion caused by electronic image stabilization is perspective distortion caused by cutting out a place away from the center of the image.
  • the pitch direction and the yaw direction are shifted and cut out as one element of the electronic image stabilization.
  • camera shake correction, lens distortion correction, and trapezoidal distortion correction are performed by the above procedure. It is not essential to carry out all of the processes listed here, and the order of the processes may be changed as appropriate.
  • an image file MF is generated as an MP4 format used for recording MPEG-4 compliant video / audio. It is also conceivable to generate files in formats such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), and GIF (Graphics Interchange Format) as still image files.
  • the camera signal processing unit 13 also generates metadata to be added to the image file MF by using the information from the camera control unit 18 and the like.
  • the audio processing system is not shown in FIG. 3, it actually has an audio recording system and an audio processing system, and the image file MF includes audio data as well as image data as a moving image. May be good.
  • the recording control unit 14 records and reproduces, for example, a recording medium using a non-volatile memory.
  • the recording control unit 14 performs a process of recording an image file MF such as moving image data or still image data, a thumbnail image, or the like on a recording medium, for example.
  • the actual form of the recording control unit 14 can be considered in various ways.
  • the recording control unit 14 may be configured as a flash memory built in the image pickup device 1 and a write / read circuit thereof, or a recording medium that can be attached to and detached from the image pickup device 1, such as a memory card (portable flash memory, etc.). ) May be in the form of a card recording / playback unit that performs recording / playback access. Further, it may be realized as an HDD (Hard Disk Drive) or the like as a form built in the image pickup apparatus 1.
  • HDD Hard Disk Drive
  • the display unit 15 is a display unit that displays various displays to the imager, and is, for example, a display such as a liquid crystal panel (LCD: Liquid Crystal Display) or an organic EL (Electro-Luminescence) display arranged in the housing of the image pickup device 1. It is used as a display panel or viewfinder depending on the device.
  • the display unit 15 causes various displays to be executed on the display screen based on the instruction of the camera control unit 18. For example, the display unit 15 displays a reproduced image of image data read from the recording medium by the recording control unit 14.
  • the display unit 15 is supplied with image data of the captured image whose resolution has been converted by the camera signal processing unit 13 for display, and the display unit 15 is based on the image data of the captured image in response to an instruction from the camera control unit 18. May be displayed. As a result, a so-called through image (subject monitoring image), which is an captured image during composition confirmation, is displayed. Further, the display unit 15 causes various operation menus, icons, messages, etc., that is, display as a GUI (Graphical User Interface) to be executed on the screen based on the instruction of the camera control unit 18.
  • GUI Graphic User Interface
  • the output unit 16 performs data communication and network communication with an external device by wire or wirelessly. For example, image data (still image file or moving image file) is transmitted and output to an external display device, recording device, playback device, or the like. Further, assuming that the output unit 16 is a network communication unit, it communicates with various networks such as the Internet, a home network, and a LAN (Local Area Network), and transmits and receives various data to and from servers, terminals, and the like on the network. You may do so.
  • various networks such as the Internet, a home network, and a LAN (Local Area Network)
  • the operation unit 17 collectively shows input devices for the user to perform various operation inputs. Specifically, the operation unit 17 shows various controls (keys, dials, touch panels, touch pads, etc.) provided in the housing of the image pickup apparatus 1. The operation unit 17 detects the user's operation, and the signal corresponding to the input operation is sent to the camera control unit 18.
  • the camera control unit 18 is composed of a microcomputer (arithmetic processing device) provided with a CPU (Central Processing Unit).
  • the memory unit 19 stores information and the like used for processing by the camera control unit 18.
  • the illustrated memory unit 19 comprehensively shows, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like.
  • the memory unit 19 may be a memory area built in the microcomputer chip as the camera control unit 18, or may be configured by a separate memory chip.
  • the camera control unit 18 controls the entire image pickup apparatus 1 by executing a program stored in the ROM of the memory unit 19, the flash memory, or the like.
  • the camera control unit 18 controls the shutter speed of the image sensor unit 12, gives instructions for various signal processes in the camera signal processing unit 13, captures and records operations according to user operations, reproduces recorded image files, and lenses. It controls the operation of each necessary part regarding the operation of the lens system 11 such as zoom, focus, and aperture adjustment in the lens barrel, and the operation of the user interface.
  • the RAM in the memory unit 19 is used for temporarily storing data, programs, and the like as a work area for various data processing of the CPU of the camera control unit 18.
  • the ROM and flash memory (non-volatile memory) in the memory unit 19 include an OS (Operating System) for the CPU to control each unit, content files such as image files, application programs for various operations, and firmware. It is used for memory of etc.
  • the driver unit 22 is provided with, for example, a motor driver for the zoom lens drive motor, a motor driver for the focus lens drive motor, a motor driver for the diaphragm mechanism motor, and the like. These motor drivers apply a drive current to the corresponding driver in response to an instruction from the camera control unit 18, to move the focus lens and zoom lens, open and close the diaphragm blades of the diaphragm mechanism, and the like.
  • the sensor unit 23 comprehensively shows various sensors mounted on the image pickup apparatus.
  • an IMU intial measurement unit
  • an angular velocity is detected by a three-axis angular velocity (gyro) sensor of pitch-, yaw, and roll
  • acceleration is detected by an acceleration sensor. can do.
  • the sensor unit 23 may include a sensor capable of detecting camera shake during imaging, and does not need to include both a gyro sensor and an acceleration sensor. Further, the sensor unit 23 may be equipped with a position information sensor, an illuminance sensor, or the like.
  • the image file MF as a moving image captured and generated by the above image pickup device 1 can be transferred to the image processing devices TDx and TDy of the mobile terminal 2 and the like for image processing.
  • the mobile terminal 2 and the personal computer 3 serving as the image processing devices TDx and TDy can be realized as, for example, an information processing device having the configuration shown in FIG.
  • the server 4 can be realized by the information processing device having the configuration shown in FIG.
  • the CPU 71 of the information processing apparatus 70 executes various processes according to a program stored in the ROM 72 or a program loaded from the storage unit 79 into the RAM 73.
  • the RAM 73 also appropriately stores data and the like necessary for the CPU 71 to execute various processes.
  • the CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74.
  • An input / output interface 75 is also connected to the bus 74.
  • An input unit 76 including an operator and an operation device is connected to the input / output interface 75.
  • various controls and operation devices such as a keyboard, mouse, keys, dial, touch panel, touch pad, and remote controller are assumed.
  • the user's operation is detected by the input unit 76, and the signal corresponding to the input operation is interpreted by the CPU 71.
  • a display unit 77 made of an LCD or an organic EL panel and an audio output unit 78 made of a speaker or the like are connected to the input / output interface 75 as one or a separate body.
  • the display unit 77 is a display unit that performs various displays, and is composed of, for example, a display device provided in the housing of the information processing device 70, a separate display device connected to the information processing device 70, and the like.
  • the display unit 77 executes the display of various images for image processing, moving images to be processed, and the like on the display screen based on the instruction of the CPU 71. Further, the display unit 77 displays various operation menus, icons, messages, etc., that is, as a GUI (Graphical User Interface) based on the instruction of the CPU 71.
  • GUI Graphic User Interface
  • a storage unit 79 composed of a hard disk, a solid-state memory, or the like, or a communication unit 80 composed of a modem or the like may be connected to the input / output interface 75.
  • the communication unit 80 performs communication processing via a transmission line such as the Internet, and performs communication with various devices by wired / wireless communication, bus communication, or the like.
  • a drive 82 is also connected to the input / output interface 75, if necessary, and a removable recording medium 81 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted.
  • the drive 82 can read data files such as an image file MF and various computer programs from the removable recording medium 81.
  • the read data file is stored in the storage unit 79, and the image and sound included in the data file are output by the display unit 77 and the sound output unit 78. Further, the computer program or the like read from the removable recording medium 81 is installed in the storage unit 79 as needed.
  • this information processing device 70 for example, software for image processing as the image processing device of the present disclosure can be installed via network communication by the communication unit 80 or a removable recording medium 81.
  • the software may be stored in the ROM 72, the storage unit 79, or the like in advance.
  • FIG. 6 shows a function provided as an information processing device 70 that functions as an image processing device TDx. That is, the information processing device 70 (CPU 71) has functions as a shaking changing unit 100, a shaking information adjusting unit 101, and an associating unit 102.
  • the shaking information adjusting unit 101 adjusts the shaking information at the time of imaging of the image data constituting the moving image to generate the adjusted shaking information. Then, after the adjustment, the shaking information is passed to the shaking changing unit 100. At this time, the shaking information adjusting unit 101 adjusts the shaking information at the time of imaging based on the shaking change parameter PRM to generate the adjusted shaking information.
  • the shake change parameter PRM is a processing parameter generated by user operation or automatic control.
  • the shaking changing unit 100 performs a shaking changing process for changing the shaking state of the image data by using the adjusted shaking information.
  • the shaking changing unit 100 has a function as a shaking effecting unit 100a, and in particular, by using the adjusted shaking information, a process as a shaking effect for adding or increasing or decreasing the shaking is performed. Then, an output image to which the shaking effect is applied is obtained as the shaking effected image data.
  • the associating unit 102 is a function of associating the image data with the shaking information at the time of imaging and the shaking change information that can specify the processing amount of the shaking change processing.
  • the association unit 102 may store the image data, the shaking information at the time of imaging, and the shaking change information in association with each other.
  • the association unit 102 may generate and store information for associating these image data, shaking information at the time of imaging, and shaking change information with each other.
  • the image data is the image data before the shaking change processing (shaking effect processing) performed by the shaking changing unit 100.
  • the image-taking shaking information associated with the image data is the shaking information when the image data is imaged by the image pickup apparatus 1.
  • the shake change information associated with the image data is the shake change parameter PRM input for the shake change for the image data.
  • the adjusted shaking information may be used as the shaking change information associated with the image data.
  • FIG. 7 shows a functional configuration in which FIG. 6 is slightly modified.
  • the shaking changing unit 100 is an example including a shaking effecting unit 100a and a shaking removing unit 100b. That is, the shaking changing unit 100 can obtain an output image with the shaking effect by performing the shaking effect processing for changing the shaking state of the image data by the shaking effect unit 100a using the adjusted shaking information. Further, the shaking changing unit 100 can perform the shaking removing process by the shaking removing unit 100b by using the shaking information at the time of imaging. That is, it is possible to obtain an output image in which shaking due to camera shake or the like during imaging is reduced.
  • the association unit 102 performs a process of associating the image data with the shaking information at the time of imaging and the shaking change information that can specify the processing amount of the shaking change processing.
  • the image data is the image data that has been shake-removed by the shake-removing unit 100b.
  • the image-time shaking information associated with the image data is the image-time shaking information when the image data is imaged.
  • the shaking change information associated with the image data is the shaking change parameter PRM input for the shaking change, as in the example of FIG.
  • the adjusted shaking information may be used as the shaking change information. That is, in this case, the shaking change information that does not directly affect the shaking-removed image data is associated with it.
  • the first, second, and fifth embodiments which will be described later, are examples according to the functional configuration of FIG. 6, and the third and fourth embodiments are examples according to the functional configuration of FIG. 7.
  • the functional configuration as the image processing device TDx is shown above, the functional configuration as the image processing device TDy is provided with at least a shaking changing unit 100 and a shaking information adjusting unit 101 in FIGS. 6 and 7. Just do it.
  • the association unit 102 may be provided.
  • the image processing device TDy the image data to be processed by the shaking changing unit 100, the shaking information at the time of imaging supplied to the shaking information adjusting unit 101, and the shaking change parameter PRM (shaking change information) are the previous shaking.
  • the data is associated with the image processing device TDx or the like at the time of change.
  • the shaking information adjusting unit 101 changes the past shaking from the shaking information during imaging and the adjusted shaking information.
  • the amount of processing may be obtained.
  • the image source VS and the image processing device TDx are realized by, for example, the image pickup device 1 as described with reference to FIG. 1B, the functions of FIGS. 6 and 7 are combined with the camera signal combination processing section 13 or the camera control section of the image pickup device 1. It is also conceivable to provide the image processing device TDx by providing the image processing device 18.
  • FIG. 8A shows the data included in the image file MF.
  • the image file MF includes various data as "header”, “sound”, “movie”, and "metadata”.
  • “header” information such as a file name and a file size as well as information indicating the presence or absence of metadata are described.
  • “Sound” is audio data recorded together with a moving image. For example, 2-channel stereo audio data is stored.
  • the “movie” is moving image data, and is composed of image data as each frame (# 1, # 2, # 3, ...) Constituting the moving image.
  • the "metadata” additional information associated with each frame (# 1, # 2, # 3, ...) Constituting the moving image is described.
  • FIG. 8B An example of the contents of the metadata is shown in FIG. 8B.
  • IMU data, coordinate conversion parameter HP, timing information TM, and camera parameter CP are described for one frame. It should be noted that these are a part of the metadata contents, and here, only the information related to the image processing described later is shown.
  • the IMU data As the IMU data, a gyro (angular velocity data), an accelerator (acceleration data), and a sampling rate are described.
  • the IMU mounted on the imaging device 1 as the sensor unit 23 outputs angular velocity data and acceleration data at a predetermined sampling rate. Generally, this sampling rate is higher than the frame rate of the captured image, so that many IMU data samples can be obtained in one frame period.
  • n samples are associated with each frame, such as gyro sample # 1, gyro sample # 2, ... Gyro sample # n shown in FIG. 8C.
  • m samples are associated with each frame, such as accelerator sample # 1, accelerator sample # 2, ... accelerator sample # m.
  • n m
  • n ⁇ m the metadata is described here as an example associated with each frame, for example, the IMU data may not be completely synchronized with the frame. In such a case, for example, the time information associated with the time information of each frame is provided as the IMU sample timing offset in the timing information TM.
  • the coordinate conversion parameter HP is a general term for parameters used for correction accompanied by coordinate conversion of each pixel in the image. It also includes non-linear coordinate transformations such as lens distortion.
  • the coordinate conversion parameter HP is a term that can include at least a lens distortion correction parameter, a trapezoidal distortion correction parameter, a focal plane distortion correction parameter, an electronic camera shake correction parameter, and an optical camera shake correction parameter.
  • the lens distortion correction parameter is information for directly or indirectly grasping how the distortion such as barrel aberration and pincushion aberration is corrected and returning the image to the image before the lens distortion correction.
  • the metadata regarding the lens distortion correction parameter as one of the metadata will be briefly described.
  • FIG. 9A shows the image height Y, the angle ⁇ , the entrance pupil position d1, and the exit pupil position d2 in the schematic diagram of the lens system 11 and the image sensor 12a.
  • the lens distortion correction parameter is used in image processing to know the incident angle of each pixel of the image sensor 12a. Therefore, it is sufficient to know the relationship between the image height Y and the angle ⁇ .
  • FIG. 9B shows the image 110 before the lens distortion correction and the image 111 after the lens distortion correction.
  • the maximum image height H0 is the maximum image height before distortion correction, and is the distance from the center of the optical axis to the farthest point.
  • the maximum image height H1 is the maximum image height after distortion correction.
  • the metadata required to understand the relationship between the image height Y and the angle ⁇ is the maximum image height H0 before distortion correction and the incident angle data d0, d1, ... d (N-) for each of the N image heights. It becomes 1). It is assumed that "N" is about 10 as an example.
  • the trapezoidal distortion correction parameter is a correction amount when correcting the trapezoidal distortion caused by shifting the cutout area from the center by electronic image stabilization, and is also a value corresponding to the correction amount of electronic image stabilization.
  • the focal plane distortion correction parameter is a value indicating the amount of correction for each line with respect to the focal plane distortion.
  • the parameters of lens distortion correction, trapezoidal distortion correction, focal plane distortion correction, and electronic image stabilization are collectively referred to as coordinate conversion parameters, but these correction processes are performed by the image sensor 12a of the image sensor unit 12. This is because it is a correction process for an image formed on a pixel and is a parameter of a correction process that involves a coordinate conversion of each pixel.
  • Optical image stabilization is also one of the coordinate conversion parameters, but this is because the correction of the fluctuation of the inter-frame component in the optical image stabilization is a process that involves coordinate conversion of each pixel.
  • the image data to which lens distortion correction, trapezoidal distortion correction, focal plane distortion correction, electronic camera shake correction, and optical camera shake correction have been performed can be captured before each correction process, that is, by imaging. It is possible to return to the state when the image sensor 12a of the element unit 12 is imaged.
  • each parameter of lens distortion correction, trapezoidal distortion correction, and focal plane distortion correction is distortion correction processing for the case where the optical image itself from the subject is an image captured in an optically distorted state, and each of them is optical distortion. Since it is intended for correction, it is generically called an optical distortion correction parameter. That is, if the reverse correction is performed using these parameters, the image data to which the lens distortion correction, the trapezoidal distortion correction, and the focal plane distortion correction have been performed can be returned to the state before the optical distortion correction.
  • the timing information TM in the metadata includes each information of exposure time (shutter speed), exposure start timing, readout time (curtain speed), number of exposure frames (long exposure information), IMU sample offset, and frame rate. In the image processing of the present embodiment, these are mainly used to associate the line of each frame with the IMU data. However, even if the image sensor 12a is a CCD or a global shutter CMOS, if the exposure center of gravity shifts using an electronic shutter or mechanical shutter, the exposure start timing and curtain speed are also used to match the exposure center of gravity. Correction is possible.
  • the angle of view (focal length), zoom position, and lens distortion information are described as the camera parameter CP in the metadata.
  • FIG. 10 shows the procedures of various processes executed in the information processing device 70 as the image processing device TDx, and shows the relationship of the information used in each process.
  • steps ST11, ST12, ST13, ST14, ST17, and ST18 can also be considered as the processing of the shaking change unit 100.
  • the process of step ST15 is performed.
  • the process of step ST20 is performed.
  • the pre-processing is the processing performed when the image file MF is imported.
  • the term "import" as used herein means that an image file MF or the like that can be accessed by the information processing device 70 being imported into, for example, a storage unit 79 or the like is targeted for image processing, and image processing is performed by performing preprocessing. It means to develop as possible. For example, it does not mean transferring from the image pickup device 1 to the mobile terminal 2 or the like.
  • the CPU 71 imports the image file MF designated by the user operation or the like so as to be the image processing target, and also performs processing related to the metadata added to the image file MF as preprocessing. For example, a process of extracting and storing metadata corresponding to each frame of a moving image is performed. Specifically, in this preprocessing, metadata extraction (step ST1), all IMU data concatenation (step ST2), metadata retention (step ST3), conversion to quotation (posture information of imaging device 1), and retention (Step ST4) is performed.
  • step ST1 the CPU 71 reads the target image file MF and extracts the metadata included in the image file MF as described with reference to FIG. Note that part or all of steps ST1, ST2, ST3, and ST4 may be performed on the image source VS side such as the image pickup apparatus 1. In that case, in the pre-processing, the contents after the processing described below are acquired as metadata.
  • the CPU 71 performs a concatenation process on the IMU data (angular velocity data (gyro sample) and acceleration data (accelerator sample)) in step ST2.
  • This is a process of arranging all the IMU data associated with all frames in chronological order and concatenating them to construct IMU data corresponding to the entire sequence of moving images.
  • integration processing is performed on the connected IMU data to calculate a quarternion QD representing the posture of the image pickup device 1 at each time point on the sequence of moving images, and this is stored and retained. It is an example that the quarternion QD is calculated. It is also possible to calculate the quarternion QD using only the angular velocity data.
  • the CPU 71 performs a process of holding the metadata other than the IMU data, that is, the coordinate conversion parameter HP, the timing information TM, and the camera parameter CP in step ST3. That is, the coordinate conversion parameter HP, the timing information TM, and the camera parameter CP are stored in a state corresponding to each frame.
  • the CPU 71 is ready to perform various image processing including the shaking change of the image data received as the image file MF.
  • the steady-state processing of FIG. 10 shows the image processing performed on the image data of the image file MF that has been preprocessed as described above.
  • the CPU 71 takes out one frame of the moving image (step ST11), cancels the internal correction of the image pickup device (step ST12), pastes it on the celestial sphere model (step ST13), synchronizes processing (step ST14), adjusts the shaking information (step ST15), and shakes. Processing of change (step ST16), output area designation (step ST17), plane projection and cutout (step ST18), and association recording / reproduction (step ST20) is performed.
  • the CPU 71 performs each process from step ST11 to step ST20 for each frame when reproducing the image of the image file MF.
  • step ST11 the CPU 71 decodes one frame of the moving image (image file MF) along the frame number FN. Then, one frame of image data PD (#FN) is output. Note that "(#FN)" indicates a frame number and indicates that the information corresponds to that frame. If the moving image is not encoded by compression or the like, the decoding process in step ST11 is not necessary.
  • step ST12 the CPU 71 performs a process of canceling the internal correction performed by the image pickup apparatus 1 for the image data PD (#FN) of one frame.
  • the CPU 71 refers to the coordinate conversion parameter HP (#FN) stored corresponding to the frame number (#FN) at the time of preprocessing, and performs a correction opposite to the correction performed by the image pickup apparatus 1.
  • image data iPD (#FN) in a state in which lens distortion correction, trapezoidal distortion correction, focal plane distortion correction, electronic image stabilization, and optical image stabilization in the image pickup apparatus 1 are canceled is obtained.
  • step ST13 the CPU 71 attaches one frame of image data iPD (#FN) in a state in which various corrections have been canceled to the celestial sphere model.
  • the camera parameter CP (#FN) stored corresponding to the frame number (#FN), that is, the angle of view, the zoom position, and the lens distortion information are referred to.
  • FIG. 11 shows an outline of attachment to the celestial sphere model.
  • FIG. 11A shows the image data iPD.
  • the image height h is the distance from the center of the image.
  • Each circle in the figure indicates a position where the image height h is equal.
  • the "relationship between the image sensor surface and the incident angle ⁇ " in that frame is calculated, and "data0" at each position on the image sensor surface ...
  • dataN-1 the "dataN-1”
  • it is expressed as a one-dimensional graph of the relationship between the image height h and the incident angle ⁇ as shown in FIG. 11B.
  • the incident angle ⁇ is the angle of the light ray (angle seen from the optical axis).
  • This one-dimensional graph is rotated once around the center of the captured image, and the relationship between each pixel and the incident angle is obtained. Accordingly, each pixel of the image data iPD is mapped to the celestial sphere model MT from the pixel G1 in FIG. 11C to the pixel G2 on the celestial sphere coordinates.
  • an image (data) of the celestial sphere model MT in which the captured image is attached to the ideal celestial sphere with the lens distortion removed can be obtained.
  • this celestial sphere model MT the unique parameters and distortions of the image pickup apparatus 1 that originally captured the image data iPD are removed, and the range that can be seen by an ideal pinhole camera is pasted on the celestial sphere. Therefore, by rotating the image of the celestial sphere model MT in a predetermined direction in this state, it is possible to realize the shaking removal and the shaking change processing as the shaking effect.
  • the attitude information (quarterion QD) of the image pickup apparatus 1 is used for the shaking change processing.
  • the CPU 71 performs synchronous processing in step ST14.
  • a process of identifying and acquiring a suitable quarternion QD (#LN) for each line corresponding to the frame number FN is performed. Note that "(#LN)" indicates a line number in the frame, and indicates that the information corresponds to that line.
  • the reason why the quarternion QD (#LN) for each line is used is that when the image sensor 12a is a CMOS type and the imaging is performed by the rolling shutter method, the amount of shaking differs for each line.
  • a frame-by-frame quarterion QD (#FN) may be used.
  • the center of gravity shifts when an electronic shutter (similar to a mechanical shutter) is used, so the center of the exposure period of the frame (shifts according to the shutter speed of the electronic shutter). ) Timing quotation should be used.
  • FIG. 12 shows the synchronization signal cV of the image pickup apparatus 1 during the vertical period, the synchronization signal sV of the image sensor 12a generated from the synchronization signal cV, and the sample timing of the IMU data, and also shows the exposure timing range 120.
  • the exposure timing range is a parallelogram schematically showing the exposure period of each line of one frame when the exposure time is t4 by the rolling shutter method.
  • the temporal offset t0 of the synchronization signal cV and the synchronization signal sV, the IMU sample timing offset t1, the read start timing t2, the read time (curtain speed) t3, and the exposure time t4 are shown.
  • the read start timing t2 is the timing after a predetermined time t2of has passed from the synchronization signal sV.
  • Each IMU data obtained at each IMU sample timing is associated with a frame.
  • the IMU data in the period FH1 is the metadata associated with the current frame indicating the exposure period in a parallelogram
  • the IMU data in the period FH1 is the metadata associated with the next frame.
  • the IMU data in the period FH1 is the metadata associated with the next frame.
  • the association between each frame and the IMU data is released, and the IMU data can be managed in chronological order.
  • the IMU data corresponding to the exposure center of gravity (timing of the broken line W) of each line of the current frame is specified. This can be calculated if the temporal relationship between the IMU data and the effective pixel area of the image sensor 12a is known.
  • the IMU data corresponding to the exposure center of gravity (timing of the broken line W) of each line is specified by using the information that can be acquired as the timing information TM corresponding to the frame (#FN). That is, it is information on the exposure time, the exposure start timing, the readout time, the number of exposure frames, the IMU sample offset, and the frame rate. Then, the quaternion QD calculated from the IMU data of the exposure center of gravity is specified and used as the quaternion QD (#LN) which is the attitude information for each line.
  • This quarternion QD (#LN) is provided for the process of adjusting the shaking information in step ST15.
  • the CPU 71 adjusts the quaternion QD according to the input shaking change parameter PRM.
  • the swing change parameter PRM may be a parameter input according to a user operation or a parameter generated by automatic control.
  • the user can input the shake change parameter PRM so as to add an arbitrary degree of shake to the image.
  • the CPU 71 can generate the shake change parameter PRM by automatic control according to the image analysis, the image type, the user's shake model selection operation, and the like.
  • step ST15 the CPU 71 generates an adjusted quaternion eQD for adding sway to the image or increasing or decreasing the amount of sway based on the quaternion QD which is the sway information at the time of imaging.
  • FIG. 13 shows an example in which the adjusted quarternion eQD is generated according to the instruction of the gain for each frequency band by the fluctuation change parameter PRM.
  • the frequency band is a band of fluctuation frequencies.
  • the band is divided into three bands: low band, middle band, and high band.
  • the number of bands may be 2 or more.
  • the low-frequency gain LG, the mid-frequency gain MG, and the high-frequency gain HG are given as the swing change parameter PRM.
  • the adjustment processing system of FIG. 13 includes a low-pass filter 41, a mid-pass filter 42, a high-pass filter 43, gain calculation units 44, 45, 46, and a synthesis unit 47.
  • “Quartanion QDs for shaking” are input to this adjustment processing system. This is the conjugation of the quaternion QD as shaking information during imaging.
  • Each value q for the current frame as the quaternion QDs for shaking and the predetermined frames before and after is input to the low-pass filter 41, and the low-pass component q low is obtained.
  • the gain calculation unit 44 gives a low-frequency gain LG to the low-frequency component q low .
  • mean (q, n) in the equation indicates the average value of n before and after q.
  • the value q of the quarternion QDs for shaking is input to the mid-range passing filter 42, and the mid-range component q mid is obtained.
  • q * low is a conjugate of q low .
  • x is the quaternion product.
  • the gain calculation unit 45 gives the mid-range gain MG to the mid- range component q mid .
  • the value q of the quarternion QDs for shaking is input to the high frequency passing filter 43, and the high frequency component q high is obtained.
  • q * mid is a conjugate of q mid .
  • the gain calculation unit 46 gives a high-frequency gain HG to the high-frequency component q high .
  • FIG. 14 shows an example in which the adjusted quarternion eQD is generated according to the direction-specific gain instruction by the swing change parameter PRM.
  • the direction is the direction of sway, that is, the direction of yaw, pitch, and roll.
  • the yaw gain YG, the pitch gain PG, and the roll gain RG are given as the swing change parameter PRM.
  • the adjustment processing system of FIG. 14 includes a yaw component extraction unit 51, a pitch component extraction unit 52, a roll component extraction unit 53, a gain calculation unit 54, 55, 56, and a synthesis unit 57.
  • Information on the yaw axis (Yaw axis), the pitch axis (Pitch axis), and the roll axis (Roll axis) is provided to the yaw component extraction unit 51, the pitch component extraction unit 52, and the roll component extraction unit 53, respectively.
  • Each value q for the current frame as the quarternion QDs for shaking and the predetermined frames before and after is input to the yaw component extraction unit 51, the pitch component extraction unit 52, and the roll component extraction unit 53, respectively, and the yaw component q yaw and the pitch component q are input.
  • Find pitch and roll component q roll is input. In each of these component extraction processes, the input is the following “q in ”.
  • u is a unit vector representing the direction of axes such as the yaw axis, the pitch axis, and the roll axis.
  • the yaw component q yaw , pitch component q pitch , and roll component q roll obtained by such component extraction are obtained by the gain calculation units 54, 55, and 56, respectively, for yaw gain YG, pitch gain PG, and roll. Gives a gain RG. Then, the value q mixed obtained by synthesizing the yaw component q yaw , the pitch component q pitch , and the roll component q roll subjected to the gain calculation by the synthesis unit 47 is obtained.
  • FIG. 15 is an example in which the above frequency bands and directions are combined.
  • the adjustment processing system includes a low-pass filter 41, a mid-pass filter 42, a high-pass filter 43, direction-specific processing units 58, 59, 60, a gain calculation unit 44, 45, 46, and a synthesis unit 61.
  • a low-frequency gain LG, a mid-frequency gain MG, a high-frequency gain HG, and a yaw gain YG, a pitch gain PG, and a roll gain RG (not shown) are given.
  • each value q for the current frame as the quaternion QDs for shaking and the predetermined frames before and after is supplied to the low-pass filter 41, the mid-pass filter 42, and the high-pass filter 43 to supply each band.
  • Each band component is input to the direction-specific processing units 58, 59, 60.
  • Each of the direction-specific processing units 58, 59, 60 has a yaw component extraction unit 51, a pitch component extraction unit 52, a roll component extraction unit 53, a gain calculation unit 54, 55, 56, and a synthesis unit 57 in FIG. To do.
  • the direction-specific processing unit 58 divides the low-frequency components of the quaternion QDs for shaking into the yaw direction, roll direction, and pitch direction components, and divides the yaw gain YG, the pitch gain PG, and the roll gain RG. After performing the gain calculation using it, it is synthesized.
  • the direction-specific processing unit 59 divides the mid-range components of the quarternion QDs for shaking into the components in the yaw direction, the roll direction, and the pitch direction, performs the same gain calculation, and then synthesizes the components.
  • the direction-specific processing unit 60 divides the high-frequency components of the quaternion QDs for shaking into components in the yaw direction, roll direction, and pitch direction, performs gain calculation in the same manner, and then synthesizes the components.
  • the outputs of these direction-specific processing units 58, 59, and 60 are supplied to the gain calculation units 44, 45, and 46, respectively, and the low-frequency gain LG, the mid-frequency gain MG, and the high-frequency gain HG are given, respectively. Then, it is synthesized by the synthesis unit 61 and output as a value of the adjusted quarternion eQD.
  • processing for each direction is applied for each band component, but the reverse is also possible. That is, after dividing by direction first, processing for each frequency band may be applied for each direction component.
  • step ST15 of FIG. 10 for example, the adjusted quarternion eQD is generated by the above processing example. Then, the generated adjusted quarternion eQD is provided for the shaking change processing in step ST16.
  • the shaking change in step ST16 can be considered to add shaking by applying, for example, the adjusted quarternion eQD obtained by the processes of FIGS. 13, 14, and 15 to the image in the state where the shaking has stopped.
  • the CPU 71 adds shaking by rotating the image of the celestial sphere model MT to which the frame image is pasted in step ST13 using the quaternion eQD (#LN) after adjusting for each line. To do so.
  • the image of the celestial sphere model hMT whose shaking has been changed is sent to the process of step ST18.
  • step ST18 the CPU 71 projects the image of the celestial sphere model hMT whose shaking has been changed onto a plane and cuts it out to obtain an image (output image data oPD) whose shaking has been changed.
  • the sway change is realized by the rotation of the celestial sphere model MT, and by using the celestial sphere model MT, the trapezoidal shape is not formed no matter where it is cut out, and as a result, the trapezoidal distortion is also eliminated.
  • the celestial sphere model MT has no lens distortion because the range that can be seen by an ideal pinhole camera is pasted on the celestial sphere.
  • the focal plane distortion correction is also eliminated by rotating the celestial sphere model MT according to the adjusted quaternion eQD (#LN) based on the quaternion QD (#LN) for each line. Furthermore, since the quarternion QD (#LN) corresponds to the exposure center of gravity of each line, the blur is inconspicuous in the image.
  • FIG. 16A shows an example of a rectangular coordinate plane 131 projected in a plane. Let (x, y) be each coordinate of the image projected on the plane.
  • the coordinate plane 131 is arranged (normalized) in the three-dimensional space so as to be in contact with the celestial sphere model MT in the center. That is, the center of the coordinate plane 131 is arranged at a position that coincides with the center of the celestial sphere model MT and is in contact with the celestial sphere model MT.
  • the coordinates are normalized based on the zoom magnification and the size of the cutout area. For example, when the horizontal coordinates of the coordinate plane 131 are 0 to outh and the vertical coordinates are 0 to outv as shown in FIG. 16A, outh and outv are the image sizes. Then, for example, the coordinates are normalized by the following equation.
  • min (A, B) is a function that returns the smaller value of A and B.
  • "zoom” is a parameter for controlling scaling.
  • xnorm, ynorm, and znorm are normalized x, y, and z coordinates. According to each of the above equations (Equation 10), the coordinates of the coordinate plane 131 are normalized to the coordinates on the spherical surface of the hemisphere having a radius of 1.0.
  • the coordinate plane 131 is rotated by rotation matrix calculation for the rotation for obtaining the direction of the cutout region. That is, the following rotation matrix (Equation 11) is used to rotate the pan angle, tilt angle, and roll angle.
  • the pan angle is a rotation angle that rotates the coordinates around the z-axis.
  • the tilt angle is a rotation angle for rotating the coordinates around the x-axis, and the roll angle is a rotation angle for rotating the coordinates around the y-axis.
  • These coordinates are used to calculate the celestial sphere corresponding points in perspective projection.
  • the coordinate plane 131 is perspectively projected onto the surface of the celestial sphere (region 132). That is, when a straight line is drawn from the coordinates toward the center of the celestial sphere, the point that intersects the sphere is found.
  • Each coordinate is calculated as follows.
  • xsph, ysph, and zsph are coordinates obtained by projecting the coordinates on the coordinate plane 131 onto the coordinates on the surface of the celestial sphere model MT. Image data projected in a plane can be obtained in this relationship.
  • the cutout area for the image projected on the plane by the above method is set in step ST17 of FIG.
  • the cutout area information CRC in the current frame is set based on the tracking process by image analysis (subject recognition) and the cutout area instruction information CRC according to the user operation.
  • FIGS. 18A and 18B show the cutout area information CRA set for the image of a certain frame in the state of the frame.
  • Such a cutout area instruction information CRC is set for each frame.
  • the cutout area information CRA also reflects the instruction of the aspect ratio of the image by the user or automatic control.
  • the cutout area information CRA is reflected in the process of step ST18. That is, as described above, the region corresponding to the cutout region information CRA is projected on the celestial sphere model MT in a plane to obtain the output image oPD.
  • the output image oPD obtained in this way is the image data subjected to the shaking change processing in step ST16.
  • the image to which the shaking is added is displayed as the shaking effect. Therefore, when the user performs an operation for inputting the shaking change parameter PRM, the image is provided with a shaking effect according to the user's intention.
  • image data is displayed or saved as an image in which shaking is produced.
  • association recording / reproduction is performed as step ST20.
  • the CPU 71 can perform association recording (for example, recording in the storage unit 79 or the removable recording medium 81 of FIG. 5) for each frame, and can reproduce / transfer and output them when necessary.
  • the shaking information at the time of imaging and the shaking change information SMI are associated and recorded with respect to the image data of each frame.
  • the CPU 71 performs recording processing of the image data iPD in which the internal correction of the imaging device is canceled in step ST12. That is, it is image data in which the shake removal by the image pickup apparatus 1 is canceled and the influence of the shake such as camera shake at the time of imaging appears as it is.
  • FIG. 19 shows the metadata MTD1 supplied from the image source VS to the image processing device TDx and the metadata MTD2 supplied by the image processing device TDx to the image processing device TDy. Information corresponding to the metadata MTD2 is shown. As the shaking information at the time of imaging, it is associated with each frame of the image data iPD.
  • the CPU 71 performs recording processing of the shaking change parameter PRM as the shaking change information SMI associated with the image data iPD.
  • the adjusted quaternion eQD may be recorded in place of the shake change parameter PRM or in conjunction with the shake change parameter PRM.
  • the image data iPD of each frame, the shaking information at the time of imaging (metadata MTD2), and the shaking change information SMI recorded in association with each other in this way are transferred to an external device and made available.
  • FIG. 2 shows that the image data VD2, the metadata MTD2, and the shaking change information SMI are transmitted from the image processing device TDx to the image processing device TDy.
  • the image data VD2 is the image data.
  • the image data is composed of iPD.
  • the metadata MTD2 shows the shaking information at the time of imaging as the content shown in FIG.
  • the shaking change information SMI is information indicating the amount of processing of the shaking effect performed on the image data iPD.
  • FIG. 20 shows a processing example of the image processing apparatus TDy that has acquired such image data VD2, metadata MTD2, and shaking change information SMI. After that, for the same processing as the above-mentioned processing, the same step number is assigned to avoid duplicate explanation of the processing content.
  • FIG. 20 shows, for example, steady-state processing performed by the image processing apparatus TDy.
  • the association recording / reproduction processing in step ST20 it is assumed that the information transmitted from the image processing device TDx is reproduced. That is, the association recording / reproduction processing in step ST20 means that, for example, the information (image data VD2, metadata MTD2, shaking change information SMI) transmitted from the image processing device TDx functions as the image processing device TDy. It is assumed that the data is recorded in the storage unit 79 of the processing device 70 or the removable recording medium 81, and the processing is sequentially read from them.
  • the CPU 71 of the information processing device 70 that functions as the image processing device TDy reads out the image data pPD for each frame as the process of step ST20.
  • the image data pPD refers to the image data reproduced from the recording medium in step ST20.
  • the image data pPD to be reproduced is the image data iPD described with reference to FIG.
  • the CPU 71 reads out the camera parameter CP corresponding to the image data pPD of the current playback frame for pasting on the celestial sphere model MT in step ST13.
  • step ST20 the CPU 71 reads out the quarternion QD and the timing information TM corresponding to the image data pPD of the current reproduction frame for the synchronization process of step ST14. Further, as the process of step ST20, the CPU 71 reads out the shake change information SMI corresponding to the image data pPD of the current playback frame in order to adjust the shake information in step ST15.
  • the CPU 71 pastes the reproduced image data pPD with reference to the reproduced camera parameter CP to the celestial sphere model.
  • step ST14 the CPU 71 performs a synchronous process by the quarternion QD and the timing information TM corresponding to the reproduced image data pPD.
  • step ST15 the CPU 71 adjusts the quaternion QD using the reproduced sway change information SMI and the input sway change parameter PRM, and generates the adjusted quaternion eQD.
  • the CPU 71 uses the adjusted quaternion eQD to rotate the image data pPD attached to the celestial sphere model MT to perform the shake change process.
  • the CPU 71 cuts out the shake-changed image according to the cutout area information CRA, projects it on a plane, generates output image data oPD, and outputs it.
  • the image processing device TDy that performs each of these processes enables the following operations.
  • the adjusted quarternion eQD can be generated by reflecting the shaking change information SMI (for example, the shaking change parameter PRM) in the image processing device TDx. Therefore, in step ST16, the CPU 71 of the image processing device TDy can perform the same shaking change processing as the shaking change performed by the image processing device TDx in the past, and obtains and displays such output image data oPD. It can be recorded.
  • SMI shaking change information
  • PRM the shaking change parameter PRM
  • the image data pPD (image data iPD) to be reproduced as a processing target is image data in which the shaking is not changed by the image processing device TDx. Therefore, in the image processing device TDy, the shake change parameter PRM is input by user operation or automatic control, and the adjusted quarternion eQD is generated accordingly. Therefore, in step ST16, the image processing is not affected by the past shake change. It is possible to perform the shaking change processing of only the device TDy, and it is possible to display or record an image by such output image data oPD.
  • the shaking change information SMI for example, the shaking change parameter PRM
  • the adjusted quaternion eQD can be generated by reflecting both the shake change parameter PRM. Therefore, in the CPU 71 of the image processing device TDy, for example, the user of the image processing device TDy adjusts or partially changes the shaking change parameter PRM for the shaking condition of the image due to the shaking change performed by the image processing device TDx. It can be changed accordingly. Then, an image obtained by such output image data oPD can be displayed or recorded.
  • FIG. 21 shows the update of the shaking change information SMI.
  • the CPU 71 shows a process of updating the shaking change information SMI as an association recording / reproduction process in step ST20 of FIG.
  • the shaking change information SMI associated with the image data VD2 (iPD) of each frame and the shaking information (metadata MTD2) at the time of imaging is updated to the shaking change information SMI used this time.
  • the other image processing apparatus that has acquired the associated information group can reproduce or correct the shaking change made by the image processing apparatus TDy.
  • the cutout area information CRA in step ST17 in association with each other.
  • the aspect ratio information is associated.
  • the aspect ratio designation information can also be reflected during subsequent image reproduction or when adding a shaking effect.
  • the cutout area information CRA such as the aspect ratio may be recorded even in the processing by the image processing apparatus TDx of FIG.
  • Second Embodiment> A processing example of the information processing device 70 serving as the image processing devices TDx and TDy as the second embodiment will be described.
  • the image data VD1 that has not been shake-removed by the image source VS (for example, the image pickup apparatus 1) is supplied to the image processing apparatus TDx. Therefore, as shown in FIG. 2, the metadata MTD1 supplied from the image source VS to the image processing apparatus TDx is shown in FIG.
  • the metadata MTD1 shown in FIG. 22 includes IMU data, timing information TM, and camera parameter CP. However, since the shake removal (for example, camera shake correction) is not performed, the coordinate conversion parameter HP (see FIG. 8) is not included.
  • FIG. 23 shows the procedures of various processes executed in the information processing device 70 as the image processing device TDx as in FIG. 10, and shows the relationship of the information used in each process.
  • the same step numbers are assigned to the above-described processes, and the description thereof will be omitted.
  • the process of FIG. 23 is basically the same as that of FIG. 10, but the process of canceling the internal correction of the image pickup apparatus (step ST12 of FIG. 10) is not performed in the process of FIG. This is because the image pickup apparatus 1 does not remove the shaking. Then, the image data recorded in the association recording / reproduction process in step ST20 becomes the image data PD extracted in step ST11.
  • the image data PD for each frame is stored in association with the shaking information at the time of imaging and the shaking change information SMI.
  • the CPU 71 performs recording processing of the quarterion QD, the timing information TM, and the camera parameter CP for the frame as the image shake information associated with the image data PD.
  • the metadata MTD2 in FIG. 22 is the content of the shaking information at the time of imaging.
  • the CPU 71 performs recording processing of the shaking change parameter PRM as the shaking change information SMI associated with the image data PD.
  • the adjusted quaternion eQD may be recorded in place of the shake change parameter PRM or in conjunction with the shake change parameter PRM.
  • the image data PD of each frame, the shaking information at the time of imaging, and the shaking change information SMI recorded in association with each other in this way are transferred to an external device and made available.
  • FIG. 2 shows that the image data VD2, the metadata MTD2, and the shaking change information SMI are transmitted from the image processing device TDx to the image processing device TDy.
  • the image data VD2 is the image data.
  • the image data is composed of PD.
  • the metadata MTD2 shows the shaking information at the time of imaging as the content shown in FIG.
  • the shaking change information SMI is information indicating the amount of processing of the shaking effect performed on the image data PD.
  • the processing of the image processing apparatus TDy that has acquired the image data VD2, the metadata MTD2, and the shaking change information SMI is performed in the same manner as that described in the first embodiment.
  • FIG. 24 shows the procedure of various processes executed in the information processing apparatus 70 as the image processing apparatus TDx and the relationship of the information used in each process as in FIG. FIG. 24 is an example based on the functional configuration of FIG. 7.
  • the process of step ST16 is performed.
  • steps ST11, ST12, ST13, ST14, ST17, and ST18 can also be considered as the processing of the shaking changing unit 100.
  • the process of step ST15 is performed.
  • the process of step ST20 is performed.
  • step ST20 the image data recorded in the association recording / reproduction processing in step ST20 becomes the image data rPD in which shaking is removed in step ST16. For this reason, in the shaking change processing in step ST16, the shaking effect by the function of the shaking effect unit 100a shown in FIG. 7 and the shaking removal by the function of the shaking removing unit 100b are performed.
  • the process for performing the shaking effect is the same as in FIG. That is, the shaking information is adjusted in step ST15, and the shaking change processing is performed using the adjusted quarternion eQD in step ST16. Then, the image is projected in a plane and cut out in step ST18, and is used as output image data oPD. Therefore, it is possible to display or save the image with the shaking effect.
  • step ST16 shaking removal is performed in step ST16. That is, the celestial sphere model MT is rotated based on the quarternion QD, and the shaking is removed so as to remove the shaking generated at the time of imaging.
  • This image is projected and cut out in a plane in step ST18 to be used as image data rPD, and each frame of this image data rPD is stored in the associated recording / reproduction process.
  • the quotation QD, timing information TM, and camera parameter CP are recorded for each frame. That is, the metadata MTD2 in FIG. 19 is the content of the shaking information at the time of imaging.
  • the CPU 71 performs recording processing of the shaking change parameter PRM as the shaking change information SMI associated with the image data PD.
  • the adjusted quaternion eQD may be recorded in place of the shake change parameter PRM or in conjunction with the shake change parameter PRM.
  • this is a parameter for processing the shaking effect. That is, the shaking change information SMI used for the processing by the function of the shaking effect unit 100a is recorded in association with each frame of the image data rPD whose shaking is removed by the function of the shaking removing unit 100b.
  • the shaking effect processing and the shaking removing process may be performed at the same time, or may be performed at different time points.
  • step ST16 as shown in FIG. 7, the function of the shaking effecting unit 100a and the function of the shaking removing unit 100b simultaneously execute the processing.
  • two celestial sphere model MTs are prepared, and on the other hand, the image is rotated and cut out for the shaking effect based on the adjusted quaternion eQD.
  • a quaternion QD that bypasses the shaking information adjustment process in step ST15 is supplied, and the image is rotated and cut out for the shaking effect.
  • the image data rPD from which the shaking has been removed can be obtained together with the output image data oPD to which the shaking effect has been added. Therefore, the image data rPD is recorded in step ST20 in association with the shaking information at the time of imaging and the shaking change information SMI used for the output image data oPD.
  • the shaking effect processing and the shaking removing process are performed at different times as the shaking change processing in step ST16, first, the processing for the shaking effect is performed in the same manner as in the first embodiment described with reference to FIG. ..
  • the image data rPD from which the shaking has been removed is recorded by the process of step ST20 while the shaking is removed.
  • the quarternion QD that bypasses the shaking information adjustment processing in step ST15 may be supplied.
  • the adjusted quarternion eQD (that is, the actual value) with the gain values of all parameters (for example, gain calculation units 44, 45, 46 and gain calculation units 54, 55, 56) set to "1" in the shaking information adjustment process in step ST15.
  • the original quarternion QD may be obtained.
  • the image data rPD obtained in this way from which the shaking has been removed is recorded in association with the shaking information at the time of imaging and the shaking change information SMI used for the processing of the shaking effect at another time point. It is conceivable to record the shaking change information in advance for each frame when the shaking effect processing is performed, or to separately store the latest shaking change parameter PRM and record the image data rPD. It may be recorded in association with each other.
  • the image data rPD from which the shaking has been removed may be saved in association with the image data (image data in which the shaking removal at the time of imaging has been canceled) iPD or PD before the shaking change processing is performed.
  • the output image data oPD after the shaking change processing may be associated and saved together with the image data rPD from which the shaking has been removed.
  • FIG. 25 shows a processing example of the image data VD2 as the image data rPD from which the shaking has been removed, and the image processing device TDy that has acquired the metadata MTD2 and the shaking change information SMI.
  • the image processing apparatus TDy can perform the same processing as that described in the first embodiment.
  • the shaking change information SMI' (shaking change parameter PRM or adjusted quotation eQD) performed by the image processing apparatus TDy is associated and recorded by the association recording / reproduction processing in step ST20 by the broken line.
  • An example is shown.
  • the image data rPD from which the shaking has been removed, the shaking information at the time of imaging, and the shaking change information SMI related to the shaking effect on the image processing device TDx are already associated, but in addition, the shaking effect on the image processing device TDy is related.
  • the shaking change information SMI' is also recorded in association with it.
  • the processing of the image processing device TDy capable of performing the shaking change processing is used, but some devices to which the image data is supplied from the image processing device TDx do not have the function of performing the shaking change processing. .. Considering such a case, by recording the image data rPD from which the shaking has been removed and supplying it to another device, even a device having no shaking changing function such as shaking removal can shake. It is useful in that it is possible to play a moving image in which is removed.
  • FIG. 26 shows an example in which the image data VD1 that has not been shake-removed by the image source VS (for example, the image pickup apparatus 1) is supplied to the image processing apparatus TDx as in the second embodiment. Therefore, as shown in FIG. 2, the metadata MTD1 supplied from the image source VS to the image processing apparatus TDx is shown in FIG. 27. That is, since the shake removal (for example, camera shake correction) is not performed at the time of imaging, the coordinate conversion parameter HP (see FIG. 8) is not included.
  • the shake removal for example, camera shake correction
  • step ST12 of FIG. 10 the processing of canceling the internal correction of the imaging device (step ST12 of FIG. 10) is not performed. Then, the image data recorded in the association recording / reproduction process in step ST120 becomes the image data PD extracted in step ST11.
  • This fourth embodiment is different from the previous examples in that, in step ST21, a process of converting the quarteronion QD obtained in step ST4 into XY shift / rotation information and holding the information is performed. That is, the quaternion QD, which is the attitude information, is converted into the XY shift / rotation information of the shaking.
  • the X and Y directions are the horizontal and vertical directions of a plane forming a plane orthogonal to the Z direction when the optical axis direction of the image pickup apparatus 1 is the Z direction. That is, it is the horizontal direction and the vertical direction of the image.
  • the rotation information is information on rotation with respect to the yaw axis, rotation with respect to the pitch axis, and rotation with respect to the roll axis.
  • the XY shift / rotation information includes information on the X direction shift, the Y direction shift, the yaw axis rotation, the pitch axis rotation, and the roll axis rotation. For simplicity, any one or more of them may be included, not all of them. In addition, information on the Z-axis shift may be added.
  • the metadata MTD2 transmitted by the image processing device TDx to the image processing device TDy includes the shift / rotation information SFRO as shown in FIG. 27.
  • the application program that uses the celestial sphere model MT requires a relatively large amount of system resources. Therefore, assuming a case where the image processing device TDy, which does not have abundant system resources, performs the shaking change processing, the provision of the quaternion QD may impose a heavy system load. Therefore, instead of the quarternion QD, XY shift / rotation information is provided to the image processing device TDy. As a result, the image processing apparatus TDy can change the shaking with a small processing load. For example, it is suitable when a mobile terminal 2 or the like is assumed as the image processing device TDy.
  • the camera parameter CP is not provided for the associated recording / reproduction process of step ST20. Therefore, as shown in FIG. 27, the metadata MTD2 does not include the camera parameter CP. This is because the camera parameter CP is information used for pasting on the celestial sphere model MT, and is unnecessary when the image processing device TDy is made to execute a process that does not use the celestial sphere model MT.
  • FIG. 28 shows a processing example of the image processing apparatus TDx. This is an example in which the shaking information adjustment processing by the function of the shaking information adjusting unit 101 is performed as step ST30 at the time of preprocessing.
  • step ST30 the CPU 71 adjusts the IMU data based on the shaking adjustment parameter PRM by user operation or automatic control, and obtains the adjusted IMU data eIMU.
  • the data of the angular velocity sensor, yaw, pitch, and roll can be assigned to the direction of swing change as they are.
  • step ST4 the CPU 71 obtains and holds the quarternion QD from the adjusted IMU data eIMU. That is, by making adjustments for the shaking effect on the IMU data before the quaternion QD is required, the quaternion QD obtained from the adjusted IMU data eIMU is already used as the attitude information for the shaking effect. It is something to do.
  • this quarterion QD is used to perform synchronous processing in step ST14 and shaking change processing in step ST16.
  • the output image data oPD becomes an image in which the shaking effect by the shaking change parameter PRM is reflected.
  • the image data iPD in frame units is stored in association with the shaking information at the time of imaging and the shaking change information SMI.
  • the CPU 71 performs recording processing of IMU data, timing information TM, and camera parameter CP for the frame as imaging shake information associated with the image data iPD.
  • the metadata MTD2 in FIG. 29 is the content of the shaking information at the time of imaging.
  • the CPU 71 performs recording processing of the shaking change parameter PRM as the shaking change information SMI associated with the image data PD.
  • the adjusted IMU data eIMU may be recorded instead of the shaking change parameter PRM or together with the shaking change parameter PRM.
  • FIG. 30 shows a processing example of the image processing apparatus TDy that acquired these.
  • the association recording / playback processing in step ST20 in FIG. 30 is a diagram in which, for example, information (image data VD2, metadata MTD2, shaking change information SMI) transmitted from the image processing device TDx functions as the image processing device TDy. It is assumed that the process is recorded in the storage unit 79 of the information processing device 70 of 5 and the removable recording medium 81, and is sequentially read from them.
  • the shaking information adjustment in step ST30 and the conversion / holding of step ST4 to the quarternion QD are performed.
  • the CPU 71 of the image processing device TDy reads out the shake change information SMI of each frame of the image, that is, the IMU data, in order to adjust the shake information in step ST30 as the process of step ST20.
  • the PU 71 reads out the shaking change information SMI that can be used for adjusting the shaking information in step ST30.
  • the reproduced IMU data is adjusted based on the shaking change parameter PRM input in step ST30 in this image processing unit TDy, and is used as the adjusted IMU data eIMU.
  • the reproduced IMU data may be adjusted based on the fluctuation change information SMI so as to be adjusted IMU data eIMU.
  • step ST4 the CPU 71 converts the adjusted IMU data eIMU into a quarterion QD and holds it.
  • the quarternion QD for the shaking effect is already prepared.
  • the above steps ST30 and ST4 may be performed in parallel during the steady-state processing.
  • the CPU 71 of the information processing device 70 that functions as the image processing device TDy reads out the image data pPD for each frame as the process of step ST20.
  • the image data pPD to be reproduced becomes the image data iPD.
  • the CPU 71 reads out the camera parameter CP corresponding to the image data pPD of the current playback frame for pasting on the celestial sphere model MT in step ST13.
  • the CPU 71 reads out the timing information TM corresponding to the image data pPD of the current playback frame for the synchronization process of step ST14.
  • the CPU 71 attaches the reproduced image data pPD with reference to the reproduced camera parameter CP to the celestial sphere model.
  • the CPU 71 performs a synchronous process by the quarternion QD and the timing information TM corresponding to the reproduced image data pPD.
  • the CPU 71 uses the quaternion QD to rotate the image data pPD attached to the celestial sphere model MT to perform the shake change process.
  • the CPU 71 cuts out the shake-changed image according to the cutout area information CRA, projects it on a plane, generates output image data oPD, and outputs it.
  • the image processing apparatus TDy that performs each of these processes also has a processing method different from that of the first embodiment, but can perform substantially the same operation as the following first embodiment.
  • the adjusted IMU data eIMU can be generated by reflecting the shaking change information SMI (for example, the shaking change parameter PRM) in the image processing device TDx. Therefore, the quarternion QD obtained in step ST4 becomes information for performing the same shaking change processing as the shaking change performed by the image processing device TDx in the past, and the CPU 71 of the image processing device TDy has the same shaking effect as the image processing device TDx.
  • the output image data oPD that has been subjected to the above can be obtained and displayed or recorded.
  • the image data pPD (image data iPD) to be reproduced as a processing target is image data in which the shaking is not changed by the image processing device TDx. Therefore, in the image processing device TDy, the shake change parameter PRM is input by user operation or automatic control, the adjusted IMU data eIMU is generated accordingly, and the quarterion QD is further generated. Therefore, in step ST16, the past shake It is possible to perform the shaking change processing only for the image processing device TDy that is not affected by the change, and it is possible to display or record the image by such output image data oPD.
  • the shaking change information SMI (for example, the shaking change parameter PRM) of the image processing device TDx is newly input by user operation or automatic control.
  • the adjusted IMU data eIMU can be generated by reflecting both of the shaking change parameters PRM, and the quarternion QD can be further generated. Therefore, in the CPU 71 of the image processing device TDy, for example, the user of the image processing device TDy adjusts or partially changes the shaking change parameter PRM for the shaking condition of the image due to the shaking change performed by the image processing device TDx. It can be changed accordingly. It is possible to display or record an image obtained by such output image data oPD.
  • the shaking change information SMI associated with the image data VD2 (iPD) of each frame and the shaking information (metadata MTD2) at the time of imaging is updated or added to the shaking change information SMI used this time.
  • the shaking change information SMI used this time is the shaking change parameter PRM used in step ST30, or the adjusted IMU data eIMU.
  • the image processing device TDx of the embodiment includes a shaking information adjusting unit 101 (steps ST15, ST30) that adjusts shaking information at the time of imaging of image data (input image data) constituting a moving image and generates shaking information after adjustment. ing. Further, the image processing device TDx includes a shake changing unit 100 (step ST16) that performs a shake change process for changing the shake state of the image data using the adjusted shake information. Further, the image processing device TDx includes an association unit 102 (step ST20) that performs a process of associating the image data with the shake information at the time of imaging and the shake change information SMI that can specify the processing amount of the shake change process.
  • Image data VD2 (PD, iPD, rPD, etc.), shaking information during imaging (quarterion QD, IMU data, shift / rotation data SFRO, etc. in each embodiment), and shaking change information SMI (adjustment in each embodiment).
  • the image processing device TDy By associating the post-quartanion eQD, the adjusted IMU data eIMU, etc.), for example, in the image processing device TDy, it is possible to grasp what kind of shaking change is performed by the shaking change processing in the image processing device TDx. Then, in the image processing device TDy, for example, it is possible to redo the shaking change processing as the shaking effect, adjust the shaking condition of the shaking effect already applied, cancel the shaking effect, and the like. Further, in the image processing device TDy, it is also possible to cancel the shaking effect applied by the image processing device TDx and then perform the shaking removal. That is, the shaking state can be arbitrarily and variously changed by each image processing device.
  • the image data, the shaking information at the time of imaging, and the shaking change information SMI associated with each other are recorded in the same file, for example.
  • a file including image data (and audio data) and metadata that compose a moving image, and shaking change information SMI is constructed.
  • the shaking information at the time of imaging and the shaking change information SMI can be included as metadata accompanying the image data.
  • the shaking information and the shaking change information SMI at the time of imaging may be a data file different from the image data, but may be in a form that can be later associated with each frame of the image data. That is, regardless of the recording form, it suffices as long as it can be acquired in a state in which these are associated with each other in the image processing device TDy to which the image has been transmitted.
  • the quarternion QD the IMU data
  • the shift / rotation data SFRO have been mentioned. Conceivable.
  • the shaking changing unit 100 gives an example of performing a shaking changing process for adding a shaking effect to an image based on the adjusted shaking information.
  • the user performs an operation such as instructing the amount of shaking as the shaking effect, the shaking effect adjustment value PRM is input accordingly, and the quarternion QD is adjusted, so that the adjusted quarternion eQD is used.
  • the shaking change process as a shaking effect is performed. In the case of the present embodiment, such a shaking effect can be inherited or further changed by another image processing device TDy.
  • the association unit 102 associates the input image data with the shaking information at the time of imaging and the shaking change information. That is, it is assumed that the image associated with the shaking information and the shaking change information SMI at the time of imaging by the association unit 102 is an image before the shaking change processing is performed.
  • the image data that has not been subjected to the shaking change processing is, for example, image data in a state in which the shaking removal such as camera shake correction in the image pickup apparatus 1 is canceled.
  • the image data PD input in a state where the image pickup device 1 does not perform image stabilization such as camera shake correction as shown in FIG. 23, and the image pickup device 1 as shown in FIGS. 10 and 28.
  • Image data iPD that has been shake-removed as camera shake correction, etc., but whose shake removal has been canceled by the image stabilization internal correction cancellation process in step ST12, and is not subject to shake change processing in step ST16.
  • the image processing device uses the shaking information SI at the time of imaging and the shaking change information SMI (for example, the adjusted quotation eQD) for the image data. It is possible to reproduce the shaking effect applied by TDx, and to adjust the shaking condition of the shaking effect.
  • the shaking changing unit 100 gives an example of performing a shaking changing process for removing the shaking of the image based on the shaking information at the time of imaging.
  • performing the shake change processing based on the quarteron QD before adjustment instead of the quarteron eQD after adjustment corresponds to performing the shake removal (see FIGS. 24 and 26).
  • This makes it suitable for obtaining an image without shaking (or with reduced shaking).
  • the image associated with the shaking information and the shaking change information at the time of imaging by the association unit 102 is an image subjected to the shaking removing process.
  • the image data from which the shaking has been removed is, for example, image data in which the shaking generated in the image due to the movement during imaging by the image pickup apparatus 1 is removed. In the embodiment, this corresponds to the image data rPD in which the shaking is removed by the shaking changing process in step ST16 as shown in FIGS. 24 and 26.
  • image data is associated with shaking information at the time of imaging and shaking change information SMI, so that, for example, the image processing device TDy can cancel the shaking removal of the image data, or the image processing device TDx can perform the image data. It is possible to reproduce the swaying effect and adjust the swaying condition of the swaying effect.
  • the shaking changing unit 100 cancels the shaking removing process performed at the time of imaging by using the metadata associated with the image data for the image data.
  • the shaking change processing was performed.
  • the shake change process is performed on the image data iPD for which the internal correction cancellation of the image pickup apparatus has been performed.
  • step ST12 the correction is canceled by using the coordinate conversion parameter HP in the metadata.
  • the coordinate conversion parameter HP is information when changing the image frame (range of the image including the angle of view) of the captured image, such as lens distortion, trapezoidal distortion, focal plane distortion, electronic image stabilization, and optical image stabilization. Is.
  • lens distortion trapezoidal distortion
  • focal plane distortion focal plane distortion
  • electronic image stabilization and optical image stabilization.
  • the image data associated with the shaking information and the shaking change information at the time of imaging by the association unit 102 is the input image data in a state where the shaking removing processing at the time of imaging is not performed. And said.
  • the input image data in the state where the shake removal at the time of imaging is not performed is, for example, the image data in the state where the shake removal such as the camera shake correction in the image pickup apparatus 1 is canceled, or the shake such as the camera shake correction in the image pickup device 1. This is image data that has not been removed.
  • the image processing device TDy By storing such image data, for example, in the image processing device TDy, it is not necessary to cancel the shaking removal performed by the image pickup device 1. Then, in the image processing device TDy, it is possible to perform more accurate shaking removal by using the shaking information at the time of imaging (for example, quaternion QD) for the image data.
  • the image processing device TDy it is possible to reproduce the shaking effect applied by the image processing device TDx by using the shaking information at the time of imaging and the shaking change information SMI (for example, adjusted quarternion eQD) for the image data. Or, you can adjust the degree of shaking of the shaking effect.
  • SMI for example, adjusted quarternion eQD
  • the shaking information at the time of imaging associated with the image data and the shaking change information by the association unit 102 is the posture information of the imaging device 1 at the time of imaging. That is, the quarternion QD as the attitude information obtained from the IMU data is used as the shaking information at the time of imaging. As a result, information that appropriately expresses the shaking during imaging can be sent to the image processing device TDy.
  • the shaking information at the time of imaging associated with the image data and the shaking change information by the association unit 102 is the shift / rotation information SFRO indicating the movement of the imaging device 1 at the time of imaging.
  • An application program that changes shaking using a quaternion QD and a celestial sphere model MT consumes a relatively large amount of system resources. Therefore, assuming a device with few system resources as the image processing device TDy, it is preferable to convert the quarteronion QD into shift / rotation information SFRO and provide it so that the shaking change can be easily executed.
  • the shift / rotation data SFRO may be stored together with the quarternion QD so that it can be provided to other devices.
  • IMU data also exists as the shaking information at the time of imaging. Therefore, for IMU data, shift / rotation data SFRO, and quarternion QD, any one of them may be stored as shaking information at the time of imaging, or any two of them may be stored as shaking information at the time of imaging, and all of them. It may be stored as shaking information at the time of imaging including. Of course, information other than the above may be used as shaking information during imaging.
  • the shaking information adjusting unit 101 adjusts for adding the shaking amount specified by the shaking change parameter PRM based on the shaking change parameter PRM that specifies the shaking information at the time of imaging and the shaking change processing amount.
  • An example of generating backswing information was given. For example, when a shaking effect is performed by the image processing device TDx, the quaternion QD is adjusted by the shaking change parameter PRM, and the shaking effect is performed by the adjusted quaternion eQD. By introducing such a shaking change parameter PRM, it is possible to realize a shaking change with an arbitrary amount of shaking.
  • the shaking change information SMI associated with the image data and the shaking information at the time of imaging is set to the shaking change parameter PRM by the association unit 102.
  • the image processing device TDy that has acquired the shaking change parameter PRM at that time can specify the processing amount of the shaking effect performed by the image processing device TDx. Therefore, in the image processing device TDy, it becomes possible to arbitrarily readjust the shaking of the image by adjusting or canceling the shaking effect performed by the image processing device TDx.
  • the shaking change parameter PRM is assumed to be, for example, a parameter specified by a user operation.
  • the image processing device TDy that has acquired the shaking change parameter PRM at that time is performed by the image processing device TDx. It is possible to confirm the state of the user instruction as the shaking effect. Therefore, after confirming the settings of the user on the image processing device TDx side, the user on the image processing device TDy side can arbitrarily adjust the shaking.
  • the shake change information SMI associated with the image data and the shake information at the time of imaging by the association unit 102 is the adjusted shake information.
  • the quaternion QD is adjusted by the shaking change parameter PRM, and the shaking effect is performed by the adjusted quaternion eQD.
  • the adjusted quaternion eQD may be stored as the sway change information SMI in association with the quaternion QD which is the sway information SI at the time of imaging.
  • the processing amount of the shaking effect performed by the image processing apparatus TDx can be specified by the quaternion QD and the adjusted quaternion eQD. Therefore, in the image processing device TDy, it becomes possible to arbitrarily readjust the shaking of the image by adjusting or canceling the shaking effect performed by the image processing device TDx.
  • the shaking change parameter PRM and the adjusted quarternion eQD are mentioned, but both of them may be stored.
  • the adjusted IMU data eIMU is mentioned, but both the adjusted IMU data eIMU and the shaking change parameter PRM may be stored as the shaking change information SMI.
  • the shaking information adjusting unit 101 performs gain processing based on the shaking change parameter PRM for each shaking frequency band with respect to the shaking information for adding shaking based on the shaking information during imaging (for example, quarternions QDs for shaking).
  • An example of generating the adjusted shaking information is given.
  • the shaking information adjusting unit 101 performs gain processing based on the shaking change parameter for each shaking direction with respect to the shaking information for adding shaking based on the shaking information at the time of imaging (for example, quarternions QDs for shaking).
  • gain processing is performed for each direction of shaking (yaw, pitch, roll), and by mixing, an adjusted quotation eQD in which the amount of shaking is adjusted for each direction of shaking can be generated. it can. By doing so, it is possible to make various adjustments for each direction of shaking to produce various shaking effects. For example, it is possible to easily produce a shaking effect such as adding vertical shaking but not horizontal shaking.
  • the shaking information during imaging adjusted by the shaking information adjusting unit 101 is posture information corresponding to each frame obtained based on the metadata generated at the time of imaging the image data to be processed, and is adjusted.
  • the later attitude information will be used for the shaking change process. That is, the quaternion QD as the posture information obtained from the IMU data is used as the sway information at the time of imaging, and the sway change processing is performed using the adjusted sway information (adjusted quaternion eQD). As a result, it is possible to appropriately change the shaking using the celestial sphere model MT.
  • the shaking change unit 100 attaches each frame of the input image data to be processed to the celestial sphere model MT, and rotates the frame using the adjusted posture information which is the adjusted shaking information corresponding to each frame.
  • the shaking change processing is performed by rotating the image of each frame on the celestial sphere model MT using the adjusted quaternion eQD.
  • the output image data oPD can also be generated by cutting out an image of a region specified by the cutout area information CRA in a state where the celestial sphere model MT has been corrected for shaking and projecting it in a plane.
  • the shaking change processing for the shaking effect and the shaking removal is performed without using the celestial sphere model MT.
  • an example can be considered in which the cutout area is changed for each frame.
  • the image processing device TDx extracts and stores the metadata corresponding to each frame of the image data for the image file MF including the image data VD1 constituting the moving image and the metadata MTD1 corresponding to the moving image. did. That is, when the image file MF as a moving image is targeted for image processing, the metadata for each frame is stored (step ST3). As a result, the metadata for each frame can be used in the shaking change processing.
  • the posture information (quarterion QD (LN)) acquired based on the timing of the exposure center of gravity for each line is used for each frame of the image data.
  • the relative shaking of the subject and the image pickup device during the exposure period causes so-called blurring, which becomes more noticeable as the exposure time increases depending on the shutter speed.
  • the posture information of the exposure start timing of each line is used, the relative shaking within the exposure period of each line becomes a shaking in one direction in view of the posture information, and becomes more noticeable on the image.
  • the attitude information is acquired based on the IMU data of the position of the center of gravity within the exposure period of each line as shown in FIG. 12, the relative shaking during the exposure period is the bidirectional shaking when viewed from the state of the posture information. And visually, it seems to be offset in the time direction, which makes the blur less noticeable in the image.
  • the image processing device TDy Adjustment with the shaking information adjustment unit 101 that generates shaking information after adjustment using the shaking information at the time of imaging associated with the image data constituting the moving image and the shaking change information SMI that can specify the processing amount of the shaking change processing. It is provided with a shaking changing unit 100 that performs a shaking changing process for changing the shaking state of image data using the back shaking information. That is, the image processing device TDy can execute the secondary shaking change processing when the image data, the shaking information at the time of imaging, and the information in which the shaking change information SMI is associated with each other are provided. In the image processing device TDy, it is possible to cancel the shaking change made by the image processing device TDx and adjust the amount of shaking. In other words, an environment is prepared in which the image that has already undergone the primary shaking change can be further freely adjusted and changed.
  • the shaking changing unit 100 may be any one that performs at least the processing of step ST16 as shown in FIG. 10, and some or all of steps ST11, ST12, ST13, and ST14 are shaken. It may be performed outside the function of the changing unit 100 (for example, a device different from the image processing device having the shaking changing unit 100). It is also conceivable that the RAW image data is targeted for image processing.
  • the content of the shaking effect processing (the amount of shaking of the shaking effect, the degree of shaking, etc.) may be switched depending on the case.
  • the shaking effect and the shaking removal may be switched depending on the case.
  • the shaking change it is conceivable to switch automatically based on the metadata MTD1. It is also conceivable to switch the shaking change according to the device to which the associated image data, shaking information at the time of imaging, and shaking change information SMI data are distributed. For example, for video production companies, shake changes that emphasize quality, and when distributing to smartphone applications, the load should be lightened. Further, it is conceivable to switch the shaking change processing depending on the form of the display device. For example, when using goggles for virtual reality, it is an example of weakening the shaking. That is, the device to which the associated image data, the shaking information at the time of imaging, and the shaking change information SMI data are distributed and the form of the display device are automatically detected, and the shaking effect is produced according to the result. The content of the process may be switched automatically.
  • the angle of view information, aspect ratio, and angle of view setting value of the image may also be saved in association with the image data in step ST20, and these may be adjusted many times.
  • the program of the embodiment is a program for causing, for example, a CPU, a DSP, or a device including these to execute the processes shown in FIGS. 10, 23, 24, 26, and 28. That is, the program of the embodiment includes the shaking information adjustment processing (ST15, ST30) that adjusts the shaking information at the time of imaging when the input image data constituting the moving image is captured and generates the shaking information after adjustment, and the shaking information after adjustment.
  • the shaking change process (ST16) for obtaining the shaking changed image data by changing the shaking state of the input image data using the above, at least one of the input image data and the shaking changed image data, and the shaking information at the time of imaging.
  • an association process ST20
  • the above-mentioned image processing device TDx can be realized in a device such as a mobile terminal 2, a personal computer 3, or an image pickup device 1.
  • the program of the embodiment may be a program for causing, for example, a CPU, a DSP, or a device including these to execute the processes shown in FIGS. 20, 21, 25, and 30. That is, in the program of the embodiment, when the image data constituting the moving image, the shaking information at the time of imaging, and the shaking change information SMI that can specify the processing amount of the shaking change processing are associated with each other, the associated imaging time Shake information and shake change information Shake information adjustment processing (ST15, ST30) that generates post-adjustment shake information using SMI, and shake change process (ST16) that changes the shake state of image data using post-adjustment shake information. ) Is a program that causes the information processing device to execute.
  • the above-mentioned image processing device TDy can be realized in a device such as a mobile terminal 2, a personal computer 3, or an image pickup device 1.
  • a program that realizes such image processing devices TDx and TDy can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • flexible discs CD-ROMs (Compact Disc Read Only Memory), MO (Magnet optical) discs, DVDs (Digital Versatile Discs), Blu-ray Discs (Blu-ray Discs (registered trademarks)), magnetic disks, semiconductor memories, It can be temporarily or permanently stored (recorded) on a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the image processing devices TDx and TDy of the embodiment it is suitable for a wide range of provision of the image processing devices TDx and TDy of the embodiment.
  • a program for example, by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant), etc., the personal computer, etc. can function as the image processing device of the present disclosure. Can be done.
  • the present technology can also adopt the following configurations.
  • a shake information adjustment unit that adjusts the shake information during imaging when the input image data that composes the moving image is captured and generates shake information after adjustment
  • a shake changing unit that performs a shake change process to obtain image data whose shake has been changed by changing the shake state of the input image data using the adjusted shake information.
  • An image processing apparatus including at least one of the input image data and the shake-changed image data, and an association unit that associates the shake information at the time of imaging with the shake change information that can specify the processing amount of the shake change process. ..
  • the image processing apparatus according to any one of (1) to (5) above.
  • the image data that the association unit associates with the shaking information and the shaking change information at the time of imaging is the image data in a state where the shaking removing processing at the time of imaging is not performed.
  • the image processing apparatus according to (7) above, wherein the image data is the input image data that has not been subjected to the shaking removing process at the time of imaging.
  • the image data is image data obtained by performing a process of canceling a shaking removing process performed at the time of imaging on the input image data.
  • the shaking information at the time of imaging is posture information of the imaging device at the time of capturing the input image data by the imaging device.
  • the posture information is shift information or rotation information indicating the movement of the image pickup device at the time of capturing the input image data by the image pickup device.
  • the shaking information adjusting unit adds the shaking amount specified by the shaking change parameter based on the shaking information at the time of imaging and the shaking change parameter that specifies the processing amount of the shaking change processing.
  • the image processing apparatus (13) The image processing apparatus according to (12) above, wherein the shaking change information is the shaking change parameter. (14) The image processing apparatus according to any one of (12) and (13) above, wherein the shaking change parameter is a parameter specified by a user operation. (15) The image processing apparatus according to any one of (12) to (14) above, wherein the shaking change information is the adjusted shaking information. (16) The shaking information adjusting unit performs gain processing based on the shaking change parameter for each shaking frequency band on the shaking information for adding shaking based on the shaking information at the time of imaging, and generates the adjusted shaking information ( The image processing apparatus according to any one of 12) to (15).
  • the shaking information adjusting unit performs gain processing based on the shaking change parameter for each shaking direction with respect to the shaking information for adding shaking based on the shaking information at the time of imaging, and generates the adjusted shaking information (12).
  • the image processing apparatus according to any one of (16).
  • the shaking information at the time of imaging is any of the above (1) to (17), which is posture information corresponding to each frame of the input image data obtained based on the metadata generated at the time of imaging the input image data.
  • the shaking changing unit attaches each frame of the input image data to the celestial sphere model, and rotates each frame using the adjusted posture information which is the adjusted shaking information corresponding to each frame.
  • the image processing apparatus according to (18) above which performs the shaking change processing in the above.
  • a shake information adjustment unit that generates post-adjustment shake information using the shake information at the time of imaging associated with the image data constituting the moving image and the shake change information that can specify the processing amount of the shake change process.
  • An image processing device including a shake changing unit that performs a shake change process that changes the shake state of image data using the shake information after adjustment.
  • the image processing apparatus according to (20) or (21) above, wherein the image data is image data in which shaking is removed by the shaking change information based on the shaking information at the time of imaging.
  • the image processing device Shake information adjustment processing that adjusts the shake information during imaging when the input image data that composes the moving image is captured and generates shake information after adjustment, A shaking change process for obtaining image data whose shaking has been changed by changing the shaking state of the input image data using the adjusted shaking information.
  • An association process that associates at least one of the input image data and the shake-changed image data with the shake information at the time of imaging and the shake change information that can specify the processing amount of the shake change process.
  • Shake information adjustment processing that adjusts the shake information during imaging when the input image data that composes the moving image is captured and generates shake information after adjustment
  • a shaking change process for obtaining image data whose shaking has been changed by changing the shaking state of the input image data using the adjusted shaking information.
  • An association process that associates at least one of the input image data and the shake-changed image data with the shake information at the time of imaging and the shake change information that can specify the processing amount of the shake change process. Is a program that causes the information processing device to execute.

Abstract

画像処理装置は、動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、調整後揺れ情報を用いて入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、入力画像データ及び揺れ変更済み画像データの少なくとも一方と、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理とを行うようにする。

Description

画像処理装置、画像処理方法、プログラム
 本技術は画像処理装置、画像処理方法、プログラムに関し、特に画像の揺れについての画像処理に関する。
 撮像装置で撮像した動画について各種の補正などの画像処理を行う技術が知られている。
 下記特許文献1では撮影画像に係る画像データに対して防振処理を実行するとともに、防振処理後の画像データを対象として防振処理の影響を除去することが開示されている。
特開2015-216510号公報
 ところで昨今、ユーザはスマートフォンやタブレットなどの携帯端末、或いはカメラ自体やパーソナルコンピュータなどを用いて画像撮像や画像調整等を手軽に行うことができ、また動画投稿なども盛んである。
 このような環境下では、ユーザが撮像した画像をそのまま出力するのではなく、より品質の高い画像や多様な画像を制作することが望まれている。
 また放送事業者などにおいても画像の多様な演出が可能とされることが望まれている。
 そこで本開示では、動画における揺れに関する調整などを容易に行うことができるようにする技術を提案する。
 本技術に係る画像処理装置は、動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整部と、前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理を行う揺れ変更部と、前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報と、を関連付ける関連付け部と、を備える。
 揺れ変更処理は、動画に生じている揺れを低減したり揺れを付加したりするなどして揺れの状態を変化させることである。揺れ変更部は、揺れ情報調整部による調整後揺れ情報を用いて揺れ変更処理を行う。この場合に、画像データと、撮像時の揺れ情報と、調整後揺れ情報が関連付けられるようにする。
 なお撮像時の揺れ情報とは、撮像時の撮像装置の動きを表す情報であり、例えば撮像装置の加速度センサ、角速度センサなどのセンサの検出値や、それらから求められる撮像装置の姿勢情報、回転量、移動量などである。
 上記した本技術に係る画像処理装置においては、前記揺れ変更部は、前記揺れ変更処理として、前記調整後揺れ情報に基づいて前記入力画像データに揺れ演出を付加することが考えられる。
 揺れ演出は画像の演出として揺れの状態を付加したり画像の揺れ具合を調整したりすることなどが該当する。この場合、調整後揺れ情報は揺れ演出のために調整された揺れ情報となる。
 上記した本技術に係る画像処理装置においては、前記関連付け部は、前記入力画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付けることが考えられる。
 例えば揺れ変更が施されていない状態の画像が、関連付けられて他の装置に提供できるようにする。
 上記した本技術に係る画像処理装置においては、前記揺れ変更部は、前記揺れ変更処理として、前記撮像時揺れ情報に基づいて前記入力画像データの揺れを除去することが考えられる。
 揺れ除去は撮像時の撮像装置の動き(手ぶれ等)により画像に生じている揺れを除去(揺れの低減を含む)することである。撮像時揺れ情報を用いることで画像の手ぶれ等を除去する。
 上記した本技術に係る画像処理装置においては、前記関連付け部は、前記揺れ変更済み画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付けることが考えられる。
 例えば揺れ除去としての揺れ変更処理が行われた画像、つまり撮像時の撮像装置の動きによる揺れが除去された画像が、関連付けられて他の装置に提供できるようにする。
 また例えば揺れ演出としての揺れ変更処理が行われた画像が関連付けられて他の装置に提供できるようにしてもよい。
 上記した本技術に係る画像処理装置においては、前記揺れ変更部は、前記入力画像データに対して、該入力画像データに対応付けられたメタデータを用いて撮像時に行われた揺れ除去処理をキャンセルする処理を行った後に、前記揺れ変更処理を行うことが考えられる。
 撮像装置において手ぶれ除去などの揺れ除去処理が行われていた場合に、その手ぶれ除去がされていない状態に戻してから揺れ変更処理を行う。
 上記した本技術に係る画像処理装置においては、前記関連付け部が撮像時揺れ情報及び揺れ変更情報と関連付ける画像データは、撮像時の揺れ除去処理が施されていない状態の画像データとすることが考えられる。
 この場合、前記画像データは、撮像時に揺れ除去処理が行われていない前記入力画像データであることが考えられる。
 また前記画像データは、前記入力画像データに対して、撮像時に行われた揺れ除去処理をキャンセルする処理を行った画像データであることが考えられる。
 例えば撮像時の揺れ除去がキャンセルされた画像や、撮像時に揺れ除去が行われなかった画像が、関連付けられて他の装置に提供できるようにする。
 上記した本技術に係る画像処理装置においては、前記撮像時揺れ情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の姿勢情報であることが考えられる。
 撮像装置の姿勢情報は、例えば角速度センサや加速度センサの情報から求めることができる。
 上記した本技術に係る画像処理装置においては、前記姿勢情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の動きを示すシフト情報又は回転情報であることが考えられる。
 例えば撮像装置の姿勢情報をシフト情報、回転情報に変換して記憶する。
 上記した本技術に係る画像処理装置においては、前記揺れ情報調整部は、前記撮像時揺れ情報と前記揺れ変更処理の処理量を指定する揺れ変更パラメータに基づいて、前記揺れ変更パラメータで指定される揺れ量の揺れを付加するための前記調整後揺れ情報を生成することが考えられる。
 例えば姿勢情報を揺れ変更パラメータで調整した調整後姿勢情報を生成し、揺れ変更処理に供する。
 上記した本技術に係る画像処理装置においては、前記揺れ変更情報は、前記揺れ変更パラメータであることが考えられる。
 揺れ変更パラメータとは、例えば揺れ演出のために入力される揺れ変更処理のパラメータである。
 上記した本技術に係る画像処理装置においては、前記揺れ変更パラメータは、ユーザ操作により指定されたパラメータであることが考えられる。
 即ち揺れ変更パラメータは、ユーザが任意に入力できるものとする。
 上記した本技術に係る画像処理装置においては、前記揺れ変更情報は、前記調整後揺れ情報とすることが考えられる。
 例えば姿勢情報を揺れ変更パラメータで調整した調整後姿勢情報を、揺れ変更情報として記憶するようにする。
 上記した本技術に係る画像処理装置においては、前記揺れ情報調整部は、前記撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの周波数帯域別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成することが考えられる。
 例えば姿勢情報を揺れの周波数帯域毎に、揺れ変更パラメータで指定されるゲインを与えて調整後姿勢情報を生成し、揺れ変更処理に供する。
 上記した本技術に係る画像処理装置においては、前記揺れ情報調整部は、撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの方向別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成することが考えられる。
 例えば姿勢情報を揺れの方向(ヨー、ピッチ、ロール)毎に、揺れ変更パラメータで指定されるゲインを与えて調整後姿勢情報を生成し、揺れ変更処理に供する。
 上記した本技術に係る画像処理装置においては、前記撮像時揺れ情報は、前記入力画像データの撮像の際に生成されたメタデータに基づいて得られる前記入力画像データの各フレームに対応する姿勢情報であることが考えられる。
 例えば角速度センサや加速度センサの情報から求める撮像装置の姿勢情報(例えばクオータニオン:Quaternion)を調整し、調整後の姿勢情報が揺れ変更処理に用いられるようにする。
 上記した本技術に係る画像処理装置においては、前記揺れ変更部は、前記入力画像データの前記各フレームを天球モデルへ貼付し、前記各フレームに対応する前記調整後揺れ情報である調整後の前記姿勢情報を用いて前記各フレームを回転させることで前記揺れ変更処理を行うことが考えられる。
 例えば角速度センサや加速度センサの情報から求める撮像装置の姿勢情報(例えばクオータニオン)を調整した、調整後の姿勢情報により天球モデル上で回転処理を行う。
 本技術に係る他の画像処理装置は、それぞれ動画を構成する画像データに関連付けられた撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを用いて、調整後揺れ情報を生成する揺れ情報調整部と、調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理を行う揺れ変更部とを備える。
 即ち動画を構成する画像データと、撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とが互いに関連付けられている情報が提供された場合に、二次的な揺れ変更処理を行う画像処理装置を構成する。
 この場合、前記画像データは、撮像時に揺れ除去処理が行われていない画像データ、又は、撮像時に行われた揺れ除去処理をキャンセルする処理が行われた画像データであることが考えられる。
 つまり撮像装置での揺れ除去処理が施されていない状態の画像データである。
 また前記画像データは、前記撮像時揺れ情報に基づいた前記揺れ変更情報により、揺れが除去された画像データであることが考えられる。
 つまり撮像装置での揺れの影響が除去(低減を含む)された状態の画像データである。
 本技術に係る画像処理方法は、動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理とを行う。
 これにより画像に対する揺れ演出や揺れ除去が行われた情報が保存されるようにする。
 本技術に係るプログラムは、このような画像処理方法に相当する処理を情報処理装置に実行させるプログラムである。
 これにより本開示の画像処理を各種の情報処理装置で実行可能とする。
本技術の実施の形態で用いられる機器の説明図である。 実施の形態の機器間で伝送される情報の説明図である。 実施の形態の撮像装置のブロック図である。 実施の形態の撮像装置における画像の揺れ除去処理の説明図である。 実施の形態の情報処理装置のブロック図である。 実施の形態の画像処理装置としての機能構成の説明図である。 実施の形態の画像処理装置としての機能構成の他の例の説明図である。 実施の形態の画像ファイル及びメタデータの内容の説明図である。 レンズ歪み補正に関するメタデータの説明図である。 第1の実施の形態の画像処理の説明図である。 実施の形態の天球モデルへの貼付の説明図である。 実施の形態のIMUデータのサンプルタイミングの説明図である。 実施の形態の周波数帯域別の揺れ情報調整の説明図である。 実施の形態の方向別の揺れ情報調整の説明図である。 実施の形態の周波数帯域別及び方向別の揺れ情報調整の説明図である。 実施の形態の出力画像と天球モデルの対応付けの説明図である。 実施の形態の出力座標平面の回転と透視射影の説明図である。 実施の形態の切り出し領域の説明図である。 第1の実施の形態の伝送されるメタデータの説明図である。 第1の実施の形態の二次的な画像処理の説明図である。 第1の実施の形態の二次的な画像処理での記録の説明図である。 第2の実施の形態の伝送されるメタデータの説明図である。 第2の実施の形態の画像処理の説明図である。 第3の実施の形態の画像処理の説明図である。 第3の実施の形態の二次的な画像処理の説明図である。 第4の実施の形態の画像処理の説明図である。 第4の実施の形態の伝送されるメタデータの説明図である。 第5の実施の形態の画像処理の説明図である。 第5の実施の形態の伝送されるメタデータの説明図である。 第3の実施の形態の二次的な画像処理の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.画像処理装置として適用できる機器の構成>
<2.装置構成及び処理機能>
<3.画像ファイル及びメタデータ>
<4.第1の実施の形態>
<5.第2の実施の形態>
<6.第3の実施の形態>
<7.第4の実施の形態>
<8.第5の実施の形態>
<9.まとめ及び変形例>
 なお実施の形態の説明に先だって、説明で用いる一部の用語について説明しておく。
 「揺れ」とは動画を構成する画像のフレーム間の揺れ(interframe shake)を指す。いわゆる撮像装置で撮像された画像における手ぶれ(camera shake)等に起因する揺れや、画像処理により意図的に付加した揺れなど、フレーム間で生じる振動成分(フレーム間での画像の揺らぎ)を広く指すものとする。
 「揺れ変更(interframe shake modification)」は、画像に生じている揺れの低減や、画像に揺れを付加することなど、画像における揺れの状態を変化させることをいう。
 この「揺れ変更」には次の「揺れ除去(interframe shake reduction)」「揺れ演出(interframe shake production)」が含まれるものとする。
 「揺れ除去」は、手ぶれなどにより画像に生じている揺れを無くすこと(揺れの全部除去)、もしくは低減すること(揺れの一部除去)をいう。即ち撮像時の揺れ情報に基づいて揺れを低減させるように調整することをいう。撮像装置において行われるいわゆる手ぶれ補正は、揺れ除去を行っていることになる。
 「揺れ演出」は、画像に揺れを加える場合や、揺れを低減させる場合があり、その意味で結果として「揺れ除去」と同様となることもあるが、本実施の形態ではユーザの操作又は自動制御により揺れの変化量が指示され、該指示に応じて画像の揺れ状態を変化させることをいう。例えば撮像時の揺れ情報をユーザ指示等により変化させ、その変化させた揺れ情報に基づいて揺れ変更処理をすることで、揺れを低減又は増加させたり、ユーザ指示等により生成した揺れを付加する情報に基づいて揺れ変更することで、揺れを低減又は増加させたりすることが「揺れ演出」に該当する。
 揺れを抑圧する方向に調整する場合においても、例えば意図的に揺れ具合を調整することは「揺れ演出」に該当すると考えることもできる。
 なお、揺れ演出の目的の一例としては、動画のシーンに迫力を与えるため、わざと画像を揺らすことなどが想定される。
 「撮像時揺れ情報」とは、撮像装置で撮像された際の揺れに関する情報であり、撮像装置の動きの検出情報や、該検出情報から算出できる情報や、撮像装置の姿勢を表す姿勢情報や、撮像装置の動きとしてのシフトや回転の情報などが該当する。
 実施の形態では、「撮像時揺れ情報」の具体例として、クオータニオン(QD)、IMUデータ、シフト・回転情報(SFRO)などを挙げる。もちろんこれらに限定されない。
 「調整後揺れ情報」とは、撮像時揺れ情報を調整して生成した揺れ情報であり、揺れ変更処理に用いられる情報である。例えばユーザ操作や自動制御に応じて調整される揺れ情報である。
 実施の形態では、「調整後揺れ情報」の具体例として、調整後クオータニオン(eQD)や調整後IMUデータ(eIMU)を挙げるが、もちろんこれらに限定されない。
 「揺れ変更情報」(説明及び図面では符号「SMI」を付す)は、画像データの揺れ変更処理の情報であり、揺れ変更処理の処理量を特定できる情報であればよい。
 実施の形態では、「揺れ変更情報」の具体例として、揺れ変更パラメータ(PRM)や調整後クオータニオン(eQD)を挙げるが、もちろんこれらに限定されない。
<1.画像処理装置として適用できる機器の構成>
 以下の実施の形態では、主にスマートフォンやパーソナルコンピュータなどの情報処理装置により本開示に係る画像処理装置が実現される例で説明していくが、画像処理装置は、各種の機器において実現できる。まずは本開示の技術を適用できる機器について説明しておく。
 図1Aは画像ソースVSと、画像ソースVSから画像ファイルMFを取得する画像処理装置(TDx,TDy)としての例を示している。
 なお、画像処理装置TDxは、画像ソースVSから取得された画像データに対して一次的に揺れ変更処理を行う機器とする。
 一方、画像処理装置TDyは、他の画像処理装置で既に揺れ変更処理が行われた画像データについて二次的に揺れ変更処理を行う機器とする。
 画像ソースVSとしては撮像装置1、サーバ4、記録媒体5などが想定される。
 画像処理装置TDx、TDyとしてはスマートフォンなどの携帯端末2やパーソナルコンピュータ3などが想定される。他にも図示していないが、画像編集専用装置、クラウドサーバ、テレビジョン装置、ビデオ記録再生装置など各種の機器が画像処理装置TDx、TDyとして想定される。これらの機器は、画像処理装置TDx、TDyのいずれとしても機能できる。
 画像ソースVSとしての撮像装置1は動画撮像を行うことのできるデジタルカメラ等であり、動画撮像によって得られた画像ファイルMFを有線通信や無線通信を介して携帯端末2やパーソナルコンピュータ3などに転送する。
 サーバ4はローカルサーバ、ネットワークサーバ、クラウドサーバなどのいずれであっても良いが、撮像装置1で撮像された画像ファイルMFを提供できる装置を指す。このサーバ4がなんらかの伝送路を介して画像ファイルMFを携帯端末2やパーソナルコンピュータ3などに転送することが考えられる。
 記録媒体5はメモリカード等の固体メモリ、光ディスク等のディスク状記録媒体、磁気テープ等のテープ状記録媒体などのいずれでもよいが、撮像装置1で撮像された画像ファイルMFが記録されたリムーバブル記録媒体を指している。この記録媒体5から読み出された画像ファイルMFが携帯端末2やパーソナルコンピュータ3などに読み取られることが考えられる。
 画像処理装置TDx、TDyとしての携帯端末2やパーソナルコンピュータ3等は、以上の画像ソースVSから取得した画像ファイルMFに対する画像処理が可能とされている。ここでいう画像処理とは、揺れ変更処理(揺れ演出や揺れ除去)を含む。
 揺れ変更処理は、例えば、動画を構成する画像データのフレーム毎に、天球モデルへの貼付処理が行われた後に、当該フレームに対応する姿勢情報を用いて回転することにより行う。
 なお、或る携帯端末2やパーソナルコンピュータ3が、画像処理装置TDx,TDyとして機能する他の携帯端末2やパーソナルコンピュータ3に対する画像ソースVSとなることもある。
 図1Bは、画像ソースVSと画像処理装置TDxの両方として機能できる1つの機器としての撮像装置1や携帯端末2を示している。
 例えば撮像装置1の内部のマイクロコンピュータ等が揺れ変更処理を行う。
 つまり撮像装置1は撮像によって生成した画像ファイルMFに対して揺れ変更処理を行うことで、揺れ除去や揺れ演出を施した画像処理結果としての画像出力を行うことができるものとする。
 携帯端末2も同様であり、撮像機能を備えることで画像ソースVSとなり得るため、撮像によって生成した画像ファイルMFについて上記の揺れ変更処理を行うことで、揺れ除去や揺れ演出を施した画像処理結果としての画像出力を行うことができる。
 もちろん撮像装置1や携帯端末2に限らず、画像ソース兼画像処理装置となりうる機器は他にも各種考えられる。
 以上のように実施の形態の画像処理装置TDx、TDyとして機能する装置及び画像ソースVSは多様であるが、以下では、撮像装置1等の画像ソースVS、携帯端末2等の画像処理装置TDx、及び他の画像処理装置TDyが、それぞれ別体の機器であるとして説明していく。
 図2は画像ソースVS、画像処理装置TDx、の画像処理装置TDyにおける情報伝送の様子を示している。
 画像ソースVSから画像処理装置TDxに対しては、画像データVD1とメタデータMTD1が、有線通信、無線通信、或いは記録媒体を介して伝送される。
 後述するが画像データVD1とメタデータMTD1は、例えば画像ファイルMFとして伝送される情報である。
 メタデータMTD1には、例えば手ぶれ補正などとして行われた撮像時の揺れ除去の情報として、座標変換パラメータHPが含まれる場合がある。
 画像処理装置TDxは、画像データVD1とメタデータMTD1、さらには座標変換パラメータHPを受けて各種の処理を行うことができる。
 例えば画像処理装置TDxは、メタデータMTD1に含まれる撮像時揺れ情報を用いて画像データVD1に対する揺れ変更処理を行うことができる。
 また例えば画像処理装置TDxは、メタデータMTD1に含まれる座標変換パラメータHPを用いて撮像時に画像データVD1に施された揺れ除去をキャンセルすることができる。
 画像処理装置TDxは、揺れ変更処理を行った場合、画像データと、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報SMIとを関連付ける処理を行う。
 そして関連付けられた画像データと、撮像時揺れ情報と、揺れ変更情報SMIとは、画像処理装置TDyに対して一括して、或いは別々に、有線通信、無線通信、或いは記録媒体を介して伝送されるようにすることができる。
 ここで、「関連付ける」という用語は、例えば、一方の情報(データ、コマンド、プログラム等)を処理する際に他方の情報を利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられた情報は、1つのファイル等としてまとめられてもよいし、それぞれ個別の情報としてもよい。例えば、情報Aに関連付けられた情報Bは、その情報Aとは別の伝送路上で伝送されるようにしてもよい。また、例えば、情報Aに関連付けられた情報Bは、その情報Aとは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、情報全体でなく、情報の一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
 より具体的には、例えば、複数の情報に同一のID(識別情報)を付与すること、複数の情報を同一の記録媒体に記録すること、複数の情報を同一のフォルダに格納すること、複数の情報を同一のファイルに格納すること(一方を他方にメタデータとして付与すること)、複数の情報を同一のストリームに埋め込むこと、例えば電子透かしのように画像にメタを埋め込むこと等の行為が、「関連付ける」に含まれる。
 図2では画像データVD2として画像処理装置TDxから画像処理装置TDyに伝送される画像データを示している。画像データVD2は、撮像装置1での揺れ除去がキャンセルされた画像であったり、画像処理装置TDxで揺れ除去が施された画像であったり、画像処理装置TDxで揺れ変更処理が行われる前の画像であったりするなど、各種の例が考えられる。
 また図2では画像処理装置TDxから画像処理装置TDyに伝送されるメタデータMTD2を示している。メタデータMTD2はメタデータMTD1と同じ情報であったり、一部異なる情報であったりする。但しメタデータMTD2には撮像時揺れ情報が含まれる。
 従って画像処理装置TDyは、少なくとも画像データVD2と、メタデータMTD2に含まれる撮像時揺れ情報と、揺れ変更情報SMIが関連付けられた状態で取得できる。
 なお、揺れ変更情報SMIもメタデータMTD2に含まれるようにするデータ形態も考えられる。
 本実施の形態では、このような情報伝送を想定したうえで、画像処理装置TDx、TDyで実行できる画像処理について説明していく。
<2.装置構成及び処理機能>
 まず画像ソースVSとなる撮像装置1の構成例を図3で説明する。
 なお図1Bで説明したように携帯端末2で撮像した画像ファイルMFについてその携帯端末2で画像処理をすることを想定する場合、撮像機能に関し以下の撮像装置1と同等の構成を携帯端末2が備えればよいことになる。
 また撮像装置1では、いわゆる手ぶれ補正といわれる、撮像時の撮像装置の動きによる画像の揺れを低減する処理が行われるが、これは撮像装置で行われる「揺れ除去」である。 これに対し、画像処理装置TDx、TDyで行われる「揺れ演出」や「揺れ除去」は、撮像装置1で撮像時に行われる「揺れ除去」とは独立した別個の処理となる。
 図3に示すように撮像装置1は、例えばレンズ系11、撮像素子部12、カメラ信号処理部13、記録制御部14、表示部15、出力部16、操作部17、カメラ制御部18、メモリ部19、ドライバ部22、センサ部23を有する。
 レンズ系11は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り機構などを備える。このレンズ系11により、被写体からの光(入射光)が導かれ撮像素子部12に集光される。
 なお、図示していないがレンズ系11には手ぶれ等による画像の揺れ(interframe shake)及びブラー(blur)を補正する光学手ぶれ補正機構(optical image stabilization mechanism)が設けられている場合がある。
 撮像素子部12は、例えば、CMOS(Complementary Metal Oxide Semiconductor)型やCCD(Charge Coupled Device)型などのイメージセンサ12a(撮像素子)を有して構成される。
 この撮像素子部12では、イメージセンサ12aで受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部18に出力する。
 なお、図示していない光学手ぶれ補正機構としては、レンズ系11側ではなく、イメージセンサ12a側を移動させることで画像の揺れを補正する機構とされている場合やジンバルを用いた空間光学手ぶれ補正機構(balanced optical image stabilization mechanism)の場合等もあり、どのような方式であっても構わない。
 光学手ぶれ補正機構では、揺れ(interframe shake)に加えて後述するがフレーム内のブラーも合わせて補正される。
 カメラ信号処理部13は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このカメラ信号処理部13は、撮像素子部12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。例えばカメラプロセスとしてカメラ信号処理部13は、前処理、同時化処理、YC生成処理、解像度変換処理、コーデック処理等を行う。
 またカメラ信号処理部13は各種補正処理も行う。但し手ぶれ補正については、撮像装置1内で行う場合もあれば、行わない場合も想定される。
 前処理では、撮像素子部12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を行う。
 同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにする色分離処理を施す。例えば、ベイヤー配列のカラーフィルタを用いた撮像素子の場合は、色分離処理としてデモザイク処理が行われる。
 YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
 解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
 カメラ信号処理部13で行われる各種補正処理(撮像装置1の内部補正)については図4に例を挙げる。図4ではレンズ系11で行われる光学手ぶれ補正とともに、カメラ信号処理部13で行われる補正処理を、その実行順序により例示している。
 処理F1としての光学手ぶれ補正では、レンズ系11のヨー方向、ピッチ方向のシフトによるレンズ内手ぶれ補正や、イメージセンサ12aのヨー方向、ピッチ方向のシフトによるボディ内手ぶれ補正が行われることで、手ぶれの影響を物理的にキャンセルした状態で被写体の像がイメージセンサ12aに結像するようにされる。
 このレンズ内手ぶれ補正と、ボディ内手ぶれ補正は一方のみの場合もあり、双方を用いる場合もある。レンズ内手ぶれ補正とボディ内手ぶれ補正の双方を用いる場合はボディ内手ぶれ補正ではヨー方向、ピッチ方向のシフトは行わないことが考えられる。
 またレンズ内手ぶれ補正とボディ内手ぶれ補正の双方とも採用されず、手ぶれに対しては電子手ぶれ補正(electrical image stabilization)のみ、または、光学手ぶれ補正のみが行われる場合もある。
 カメラ信号処理部13では処理F2から処理F7までの処理が各画素に対する空間座標変換により行われる。
 処理F2ではレンズ歪み補正が行われる。
 処理F3では電子手ぶれ補正の1つの要素としてのフォーカルプレーン歪み補正が行われる。なお、これは例えばCMOS型のイメージセンサ12aによりローリングシャッター方式の読み出しが行われる場合の歪みを補正するものとなる。
 処理F4ではロール補正が行われる。即ち電子手ぶれ補正の1つの要素としてのロール成分の補正が行われる。
 処理F5では電子手ぶれ補正によって生じる台形歪み分に対する台形歪み補正が行われる。電子手ぶれ補正によって生じる台形歪み分とは、画像の中央から離れた場所を切り出すことにより生じるパース歪みである。
 処理F6では、電子手ぶれ補正の1つの要素としてのピッチ方向、ヨー方向のシフトや切り出しが行われる。
 例えば以上の手順で手ぶれ補正、レンズ歪み補正、台形歪み補正が行われることになる。
 なお、ここで挙げた処理の全てを実施することは必須ではなく処理の順番も適宜入れ替えても構わない。
 図3のカメラ信号処理部13におけるコーデック処理では、以上の各種処理が施された画像データについて、例えば記録用や通信用の符号化処理、ファイル生成を行う。例えばMPEG-4準拠の動画・音声の記録に用いられているMP4フォーマットなどとしての画像ファイルMFの生成を行う。また静止画ファイルとしてJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式のファイル生成を行うことも考えられる。
 なおカメラ信号処理部13はカメラ制御部18からの情報等を用いて、画像ファイルMFに付加するメタデータの生成も行う。
 また図3では音声処理系については図示を省略しているが、実際には音声収録系、音声処理系を有し、画像ファイルMFには動画としての画像データとともに音声データも含まれるようにしてもよい。
 記録制御部14は、例えば不揮発性メモリによる記録媒体に対して記録再生を行う。記録制御部14は例えば記録媒体に対し動画データや静止画データ等の画像ファイルMFやサムネイル画像等を記録する処理を行う。
 記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよいし、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
 表示部15は撮像者に対して各種表示を行う表示部であり、例えば撮像装置1の筐体に配置される液晶パネル(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネルやビューファインダーとされる。
 表示部15は、カメラ制御部18の指示に基づいて表示画面上に各種表示を実行させる。
 例えば表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
 また表示部15にはカメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給され、表示部15はカメラ制御部18の指示に応じて、当該撮像画像の画像データに基づいて表示を行う場合がある。これにより構図確認中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)が表示される。
 また表示部15はカメラ制御部18の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
 出力部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
 例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
 また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
 操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は撮像装置1の筐体に設けられた各種の操作子(キー、ダイヤル、タッチパネル、タッチパッド等)を示している。
 操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部18へ送られる。
 カメラ制御部18はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
 メモリ部19は、カメラ制御部18が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
 メモリ部19はカメラ制御部18としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
 カメラ制御部18はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
 例えばカメラ制御部18は、撮像素子部12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、レンズ鏡筒におけるズーム、フォーカス、絞り調整等のレンズ系11の動作、ユーザインタフェース動作等について、必要各部の動作を制御する。
 メモリ部19におけるRAMは、カメラ制御部18のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
 メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。
 ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
 これらのモータドライバはカメラ制御部18からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
 センサ部23は、撮像装置に搭載される各種のセンサを包括的に示している。
 センサ部23としては例えばIMU( inertial measurement unit:慣性計測装置)が搭載されており、例えばピッチ-、ヨー、ロールの3軸の角速度(ジャイロ)センサで角速度を検出し、加速度センサで加速度を検出することができる。
 なお、センサ部23は、撮像時の手ぶれを検出することができるセンサを含んでいればよく、ジャイロセンサと加速度センサの双方を備えている必要は無い。
 またセンサ部23としては、位置情報センサ、照度センサ等が搭載されていても良い。
 例えば以上の撮像装置1によって撮像され生成された動画としての画像ファイルMFは、携帯端末2等の画像処理装置TDx、TDyに転送されて画像処理を施されることが可能とされる。
 画像処理装置TDx、TDyとなる携帯端末2、パーソナルコンピュータ3は、例えば図5に示す構成を備えた情報処理装置として実現できる。なおサーバ4についても、同様に図5の構成の情報処理装置により実現できる。
 図5において、情報処理装置70のCPU71は、ROM72に記憶されているプログラム、または記憶部79からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。
 例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 また入出力インタフェース75には、LCD或いは有機ELパネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスや、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部77はCPU71の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、ハードディスクや固体メモリなどより構成される記憶部79や、モデムなどより構成される通信部80が接続される場合もある。
 通信部80は、インターネット等の伝送路を介しての通信処理を行ったり、各種機器との有線/無線通信、バス通信などによる通信を行う。
 入出力インタフェース75にはまた、必要に応じてドライブ82が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体81が適宜装着される。
 ドライブ82により、リムーバブル記録媒体81からは画像ファイルMF等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部79に記憶されたり、データファイルに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体81から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置70では、例えば本開示の画像処理装置としての画像処理のためのソフトウエアを、通信部80によるネットワーク通信やリムーバブル記録媒体81を介してインストールすることができる。或いは当該ソフトウエアは予めROM72や記憶部79等に記憶されていてもよい。
 例えばこのようなソフトウエア(アプリケーションプログラム)によって、図6のような機能構成が情報処理装置70のCPU71において構築される。
 図6は画像処理装置TDxとして機能する情報処理装置70として設けられる機能を示している。即ち情報処理装置70(CPU71)は、揺れ変更部100、揺れ情報調整部101、関連付け部102としての機能を備える。
 揺れ情報調整部101は、動画を構成する画像データについての撮像時揺れ情報を調整して調整後揺れ情報を生成する。そしてその調整後揺れ情報を揺れ変更部100に受け渡す。このとき、揺れ情報調整部101は、揺れ変更パラメータPRMに基づいて撮像時揺れ情報を調整して調整後揺れ情報を生成する。
 揺れ変更パラメータPRMは、ユーザ操作や自動制御によって発生される処理パラメータである。
 揺れ変更部100は、調整後揺れ情報を用いて、画像データの揺れの状態を変更する揺れ変更処理を行う。
 揺れ変更部100は揺れ演出部100aとしての機能を備えており、特に調整後揺れ情報を用いることで、揺れを付加したり増減させたりする揺れ演出としての処理を行う。そして揺れ演出済み画像データとして揺れ演出が施された出力画像を得る。
 関連付け部102は、画像データと、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける処理を行う機能である。
 例えば関連付け部102は、画像データと、撮像時揺れ情報と、揺れ変更情報を関連付けて保存してもよい。或いは関連付け部102は、これら画像データ、撮像時揺れ情報、揺れ変更情報を互いに関連付けるための情報を生成、保存することも考えられる。
 この場合、画像データは、揺れ変更部100における揺れ変更処理(揺れ演出処理)を行う前の画像データとしている。
 この画像データに関連付けられる撮像時揺れ情報は、当該画像データが撮像装置1で撮像されたときの揺れ情報である。
 また、この画像データに関連付けられる揺れ変更情報は、当該画像データについて揺れ変更のために入力された揺れ変更パラメータPRMとされる。或いは破線で示すように調整後揺れ情報を、画像データに関連付けられる揺れ変更情報としてもよい。
 図7は図6を若干変形した機能構成を示している。
 この図7の場合、揺れ変更部100は、揺れ演出部100aと揺れ除去部100bを備える例としている。
 即ち揺れ変更部100は、調整後揺れ情報を用いて、揺れ演出部100aにより画像データの揺れの状態を変更する揺れ演出処理を行い、揺れ演出が施された出力画像を得ることができる。
 さらに揺れ変更部100は、撮像時揺れ情報を用いて、揺れ除去部100bにより、揺れ除去処理を行うことができる。即ち撮像時の手ぶれ等による揺れを低減させた出力画像を得ることができる。
 関連付け部102は、画像データと、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける処理を行う。
 この場合、画像データは、揺れ除去部100bによる揺れ除去が施された画像データとしている。
 この画像データに関連付けられる撮像時揺れ情報は、当該画像データが撮像されたときの揺れ情報である。
 また、この画像データに関連付けられる揺れ変更情報は、図6の例と同じく、揺れ変更のために入力された揺れ変更パラメータPRMとされる。或いは破線で示すように、調整後揺れ情報を揺れ変更情報としてもよい。つまりこの場合は、揺れ除去された画像データに対しては直接影響していない揺れ変更情報が関連付けられることになる。
 なお後述する第1,第2,第5の実施の形態では、図6の機能構成に沿った例とし、第3,第4の実施の形態は図7の機能構成に沿った例としている。
 また、以上は画像処理装置TDxとしての機能構成を示したが、画像処理装置TDyとしての機能構成は、図6,図7のうち、少なくとも揺れ変更部100と、揺れ情報調整部101が設けられれば良い。関連付け部102が設けられても良い。
 但し画像処理装置TDyの場合、揺れ変更部100が処理対象とする画像データと、揺れ情報調整部101に供給される撮像時揺れ情報、及び揺れ変更パラメータPRM(揺れ変更情報)は、以前の揺れ変更の際に画像処理装置TDxなどにより関連付けられているデータであることになる。
 なお、揺れ変更パラメータPRMではなく調整後揺れ情報が画像データ及び撮像時揺れ情報に関連付けられている場合は、揺れ情報調整部101では、撮像時揺れ情報と調整後揺れ情報から過去の揺れ変更の処理量を求めれば良い。
 また図1Bで説明したように画像ソースVSと画像処理装置TDxが例えば撮像装置1などで実現される場合、図6,図7の機能を撮像装置1のカメラ信号合処理部13又はカメラ制御部18において備えることで、画像処理装置TDxとして機能するようにすることも考えられる。
<3.画像ファイル及びメタデータ>
 撮像装置1等の画像ソースVSから画像処理装置TDxに伝送される画像ファイルMFの内容とメタデータの内容を説明する。
 図8Aは画像ファイルMFに含まれるデータを示している。図示のように画像ファイルMFには「ヘッダー」「サウンド」「ムービー」「メタデータ」としての各種のデータが含まれる。
 「ヘッダー」には、ファイル名、ファイルサイズ等の情報とともにメタデータの有無を示す情報などが記述される。
 「サウンド」は動画とともに収録された音声データである。例えば2チャネルステレオ音声データが格納される。
 「ムービー」は動画データであり、動画を構成する各フレーム(#1、#2、#3・・・)としての画像データで構成される。
 「メタデータ」としては、動画を構成する各フレーム(#1、#2、#3・・・)に対応づけられた付加情報が記述される。
 メタデータの内容例を図8Bに示す。例えば1つのフレームに対して、IMUデータ、座標変換パラメータHP、タイミング情報TM、カメラパラメータCPが記述される。なお、これらはメタデータ内容の一部であり、ここでは後述する画像処理に関連する情報のみを示しているものである。
 IMUデータとしては、ジャイロ(角速度データ)、アクセル(加速度データ)、サンプリングレートが記述される。
 センサ部23として撮像装置1に搭載されるIMUでは、角速度データと加速度データを所定のサンプリングレートで出力している。一般に、このサンプリングレートは撮像画像のフレームレートより高く、このため1フレーム期間に多くのIMUデータサンプルが得られるものとなっている。
 そのため角速度データとしては、図8Cに示すジャイロサンプル#1、ジャイロサンプル#2・・・ジャイロサンプル#nというように、1フレームについてn個のサンプルが対応づけられる。
 また加速度データとしても、アクセルサンプル#1、アクセルサンプル#2・・・アクセルサンプル#mというように、1フレームについてm個のサンプルが対応づけられる。
 n=mの場合もあるし、n≠mの場合もある。
 なお、ここではメタデータは各フレームに対応づけられる例で説明しているが、例えばIMUデータはフレームとは完全に同期しない場合もある。そのような場合、例えば各フレームの時間情報と関連する時間情報を、タイミング情報TMにおけるIMUサンプルタイミングオフセットとして持つようにされる。
 座標変換パラメータHPは、画像内の各画素の座標変換を伴う補正に用いるパラメータの総称としている。例えばレンズ歪みのような非線形な座標変換も含む。
 そして、座標変換パラメータHPとは、少なくとも、レンズ歪み補正パラメータ、台形歪み補正パラメータ、フォーカルプレーン歪み補正パラメータ、電子手ぶれ補正パラメータ、光学手ぶれ補正パラメータを含みうる用語としている。
 レンズ歪み補正パラメータは、樽型収差、糸巻き型収差などの歪みをどのように補正したかを直接または間接的に把握しレンズ歪補正前の画像に戻すための情報となる。メタデータの1つとしてのレンズ歪み補正パラメータに関するメタデータについて簡単に説明しておく。
 図9Aにはレンズ系11とイメージセンサ12aの模式図において、像高Y、角度α、入射瞳位置d1、射出瞳位置d2を示している。
 レンズ歪み補正パラメータは、画像処理においては、イメージセンサ12aの各画素についての入射角度を知りたいために用いられる。そのため像高Y、角度αの関係がわかれば良い。
 図9Bはレンズ歪み補正前の画像110とレンズ歪み補正後の画像111を示している。最大像高H0は歪み補正前の最大像高であり、光軸の中心から最遠までの距離である。最大像高H1は歪み補正後の最大像高である。
 像高Y、角度αの関係がわかるようにメタデータとして必要なのは、歪み補正前の最大像高H0と、N個の各像高に対する入射角度のデータd0、d1、・・・d(N-1)となる。“N”は一例として10程度であることが想定される。
 図8Bに戻って、台形歪み補正パラメータは、電子手ぶれ補正によって切り出し領域を中央からずらすことで生じる台形歪みを補正するときの補正量であり、電子手ぶれ補正の補正量に応じた値ともなる。
 フォーカルプレーン歪み補正パラメータは、フォーカルプレーン歪みに対してライン毎の補正量を示す値となる。
 電子手ぶれ補正及び光学手ぶれ補正に関しては、ヨー、ピッチ、ロールの各軸方向についての補正量を示すパラメータとなる。
 なお、レンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正、電子手ぶれ補正の各パラメータについては、座標変換パラメータと総称しているが、これらの補正処理は、撮像素子部12のイメージセンサ12aの各画素に結像した像に対する補正処理であって、各画素の座標変換を伴う補正処理のパラメータであるためである。光学手ぶれ補正も座標変換パラメータの1つとするが、光学手ぶれ補正においてフレーム間成分の揺れの補正は各画素の座標変換を伴う処理となるためである。
 つまり、これらのパラメータを用いて逆補正を行えば、レンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正、電子手ぶれ補正、光学手ぶれ補正が施された画像データを、各補正処理前、即ち、撮像素子部12のイメージセンサ12aに結像したときの状態に戻すことができる。
 またレンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正の各パラメータについては、被写体からの光学像自体が光学的に歪んだ状態で撮像された画像である場合に対する歪み補正処理であり、それぞれ光学歪み補正を目的とするものであるため、光学歪み補正パラメータと総称している。
 つまり、これらのパラメータを用いて逆補正を行えば、レンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正が施された画像データを、光学歪み補正前の状態に戻すことができる。
 メタデータにおけるタイミング情報TMとしては、露光時間(シャッタースピード)、露光開始タイミング、読み出し時間(幕速)、露光フレーム数(長秒露光情報)、IMUサンプルオフセット、フレームレートの各情報が含まれる。
 本実施の形態の画像処理においては、これらは主に各フレームのラインとIMUデータを対応づけるために用いられる。
 但しイメージセンサ12aがCCDの場合やグローバルシャッター方式のCMOSの場合であっても、 電子シャッターやメカシャッターを用いて露光重心がずれる場合は、露光開始タイミングと幕速も用いて露光重心に合わせた補正が可能となる。
 メタデータにおけるカメラパラメータCPとしては、画角(焦点距離)、ズーム位置、レンズ歪み情報が記述される。
<4.第1の実施の形態>
 第1の実施の形態としての画像処理装置TDx、TDyとなる情報処理装置70の処理例を説明する。
 図10は、画像処理装置TDxとしての情報処理装置70において実行される各種処理の手順を示すとともに、各処理で用いる情報の関係性を示している。
 なお、図6の揺れ変更部100の機能によっては、少なくともステップST16の処理が行われればよい。ただし、ステップST11,ST12,ST13,ST14,ST17,ST18を揺れ変更部100の処理と考えることもできる。
 また揺れ情報調整部101の機能によっては、ステップST15の処理が行われる。
 また関連付け部102の機能によっては、ステップST20の処理が行われる。
 まず前処理としてのステップST1,ST2,ST3,ST4について説明する。
 前処理は画像ファイルMFのインポート時に行われる処理とする。
 ここでいう「インポート」とは、情報処理装置70が例えば記憶部79などに取り込んでいることでアクセス可能な画像ファイルMFなどを画像処理の対象とすることを指し、前処理を行って画像処理可能に展開することをいう。例えば撮像装置1から携帯端末2等に転送することを指すものではない。
 CPU71は、ユーザ操作等により指定された画像ファイルMFを画像処理対象となるようにインポートするとともに、前処理として画像ファイルMFに付加されたメタデータに関する処理を行う。例えば動画の各フレームに対応するメタデータを抽出して記憶する処理を行う。
 具体的には、この前処理では、メタデータ抽出(ステップST1)、全IMUデータ連結(ステップST2)、メタデータの保持(ステップST3)、クオータニオン(撮像装置1の姿勢情報)への変換、保持(ステップST4)が行われる。
 ステップST1のメタデータ抽出としては、CPU71は、対象の画像ファイルMFを読み込んで、図8で説明したように画像ファイルMFに含まれているメタデータを抽出する。
 なおステップST1,ST2,ST3,ST4の一部又は全部を撮像装置1などの画像ソースVS側で行ってもよい。その場合は、前処理においては、以下説明するそれらの処理後の内容がメタデータとして取得される。
 CPU71は、抽出されたメタデータのうち、IMUデータ(角速度データ(ジャイロサンプル)と加速度データ(アクセルサンプル))については、ステップST2で連結処理を行う。
 これは、全フレームについて対応づけられているIMUデータについて、全てを時系列順に並べて連結し、動画のシーケンス全体に対応するIMUデータを構築する処理となる。
 そして連結したIMUデータに対して積分処理を行って、動画のシーケンス上の各時点での撮像装置1の姿勢を表すクオータニオンQDを算出し、これを記憶保持する。クオータニオンQDを算出するとしているのは一例である。
 なお角速度データのみでクオータニオンQDを計算することもできる。
 CPU71は、抽出されたメタデータのうち、IMUデータ以外のメタデータ、即ち座標変換パラメータHP、タイミング情報TM、カメラパラメータCPについては、ステップST3で保持する処理を行う。即ち各フレームに対応した状態で座標変換パラメータHP、タイミング情報TM、カメラパラメータCPを記憶する。
 以上の前処理が行われることで、CPU71にとっては、画像ファイルMFとして受け取った画像データに対する揺れ変更を含めた各種の画像処理を行う準備がなされたことになる。
 図10の定常処理は、以上のように前処理が施された画像ファイルMFの画像データを対象として行う画像処理を示している。
 CPU71は、動画の1フレーム取り出し(ステップST11)、撮像装置内部補正キャンセル(ステップST12)、天球モデルへの貼り付け(ステップST13)、同期処理(ステップST14)、揺れ情報調整(ステップST15)、揺れ変更(ステップST16)、出力領域指定(ステップST17)、平面投影及び切り出し(ステップST18)、及び関連付け記録/再生(ステップST20)の処理を行う。
 CPU71は、以上のステップST11からステップST20の各処理は、画像ファイルMFの画像再生の際に毎フレームについて行うことになる。
 ステップST11でCPU71は、フレーム番号FNに沿って動画(画像ファイルMF)の1フレームをデコードする。そして1フレームの画像データPD(#FN)を出力する。なお『(#FN)』はフレーム番号を示し、そのフレームに対応する情報であることを表すものとする。
 なお、動画が圧縮などのエンコード処理をされたものでない場合は、このステップST11でのデコード処理は不要である。
 ステップST12でCPU71は、1フレームの画像データPD(#FN)について撮像装置1で行われた内部補正をキャンセルする処理を行う。
 このためにCPU71は、前処理時に当該フレーム番号(#FN)に対応して記憶された座標変換パラメータHP(#FN)を参照し、撮像装置1で行われた補正とは逆補正を行う。これにより撮像装置1におけるレンズ歪み補正、台形歪み補正、フォーカルプレーン歪み補正、電子手ぶれ補正、光学手ぶれ補正がキャンセルされた状態の画像データiPD(#FN)を得る。
 ステップST13でCPU71は、各種補正がキャンセルされた状態の1フレームの画像データiPD(#FN)について天球モデルへの貼付を行う。このとき、当該フレーム番号(#FN)に対応して記憶されたカメラパラメータCP(#FN)、即ち画角、ズーム位置、レンズ歪み情報を参照する。
 図11に天球モデルへの貼付の概要を示す。
 図11Aは画像データiPDを示している。像高hは画像中心からの距離である。図中の各円は像高hが等しくなる位置を示している。
 この画像データiPDのフレームについての画角、ズーム位置、レンズ歪み情報から、そのフレームにおける「イメージセンサ面と入射角φの関係」を計算し、イメージセンサ面の各位置の「data0」・・・「dataN-1」とする。そして「data0」・・・「dataN-1」から図11Bのような像高hと入射角φの関係の1次元のグラフとして表現する。入射角φは光線の角度(光軸から見た角度)である。
 この1次元のグラフを撮像画像の真ん中を中心に1回転させて、各ピクセルと入射角の関係を求める。
 それに従って図11Cの画素G1から天球座標上の画素G2のように、画像データiPDの各画素について天球モデルMTへのマッピングを行うことになる。
 以上によりレンズ歪みが除去された状態で撮像画像を理想天球面に貼り付けた天球モデルMTの画像(データ)が得られる。この天球モデルMTは、その画像データiPDを元々撮像した撮像装置1の固有のパラメータや歪みが除去され、理想的なピンホールカメラで見える範囲が、天球面に貼ってあるものとなっている。
 従ってこの状態で天球モデルMTの画像を所定方向に回転させることで、揺れ除去や揺れ演出としての揺れ変更処理が実現できることになる。
 ここで揺れ変更処理には撮像装置1の姿勢情報(クオータニオンQD)を用いることになる。このためにCPU71はステップST14で同期処理を行うようにしている。
 同期処理では、フレーム番号FNに対応して、ライン毎に適したクオータニオンQD(#LN)を特定し取得する処理を行う。なお『(#LN)』はフレーム内のライン番号を示し、そのラインに対応する情報であることを表すものとする。
 なお、ライン毎のクオータニオンQD(#LN)を用いるのは、イメージセンサ12aがCMOS型でローリングシャッター方式の撮像が行われる場合、ライン毎に揺れの量が異なるためである。
 例えばイメージセンサ12aがCCD型でグローバルシャッター方式の撮像が行われる場合は、フレーム単位のクオータニオンQD(#FN)を用いれば良い。
 なお、イメージセンサ12aとしてのCCDやCMOSのグローバルシャッターの時でも電子シャッター(メカシャッターでも同様)を用いていると重心がずれるので、フレームの露光期間の中心(電子シャッターのシャッター速度に応じてずれる)のタイミングのクオータニオンを用いると良い。
 ここで画像に現れるブラーについて考慮する。
 ブラーとは、同一フレーム内の撮像装置と被写体の間の相対的な動きによる、画像のにじみのことである。即ち露光時間内の揺れによる画像のにじみである。露光時間が長くなる程、ブラーとしてのにじみの影響は強くなる。
 電子手ぶれ補正は、フレーム毎に切り出す画像範囲を制御する方式を用いる場合、フレーム間に生じる「揺れ」を軽減/解消できるものであるが、露光時間内の相対的な揺れは、このような電子手ぶれ補正では低減できない。
 また手ぶれ補正で切り出し領域を変化させるときは、各フレームの姿勢情報を用いるが、その姿勢情報が、露光期間の開始又は終了のタイミング等の露光期間の中心とずれたものであると、その姿勢を基準とした露光時間内の揺れの方向が偏ることになり、にじみが目立ちやすい。さらに、CMOSのローリングシャッターではラインごとに露光期間が異なる。
 そこでステップST14の同期処理では、画像データの各フレームについて、ライン毎の露光重心のタイミングを基準としてクオータニオンQDを取得するようにする。
 図12には、撮像装置1の垂直期間の同期信号cVと、この同期信号cVから生成されるイメージセンサ12aの同期信号sV、及びIMUデータのサンプルタイミングを示すとともに、露光タイミング範囲120を示している。
 露光タイミング範囲は、ローリングシャッター方式で露光時間t4としたときの1フレームの各ラインの露光期間を平行四辺形で模式的に示したものである。さらに同期信号cVと同期信号sVの時間的なオフセットt0、IMUサンプルタイミングオフセットt1、読み出し開始タイミングt2、読み出し時間(幕速)t3、露光時間t4を示している。なお読み出し開始タイミングt2は同期信号sVから所定時間t2ofを経たタイミングとなる。
 各IMUサンプルタイミングで得られる各IMUデータについてはフレームに紐づけられる。例えば期間FH1におけるIMUデータは平行四辺形で露光期間を示した現フレームに紐付いたメタデータとされ、期間FH1におけるIMUデータは次のフレームに紐付いたメタデータとされる。但し図10のステップST2で全IMUデータを連結することで、各フレームとIMUデータの紐付けを解除し時系列でIMUデータを管理できる状態になっている。
 この場合に、現フレームの各ラインの露光重心(破線Wのタイミング)に相当するIMUデータを特定する。これはIMUデータとイメージセンサ12aの有効画素領域との時間的な関係がわかれば計算できる。
 そこで当該フレーム(#FN)に対応するタイミング情報TMとして取得できる情報を用いて、各ラインの露光重心(破線Wのタイミング)に相当するIMUデータを特定する。
 即ち露光時間、露光開始タイミング、読み出し時間、露光フレーム数、IMUサンプルオフセット、フレームレートの情報である。
 そして露光重心のIMUデータから計算されたクオータニオンQDを特定し、ライン毎の姿勢情報であるクオータニオンQD(#LN)とする。
 このクオータニオンQD(#LN)はステップST15の揺れ情報調整の処理に提供される。
 揺れ情報調整では、CPU71は入力された揺れ変更パラメータPRMに従ってクオータニオンQDを調整する。
 揺れ変更パラメータPRMは、ユーザ操作に応じて入力されるパラメータであったり、自動制御によって発生されるパラメータであったりする。
 ユーザは、画像に任意の揺れ具合を付加するように揺れ変更パラメータPRMの入力を行うことができる。またCPU71は、画像解析や画像種別、或いはユーザの揺れのモデルの選択操作などに応じて自動制御により揺れ変更パラメータPRMを発生することができる。
 具体的には、ステップST15でCPU71は、撮像時揺れ情報であるクオータニオンQDに基づいて、画像に揺れを付加したり、揺れの量を増減させたりするための調整後クオータニオンeQDを生成する。
 具体的な調整後クオータニオンeQDの生成例を図13,図14,図15で説明する。
 図13は揺れ変更パラメータPRMによる周波数帯域別ゲインの指示に応じて調整後クオータニオンeQDを生成する例である。
 周波数帯域とは揺れの周波数の帯域である。説明上、ローバンド、ミドルバンド、ハイバンドの3つの帯域に分けるとする。もちろんこれは一例にすぎず帯域数は2以上であればよい。
 低域用ゲインLG、中域用ゲインMG、高域用ゲインHGが、揺れ変更パラメータPRMとして与えられる。
 図13の調整処理系としては、低域通過フィルタ41,中域通過フィルタ42,高域通過フィルタ43、ゲイン演算部44,45,46、合成部47を有する。
 この調整処理系には「揺らすためのクオータニオンQDs」を入力する。これは撮像時揺れ情報としてのクオータニオンQDの共役である。
 揺らすためのクオータニオンQDsとしての現在フレーム及び前後の所定フレームについての各値qを低域通過フィルタ41に入力し、低域成分qlowを求める。
Figure JPOXMLDOC01-appb-M000001
 この低域成分qlowに対してゲイン演算部44で低域用ゲインLGを与える。
 なお、式中のmean(q,n)は、qの前後n個の平均値を示す。
 また揺らすためのクオータニオンQDsの値qを中域通過フィルタ42に入力し、中域成分qmidを求める。
Figure JPOXMLDOC01-appb-M000002
 なお、q* lowはqlowの共役である。
 また“×”はクオータニオン積である。
 この中域成分qmidに対してゲイン演算部45で中域用ゲインMGを与える。
 また揺らすためのクオータニオンQDsの値qを高域通過フィルタ43に入力し、高域成分qhighを求める。
Figure JPOXMLDOC01-appb-M000003
 なお、q* midはqmidの共役である。
 この高域成分qhighに対してゲイン演算部46で高域用ゲインHGを与える。
 これらのゲイン演算部44,45,46は、入力を“qin”とする。
Figure JPOXMLDOC01-appb-M000004
 この場合にθ’=θ*gainとして、次の“qout”を出力する。
(但しgainは、低域用ゲインLG、中域用ゲインMG、高域用ゲインHG) 
Figure JPOXMLDOC01-appb-M000005
 このようなゲイン演算部44,45,46により、それぞれ低域用ゲインLG、中域用ゲインMG、高域用ゲインHGが与えられた低域成分qlow、中域成分qmid、高域成分qhighが得られる。これを合成部47で合成した値qmixedを得る。
Figure JPOXMLDOC01-appb-M000006
 なお“×”はクオータニオン積である。
 このように求められた値qmixedが調整後クオータニオンeQDの値となる。
 なお以上は帯域分割した例であるが、帯域分割せずに揺れ変更パラメータPRMに応じたゲインを与えるという調整後クオータニオンeQDの生成手法も考えられる。
 次に図14は揺れ変更パラメータPRMによる方向別ゲインの指示に応じて調整後クオータニオンeQDを生成する例である。
 方向とは揺れの方向であり、即ち、ヨー、ピッチ、ロールの方向である。
 ヨー用ゲインYG、ピッチ用ゲインPG、ロール用ゲインRGが、揺れ変更パラメータPRMとして与えられる。
 図14の調整処理系としては、ヨー成分抽出部51,ピッチ成分抽出部52,ロール成分抽出部53、ゲイン演算部54,55,56、合成部57を有する。
 ヨー成分抽出部51,ピッチ成分抽出部52,ロール成分抽出部53には、それぞれヨー軸(Yaw axis)、ピッチ軸(Pitch axis)、ロール軸(Roll axis)の情報が提供される。
 揺らすためのクオータニオンQDsとしての現在フレーム及び前後の所定フレームについての各値qをヨー成分抽出部51,ピッチ成分抽出部52,ロール成分抽出部53にそれぞれ入力し、ヨー成分qyaw、ピッチ成分qpitch、ロール成分qrollを求める。
 これら各成分抽出処理は、入力を次の“qin”とする。
Figure JPOXMLDOC01-appb-M000007
 uは、ヨー軸、ピッチ軸、ロール軸等の軸の方向を表す単位ベクトルである。
 この場合にθ’=θ*(a・u)として、次の“qout”を出力する。
Figure JPOXMLDOC01-appb-M000008
 そしてこのような成分抽出により得られたヨー成分qyaw、ピッチ成分qpitch、ロール成分qrollについては、ゲイン演算部54,55,56により、それぞれヨー用ゲインYG、ピッチ用ゲインPG、ロール用ゲインRGを与える。
 そしてゲイン演算を施したヨー成分qyaw、ピッチ成分qpitch、ロール成分qrollを合成部47で合成した値qmixedを得る。
Figure JPOXMLDOC01-appb-M000009
 なお、この場合の“×”もクオータニオン積である。
 このように求められた値qmixedが調整後クオータニオンeQDの値となる。
 図15は以上の周波数帯域別と方向別を組み合わせた例である。
 調整処理系としては、低域通過フィルタ41,中域通過フィルタ42,高域通過フィルタ43、方向別処理部58,59,60、ゲイン演算部44,45,46、合成部61を有する。
 揺れ変更パラメータPRMによっては、低域用ゲインLG、中域用ゲインMG、高域用ゲインHG、及び図示していないヨー用ゲインYG、ピッチ用ゲインPG、ロール用ゲインRGが与えられる。
 この調整処理系では、揺らすためのクオータニオンQDsとしての現在フレーム及び前後の所定フレームについての各値qを低域通過フィルタ41,中域通過フィルタ42,高域通過フィルタ43に供給してそれぞれの帯域成分を得る。各帯域成分は、方向別処理部58,59,60に入力される。
 方向別処理部58,59,60は、それぞれが図14のヨー成分抽出部51,ピッチ成分抽出部52,ロール成分抽出部53、ゲイン演算部54,55,56、合成部57を有するものとする。
 即ち、方向別処理部58では、揺らすためのクオータニオンQDsの低域成分に対して、ヨー方向、ロール方向、ピッチ方向の成分に分け、ヨー用ゲインYG、ピッチ用ゲインPG、ロール用ゲインRGを用いてゲイン演算を行った後、合成する。
 方向別処理部59では、揺らすためのクオータニオンQDsの中域成分に対して、ヨー方向、ロール方向、ピッチ方向の成分に分けて同様にゲイン演算を行った後、合成する。
 方向別処理部60では、揺らすためのクオータニオンQDsの高域成分に対して、ヨー方向、ロール方向、ピッチ方向の成分に分けて同様にゲイン演算を行った後、合成する。
 これらの方向別処理部58,59,60の出力はそれぞれゲイン演算部44,45,46に供給され、それぞれ低域用ゲインLG、中域用ゲインMG、高域用ゲインHGが与えられる。そして合成部61で合成され、調整後クオータニオンeQDの値として出力される。
 以上の図15の例では、先に周波数帯域別に分けた後、それぞれの帯域成分毎に方向別の処理を適用したが、逆でもよい。即ち先に方向別に分けた後、それぞれの方向成分毎に周波数帯域別の処理を適用するようにしてもよい。
 図10のステップST15では、例えば以上のような処理例によって調整後クオータニオンeQDが生成される。
 そして生成された調整後クオータニオンeQDはステップST16の揺れ変更処理に提供される。
 ステップST16の揺れ変更とは、例えば図13,図14,図15の処理で得られる調整後クオータニオンeQDを、揺れが止まった状態の画像に適用して揺れを付加するものと考えることができる。
 CPU71はステップST16の揺れ補正では、ステップST13でフレームの画像が貼り付けられた天球モデルMTの画像を、ライン毎に調整後クオータニオンeQD(#LN)を用いて回転させることで、揺れを付加するようにする。揺れ変更済天球モデルhMTの画像は、ステップST18の処理に送られる。
 そしてステップST18でCPU71は、揺れ変更済天球モデルhMTの画像を平面に投影し、切り出すことで、揺れ変更がなされた画像(出力画像データoPD)が得られる。
 この場合、天球モデルMTの回転により揺れ変更が実現されているとともに、天球モデルMTを用いることで、どこを切り出しても台形状にならないため結果として台形歪みも解消されていることになる。また上述のように天球モデルMTは理想的なピンホールカメラで見える範囲が天球面に貼ってあるものとなっているためレンズ歪みもない。天球モデルMTの回転がライン毎のクオータニオンQD(#LN)に基づく調整後クオータニオンeQD(#LN)に応じて行われることで、フォーカルプレーン歪み補正も解消されている。
 さらにクオータニオンQD(#LN)が各ラインの露光重心に対応するものであることで、ブラーが目立たない画像となっている。
 ステップST18で平面投影された後の画像と天球モデルMTの対応付けは次のようになる。
 図16Aは、平面投影する矩形の座標平面131の一例を示している。平面投影される画像の各座標を(x,y)とする。
 図16Bに示すように座標平面131を、天球モデルMTの真上に真ん中で接するように3次元空間上に配置(正規化)する。即ち、その座標平面131の中心が天球モデルMTの中心と一致し、かつ天球モデルMTと接する位置に配置されるようにする。
 この場合、ズーム倍率や切り出し領域のサイズに基づいて座標を正規化する。例えば図16Aのように座標平面131の水平座標を0乃至outhとし、垂直座標を0乃至outvとする場合、outhおよびoutvが画像サイズとされる。そして例えば、次の式により座標を正規化する。
Figure JPOXMLDOC01-appb-M000010
 上記(数10)において、min(A、B)は、AおよびBのうち値が小さい方を返す関数である。また、「zoom」は、拡大縮小を制御するためのパラメータである。
 またxnorm、ynorm、znormは、正規化したx、y、z座標である。
 上記(数10)の各式により、座標平面131の座標は、半径1.0の半球の球面上の座標に正規化される。
 切り出し領域の向きを求めるための回転は図17Aのように、座標平面131を回転行列演算により回転させる。即ち下記(数11)の回転行列を使用し、パン角、チルト角およびロール角で回転させる。ここではパン角は、座標をz軸周りに回転させる回転角度である。また、チルト角は、座標をx軸周りに回転させる回転角度であり、ロール角は、y軸周りに回転させる回転角度である。
Figure JPOXMLDOC01-appb-M000011
 上記(数11)において、「Rt」はチルト角、「Rr」はロール角、「Rp」はパン角である。また、(xrot、yrot、zrot)は回転後の座標である。
 この座標(xrot、yrot、zrot)を透視射影での天球対応点算出に用いる。
 図17Bのように、座標平面131を、天球表面に透視射影する(領域132)。即ち座標から天球の中心に向かって直線を引いた時に球面と交差する点を求めることになる。各座標は、以下のように計算される。
Figure JPOXMLDOC01-appb-M000012
 (数12)において、xsph、ysph、zsphは座標平面131上の座標を天球モデルMTの表面上の座標に射影した座標である。
 この関係で平面投影された画像データが得られる。
 例えば以上のような手法で平面に投影された画像についての切り出し領域が、図10のステップST17で設定されることになる。
 ステップST17では、画像解析(被写体認識)によるトラッキング処理や、ユーザ操作に応じた切り出し領域指示情報CRCに基づいて、現在のフレームにおける切り出し領域情報CRAが設定される。
 例えば図18A、図18Bに、或るフレームの画像について設定された切り出し領域情報CRAを、枠の状態で示している。
 このような切り出し領域指示情報CRCがフレーム毎に設定される。
 なお、切り出し領域情報CRAは、ユーザや自動制御による画像のアスペクト比の指示も反映される。
 切り出し領域情報CRAはステップST18の処理に反映される。即ち上記のように天球モデルMT上で切り出し領域情報CRAに応じた領域が平面投影されて出力画像oPDが得られる。
 このように得られた出力画像oPDは、ステップST16で揺れ変更処理が施された画像データである。
 図10の処理が毎フレーム行われることで、出力画像oPDを再生表示すると、揺れ演出として揺れが付加された画像が表示されることになる。従ってユーザが揺れ変更パラメータPRMの入力のための操作を行った場合、ユーザの意思に応じた揺れ演出が加えられた画像となる。このような画像データが、揺れ演出された画像として表示されたり保存されたりする。
 ここで本実施の形態では、例えばステップST20として関連付け記録/再生が行われる。例えばCPU71はフレーム毎に関連付け記録(例えば図5の記憶部79やリムーバブル記録媒体81に記録)を行い、また必要時にそれらを再生/転送出力させることができる。
 フレーム毎の関連付け記録処理としては、例えば、フレーム単位の画像データに対して、撮像時揺れ情報と、揺れ変更情報SMIが関連付けられて記録される。
 まずフレーム単位の画像データとして、ステップST12でCPU71は撮像装置内部補正がキャンセルされた画像データiPDの記録処理を行う。つまり撮像装置1での揺れ除去がキャンセルされて、撮像時の手ぶれ等の揺れの影響がそのまま現れている画像データである。
 またCPU71は、この画像データiPDに関連付けられる撮像時揺れ情報として、そのフレームについてのクオータニオンQD、タイミング情報TM、カメラパラメータCPの記録処理を行う。
 図19に画像ソースVSから画像処理装置TDxに供給されたメタデータMTD1と、画像処理装置TDxが画像処理装置TDyに供給するメタデータMTD2を示しているが、このメタデータMTD2に相当する情報が撮像時揺れ情報として、画像データiPDのフレーム毎に関連づけられる。
 さらにCPU71は、画像データiPDに関連付けられる揺れ変更情報SMIとして、揺れ変更パラメータPRMの記録処理を行う。或いは揺れ変更パラメータPRMに代えて、もしくは揺れ変更パラメータPRMとともに、調整後クオータニオンeQDを記録するようにしてもよい。
 このように関連付けて記録した各フレームの画像データiPD、撮像時揺れ情報(メタデータMTD2)、及び揺れ変更情報SMIは、外部機器に転送されて利用可能とされる。
 図2には画像処理装置TDxから画像処理装置TDyに画像データVD2、メタデータMTD2、揺れ変更情報SMIを伝送することを示したが、この図10の例の場合、画像データVD2は、画像データiPDにより構成される画像データとなる。またメタデータMTD2は図19に示す内容として撮像時揺れ情報を示すものとなる。揺れ変更情報SMIは画像データiPDに対して行った揺れ演出の処理量を示す情報となる。
 このような画像データVD2、メタデータMTD2、揺れ変更情報SMIを取得した画像処理装置TDyの処理例を図20に示す。
 なお以降、既述の処理と同様の処理については同一のステップ番号を付して処理内容の重複説明を避ける。
 図20は例えば画像処理装置TDyで行われる定常処理を示している。
 この場合、ステップST20の関連付け記録/再生処理としては、画像処理装置TDxから伝送されてきた情報の再生が行われるものとする。
 即ちステップST20の関連付け記録/再生処理とは、例えば画像処理装置TDxから伝送されてきた情報(画像データVD2、メタデータMTD2、揺れ変更情報SMI)が、画像処理装置TDyとして機能する図5の情報処理装置70の記憶部79やリムーバブル記録媒体81に記録された状態とされており、それらから逐次読み出される処理であるとする。
 画像処理装置TDyとして機能する情報処理装置70のCPU71は、ステップST20の処理として、フレーム毎に画像データpPDを読み出す。画像データpPDとは、ステップST20で記録媒体から再生される画像データを指すものとしている。
 画像処理装置TDxが図10の処理を行った場合、再生される画像データpPDは、図10で説明した画像データiPDとなる。
 またCPU71はステップST20の処理として、ステップST13での天球モデルMTへの貼り付けのために現在の再生フレームの画像データpPDに対応するカメラパラメータCPを読み出す。
 またCPU71はステップST20の処理として、ステップST14の同期処理のために現在の再生フレームの画像データpPDに対応するクオータニオンQD及びタイミング情報TMを読み出す。
 さらにCPU71はステップST20の処理として、ステップST15の揺れ情報調整のために現在の再生フレームの画像データpPDに対応する揺れ変更情報SMIを読み出す。
 CPU71は、ステップST13の処理として、再生したカメラパラメータCPを参照して再生した画像データpPDを天球モデルへ貼り付ける。
 CPU71はステップST14の処理として、再生した画像データpPDに対応するクオータニオンQD及びタイミング情報TMにより同期処理を行う。
 CPU71はステップST15の処理として、再生した揺れ変更情報SMI、及び入力された揺れ変更パラメータPRMを用いてクオータニオンQDを調整し、調整後クオータニオンeQDを生成する。
 CPU71はステップST16の処理として、調整後クオータニオンeQDを用いて、天球モデルMTに貼り付けた画像データpPDを回転させ、揺れ変更処理を行う。
 CPU71はステップST18として、揺れ変更された画像を切り出し領域情報CRAに応じて切り出し、平面投影して、出力画像データoPDを生成し、出力する。
 このような各処理を行う画像処理装置TDyでは次のような動作が可能となる。
・過去に画像処理装置TDxで施された揺れ演出の再現
 ステップST15では、画像処理装置TDxでの揺れ変更情報SMI(例えば揺れ変更パラメータPRM)を反映して調整後クオータニオンeQDを生成できる。従って画像処理装置TDyのCPU71は、ステップST16で、過去に画像処理装置TDxで行われた揺れ変更と同じ揺れ変更処理を行うことができ、そのような出力画像データoPDを得て、表示させたり記録させたりすることができる。
・新規な揺れ演出の付加
 処理対象として再生される画像データpPD(画像データiPD)は、画像処理装置TDxでの揺れ変更が施されていない画像データである。従って、画像処理装置TDyにおいてユーザ操作や自動制御により揺れ変更パラメータPRMが入力され、それに応じた調整後クオータニオンeQDが生成されることで、ステップST16では、過去の揺れ変更に影響を受けない画像処理装置TDyのみの揺れ変更処理を行うことができ、そのような出力画像データoPDによる画像を表示させたり記録させたりすることができる。
・過去に画像処理装置TDxで施された揺れ演出の調整や修正
 ステップST15では、画像処理装置TDxでの揺れ変更情報SMI(例えば揺れ変更パラメータPRM)と、新たにユーザ操作や自動制御により入力する揺れ変更パラメータPRMの両方を反映させて調整後クオータニオンeQDを生成することができる。
 従って画像処理装置TDyのCPU71は、例えば画像処理装置TDxで行われた揺れ変更による画像の揺れ具合を、画像処理装置TDyのユーザが揺れ変更パラメータPRMを調整したり一部変更したりすることに応じて変化させることができる。そしてそのような出力画像データoPDによる画像を表示させたり記録させたりすることができる。
 また画像処理装置TDyにおいて揺れ変更を行った場合、その情報も、関連付けられるようにすることが考えられる。
 図21には揺れ変更情報SMIの更新を示している。
 CPU71は、ステップST15で揺れ変更パラメータPRMが新たに入力され、揺れの変更に反映された場合、図21のステップST20の関連付け記録/再生の処理として、揺れ変更情報SMIを更新する処理を示している。
 つまり各フレームの画像データVD2(iPD)、撮像時揺れ情報(メタデータMTD2)に関連付けられている、揺れ変更情報SMIを、今回用いられた揺れ変更情報SMIに更新する。
 このようにすることで、当該関連付けられた情報群を取得した他の画像処理装置では、画像処理装置TDyで行われた揺れ変更を再現したり、修正したりすることができるようになる。
 なお、図21において破線で示すように、ステップST17の切り出し領域情報CRAに関する情報も、関連付けられて記録されるようにすることも考えられる。例えばアスペクト比の情報を関連付けておく。これによりアスペクト比の指定情報も、その後の画像再生時や揺れ演出の付加の際などにも反映させることができる。
 もちろん図10の画像処理装置TDxでの処理においてもアスペクト比等の切り出し領域情報CRAを記録してもよい。
<5.第2の実施の形態>
 第2の実施の形態としての画像処理装置TDx、TDyとなる情報処理装置70の処理例を説明する。
 第2の実施の形態は、画像ソースVS(例えば撮像装置1)で揺れ除去が行われていない画像データVD1が画像処理装置TDxに供給される例とする。
 このため図2のように画像ソースVSから画像処理装置TDxに供給されるメタデータMTD1としては図22に示すようになる。
 図22に示すメタデータMTD1としては、IMUデータ、タイミング情報TM、カメラパラメータCPが含まれている。但し揺れ除去(例えば手ぶれ補正)が行われていないため、座標変換パラメータHP(図8参照)は含まれていない。
 図23は先の図10と同様に画像処理装置TDxとしての情報処理装置70において実行される各種処理の手順を示すとともに、各処理で用いる情報の関係性を示している。なお、既述の処理に関しては同一のステップ番号を付し説明を省略する。
 図23の処理は基本的には図10と同様となるが、この図23の処理では撮像装置内部補正キャンセルの処理(図10のステップST12)は行われない。撮像装置1で揺れ除去が行われないためである。
 そして、ステップST20の関連付け記録/再生の処理で記録される画像データは、ステップST11で抽出される画像データPDとなる。
 フレーム毎の関連付け記録処理としては、このフレーム単位の画像データPDに対して、撮像時揺れ情報と、揺れ変更情報SMIが関連づけられて記憶される。
 即ちCPU71は、画像データPDに関連付けられる撮像時揺れ情報として、そのフレームについてのクオータニオンQD、タイミング情報TM、カメラパラメータCPの記録処理を行う。図22におけるメタデータMTD2が、この撮像時揺れ情報の内容となる。
 さらにCPU71は、画像データPDに関連付けられる揺れ変更情報SMIとして、揺れ変更パラメータPRMの記録処理を行う。或いは揺れ変更パラメータPRMに代えて、もしくは揺れ変更パラメータPRMとともに、調整後クオータニオンeQDを記録するようにしてもよい。
 このように関連付けて記録した各フレームの画像データPD、撮像時揺れ情報、及び揺れ変更情報SMIは、外部機器に転送されて利用可能とされる。
 図2には画像処理装置TDxから画像処理装置TDyに画像データVD2、メタデータMTD2、揺れ変更情報SMIを伝送することを示したが、この図23の例の場合、画像データVD2は、画像データPDにより構成される画像データとなる。またメタデータMTD2は図22に示す内容として撮像時揺れ情報を示すものとなる。揺れ変更情報SMIは画像データPDに対して行った揺れ演出の処理量を示す情報となる。
 このような画像データVD2、メタデータMTD2、揺れ変更情報SMIを取得した画像処理装置TDyの処理は、第1の実施の形態で説明したものと同様に行われる。
<6.第3の実施の形態>
 第3の実施の形態としての画像処理装置TDx、TDyとなる情報処理装置70の処理例を説明する。
 図24は、図10と同様に画像処理装置TDxとしての情報処理装置70において実行される各種処理の手順及び各処理で用いる情報の関係性を示している。
 この図24は図7の機能構成による一例となる。
 図7の揺れ変更部100の機能によっては、少なくともステップST16の処理が行われる。ただし、ステップST11,ST12,ST13,ST14,ST17,ST18についても揺れ変更部100の処理と考えることもできる。
 また揺れ情報調整部101の機能によっては、ステップST15の処理が行われる。
 また関連付け部102の機能によっては、ステップST20の処理が行われる。
 第1の実施の形態と異なる点は、ステップST20の関連付け記録/再生の処理で記録する画像データが、ステップST16で揺れ除去が行われた画像データrPDとなることである。
 そしてこのために、ステップST16の揺れ変更処理では、図7に示した揺れ演出部100aの機能による揺れ演出と、揺れ除去部100bの機能による揺れ除去が行われるようにする。
 まず、揺れ演出を行う場合の処理は図10と同様になる。即ちステップST15で揺れ情報調整が行われ、ステップST16で調整後クオータニオンeQDを用いて揺れ変更処理が行われる。そしてその画像がステップST18で平面投影及び切り出しされ、出力画像データoPDとされる。従って揺れ演出を施した画像が表示されたり保存されることが可能となる。
 一方、ステップST20の関連付け記録/再生の処理のために、ステップST16で揺れ除去が行われる。即ちクオータニオンQDに基づいて天球モデルMTが回転され、撮像時に生じた揺れを除去するように揺れ除去が行われる。この画像がステップST18で平面投影及び切り出しされ、画像データrPDとされ、この画像データrPDの各フレームが関連付け記録/再生の処理で記憶される。
 また揺れ除去がなされた画像データrPDに対応して、各フレームについてのクオータニオンQD、タイミング情報TM、カメラパラメータCPの記録処理を行う。即ち図19におけるメタデータMTD2が撮像時揺れ情報の内容となる。
 さらにCPU71は、画像データPDに関連付けられる揺れ変更情報SMIとして、揺れ変更パラメータPRMの記録処理を行う。或いは揺れ変更パラメータPRMに代えて、もしくは揺れ変更パラメータPRMとともに、調整後クオータニオンeQDを記録するようにしてもよい。
 但しこれは、揺れ演出の処理のためのパラメータとなる。つまり、揺れ演出部100aの機能による処理に用いた揺れ変更情報SMIが、揺れ除去部100bの機能で揺れ除去された画像データrPDの各フレームに対して関連付けられて記録されることになる。
 なお、ステップST16の揺れ変更処理として、揺れ演出の処理と揺れ除去の処理は同時に行われてもよいし、異なる時点で行われてもよい。
 同時に行われる場合、ステップST16では、図7に示したように、揺れ演出部100aの機能と揺れ除去部100bの機能が同時並列的に処理を実行する。
 その場合、天球モデルMTを2つ用意し、一方では調整後クオータニオンeQDに基づいて揺れ演出のための画像の回転や切り出しが行われる。他方の天球モデルMTに対しては、ステップST15の揺れ情報調整処理をバイパスしたクオータニオンQDが供給され、揺れ演出のための画像の回転や切り出しが行われる。
 これにより揺れ演出が加えられた出力画像データoPDとともに揺れ除去された画像データrPDが得られる。そこで画像データrPDを、撮像時揺れ情報及び出力画像データoPDに用いた揺れ変更情報SMIと関連づけてステップST20で記録する。
 またステップST16の揺れ変更処理として、揺れ演出の処理と揺れ除去の処理が異なる時点で行われる場合、まず、揺れ演出のための処理を図10で説明した第1の実施の形態と同様に行う。
 それとは別の時点で、揺れ除去を行いながら、揺れ除去された画像データrPDをステップST20の処理で記録していく。この場合の揺れ除去部100bの処理に関しても、ステップST15の揺れ情報調整処理をバイパスしたクオータニオンQDが供給されるようにすればよい。或いはステップST15の揺れ情報調整処理で全てのパラメータ(例えばゲイン演算部44,45,46やゲイン演算部54,55,56)のゲイン値を“1”とした状態で調整後クオータニオンeQD(つまり実質的には元のクオータニオンQD)が得られるようにしてもよい。
 このようにして得られた揺れ除去された画像データrPDを、撮像時揺れ情報、及び別の時点で揺れ演出の処理のために用いた揺れ変更情報SMIと関連づけて記録する。
 揺れ変更情報については、揺れ演出の処理を行った際に、各フレームについて予め記録しておくことも考えられるし、最新の揺れ変更パラメータPRMを別途記憶しておいて、画像データrPDの記録の際に関連づけて記録してもよい。
 なお、揺れ除去された画像データrPDとともに、揺れ変更処理を行う前の画像データ(撮像時の揺れ除去をキャンセルした画像データ)iPD又はPDを関連づけて保存してもよい。
 さらに揺れ除去された画像データrPDとともに、揺れ変更処理を行った後の出力画像データoPDを関連づけて保存してもよい。
 このような揺れ除去された画像データrPDとしての画像データVD2と、メタデータMTD2及び揺れ変更情報SMIを取得した画像処理装置TDyの処理例を図25に示す。
 先に図20で述べた画像処理装置TDyの処理と基本的には同様であるが、ステップST13の天球モデルMTへの貼付の処理に供される、再生される画像データpPDは、撮像時の揺れが除去された画像データとなる。
 この場合、画像処理装置TDyでは第1の実施の形態で説明したものと同様の処理が可能となる。
 またこの図25では、破線により、この画像処理装置TDyで行われた揺れ変更情報SMI’(揺れ変更パラメータPRM、或いは調整後クオータニオンeQD)をステップST20の関連付け記録/再生の処理で関連づけて記録する例を示した。
 例えば、揺れ除去された画像データrPD、撮像時揺れ情報、画像処理装置TDxでの揺れ演出に係る揺れ変更情報SMIが既に関連づけられているが、それに加えて画像処理装置TDyでの揺れ演出に係る揺れ変更情報SMI’も関連づけて記録する。
 このように、それぞれの画像処理装置TDx、TDy・・・で行われる揺れ演出に係る揺れ変更情報SMI’が関連づけられて追加されることで、さらに後に処理を行う画像処理装置では、過去に複数回行われた揺れ演出をそれぞれ再現することができるようになる。
 ところで図25では揺れ変更処理を行うことができる画像処理装置TDyの処理としたが、画像処理装置TDxから画像データが供給される装置は、揺れ変更の処理を行う機能を有さないものもある。
 このような場合を考慮すると、揺れ除去された画像データrPDが記録され、他の機器に供給されるようにすることによれば、揺れ除去等の揺れ変更の機能を有さない装置でも、揺れが除去された動画を再生することができるという点で有用である。
<7.第4の実施の形態>
 第4の実施の形態の処理例を図26で説明する。
 図26は第2の実施の形態と同じく、画像ソースVS(例えば撮像装置1)で揺れ除去が行われていない画像データVD1が画像処理装置TDxに供給される例とする。
 このため図2のように画像ソースVSから画像処理装置TDxに供給されるメタデータMTD1としては図27に示すようになる。つまり撮像時に揺れ除去(例えば手ぶれ補正)が行われていないため、座標変換パラメータHP(図8参照)は含まれていない。
 また従って図26の処理例としては、撮像装置内部補正キャンセルの処理(図10のステップST12)は行われない。
 そして、ステップST120の関連付け記録/再生の処理で記録される画像データは、ステップST11で抽出される画像データPDとなる。
 また図26では、第3の実施の形態で説明したように、揺れ除去がなされた画像データrPDが関連付け記録/再生の処理で記録されるものとしている。
 この第4の実施の形態では、ステップST21として、ステップST4で求めたクオータニオンQDをXYシフト・回転の情報に変換して保持する処理を行う点が、これまでの例と異なる。
 即ち、姿勢情報であるクオータニオンQDを、揺れのXYシフト・回転の情報に変換する。X方向とY方向は、撮像装置1の光軸方向をZ方向としたときに、このZ方向と直交する面を構成する平面の横及び縦である。即ち画像の水平方向と垂直方向である。回転の情報とは、ヨー軸に対する回転、ピッチ軸に対する回転、ロール軸に対する回転の情報である。従ってXYシフト・回転の情報とは、X方向シフト、Y方向シフト、ヨー軸回転、ピッチ軸回転、ロール軸回転の情報を含む。
 なお、簡易的には、これらに全てではなく、いずれか1つ以上が含まれるようにしてもよい。またZ軸シフトの情報を加えてもよい。
 このXYシフト・回転の情報を求め、これをステップST20で画像データrVDの各フレームに関連づけて記録するようにする。即ちXYシフト・回転としての変化の情報をクオータニオンQDに代わる撮像時揺れ情報として記録する。
 従って、画像処理装置TDxが画像処理装置TDyに伝送するメタデータMTD2は図27のようにシフト・回転情報SFROを含むものとなる。
 揺れ変更する際、天球モデルMTを用いるアプリケーションプログラムは、システムリソースを比較的多く必要とする。そこでシステムリソースが潤沢でない画像処理装置TDyにおいて揺れ変更処理を行う場合を想定すると、クオータニオンQDの提供ではシステム負担が大きいことがある。そこで、クオータニオンQDに代えてXYシフト・回転情報を画像処理装置TDyに提供するようにする。これにより画像処理装置TDyにおいて少ない処理負担で揺れ変更が行われるようにすることができる。例えば画像処理装置TDyとして携帯端末2等を想定した場合に好適となる。
 なお、図26の処理ではカメラパラメータCPはステップST20の関連付け記録/再生の処理に提供されない。従って図27のようにメタデータMTD2にはカメラパラメータCPは含まれていない。
 カメラパラメータCPは天球モデルMTへの貼付に用いる情報であるため、天球モデルMTを用いない処理を画像処理装置TDyに実行させる場合には不要となるためである。
<8.第5の実施の形態>
 第5の実施の形態の処理例を図28、図29、図30で説明する。
 図28に画像処理装置TDxの処理例を示す。これは揺れ情報調整部101の機能による揺れ情報調整の処理が、前処理の時点におけるステップST30として行われる例である。
 ステップST30でCPU71は、IMUデータを、ユーザ操作又は自動制御による揺れ調整パラメータPRMに基づいて調整し、調整後IMUデータeIMUを求める。
 角速度センサのデータ、ヨー、ピッチ、ロールをそれぞれそのまま揺れ変更の方向に割り当てることができる。
 ステップST4でCPU71は、調整後IMUデータeIMUからクオータニオンQDを求め、保持する。
 つまり、クオータニオンQDが求められる前のIMUデータについて揺れ演出のための調整を施すことで、その調整後IMUデータeIMUから求められるクオータニオンQDは、既に揺れ演出のための姿勢情報となっているようにするものである。
 定常処理の際には、このクオータニオンQDが用いられてステップST14の同期処理、ステップST16の揺れ変更処理が行われる。
 これにより出力画像データoPDは、揺れ変更パラメータPRMによる揺れ演出が反映された画像となる。
 ステップST20の関連付け記録処理としては、フレーム単位の画像データiPDに対して、撮像時揺れ情報と、揺れ変更情報SMIが関連付けられて記憶される。
 即ちCPU71は、画像データiPDに関連付けられる撮像時揺れ情報として、そのフレームについてのIMUデータ、タイミング情報TM、カメラパラメータCPの記録処理を行う。図29におけるメタデータMTD2が、この撮像時揺れ情報の内容となる。
 さらにCPU71は、画像データPDに関連付けられる揺れ変更情報SMIとして、揺れ変更パラメータPRMの記録処理を行う。或いは揺れ変更パラメータPRMに代えて、もしくは揺れ変更パラメータPRMとともに、調整後IMUデータeIMUを記録するようにしてもよい。
 このように関連付けて記録した各フレームの画像データPD、撮像時揺れ情報、及び揺れ変更情報SMIは、外部機器に転送されて利用可能とされる。
 これらを取得した画像処理装置TDyの処理例を図30に示す。
 なお図30におけるステップST20の関連付け記録/再生処理とは、例えば画像処理装置TDxから伝送されてきた情報(画像データVD2、メタデータMTD2、揺れ変更情報SMI)が、画像処理装置TDyとして機能する図5の情報処理装置70の記憶部79やリムーバブル記録媒体81に記録された状態とされ、それらから逐次読み出される処理であるとする。
 図30における前処理として、例えばステップST30の揺れ情報調整と、ステップST4のクオータニオンQDへの変換/保持が行われる。
 この場合、画像処理装置TDyのCPU71はステップST20の処理として、ステップST30の揺れ情報調整のために、画像の各フレームの揺れ変更情報SMI、即ちIMUデータを読み出す。
 またPU71はステップST20の処理として、ステップST30の揺れ情報調整に用いることができる揺れ変更情報SMIを読み出す。
 再生されたIMUデータは、この画像処理装置TDyにおいてステップST30で入力される揺れ変更パラメータPRMに基づいて調整され、調整後IMUデータeIMUとされる。或いは再生されたIMUデータは揺れ変更情報SMIに基づいて調整され、調整後IMUデータeIMUとされるようにすることもできる。
 そしてCPU71はステップST4で、調整後IMUデータeIMUをクオータニオンQDに変換して保持する。
 このようにしておくことで定常処理において、既に揺れ演出のためのクオータニオンQDが用意された状態となる。
 なお、以上のステップST30,ST4の処理は、定常処理の際に並列的に行われるようにしてもよい。
 画像処理装置TDyでは定常処理として次のような処理が行われる。
 画像処理装置TDyとして機能する情報処理装置70のCPU71は、ステップST20の処理として、フレーム毎に画像データpPDを読み出す。
 画像処理装置TDxが図28の処理を行った場合、再生される画像データpPDは、画像データiPDとなる。
 またCPU71はステップST20の処理として、ステップST13での天球モデルMTへの貼り付けのために現在の再生フレームの画像データpPDに対応するカメラパラメータCPを読み出す。
 またCPU71はステップST20の処理として、ステップST14の同期処理のために現在の再生フレームの画像データpPDに対応するタイミング情報TMを読み出す。
 CPU71は、ステップST13の処理として、再生したカメラパラメータCPを参照して再生した画像データpPDを天球モデルへ貼り付ける。
 CPU71はステップST14の処理として、再生した画像データpPDに対応するクオータニオンQD及びタイミング情報TMにより同期処理を行う。
 CPU71はステップST16の処理として、クオータニオンQDを用いて、天球モデルMTに貼り付けた画像データpPDを回転させ、揺れ変更処理を行う。
 CPU71はステップST18として、揺れ変更された画像を切り出し領域情報CRAに応じて切り出し、平面投影して、出力画像データoPDを生成し、出力する。
 このような各処理を行う画像処理装置TDyでも、第1の実施の形態と処理方式が異なるが、次のような第1の実施の形態と概略同様の動作が可能となる。
・過去に画像処理装置TDxで施された揺れ演出の再現
 ステップST30では、画像処理装置TDxでの揺れ変更情報SMI(例えば揺れ変更パラメータPRM)を反映して調整後IMUデータeIMUを生成できる。従ってステップST4で得られるクオータニオンQDは、過去に画像処理装置TDxで行われた揺れ変更と同じ揺れ変更処理を行うための情報となり、画像処理装置TDyのCPU71は、画像処理装置TDxと同じ揺れ演出を施した出力画像データoPDを得て、表示させたり記録させたりすることができる。
・新規な揺れ演出の付加
 処理対象として再生される画像データpPD(画像データiPD)は、画像処理装置TDxでの揺れ変更が施されていない画像データである。従って、画像処理装置TDyにおいてユーザ操作や自動制御により揺れ変更パラメータPRMが入力され、それに応じた調整後IMUデータeIMUが生成され、さらにクオータニオンQDが生成されることで、ステップST16では、過去の揺れ変更に影響を受けない画像処理装置TDyのみの揺れ変更処理を行うことができ、そのような出力画像データoPDによる画像を表示させたり記録させたりすることができる。
・過去に画像処理装置TDxで施された揺れ演出の調整や修正
 ステップST30では、画像処理装置TDxでの揺れ変更情報SMI(例えば揺れ変更パラメータPRM)と、新たにユーザ操作や自動制御により入力する揺れ変更パラメータPRMの両方を反映させて調整後IMUデータeIMUを生成し、さらにクオータニオンQDを生成することができる。
 従って画像処理装置TDyのCPU71は、例えば画像処理装置TDxで行われた揺れ変更による画像の揺れ具合を、画像処理装置TDyのユーザが揺れ変更パラメータPRMを調整したり一部変更したりすることに応じて変化させることができる。そのような出力画像データoPDによる画像を表示させたり記録させたりすることができる。
 なお、画像処理装置TDyにおいて揺れ変更を行った場合、その情報も、関連付けられるようにすることが考えられる。その場合、各フレームの画像データVD2(iPD)、撮像時揺れ情報(メタデータMTD2)に関連付けられている、揺れ変更情報SMIを、今回用いられた揺れ変更情報SMIに更新する、或いは追加することが考えられる。
 この場合、今回用いられた揺れ変更情報SMIとは、ステップST30で用いられる揺れ変更パラメータPRM、もしくは調整後IMUデータeIMUである。
<9.まとめ及び変形例>
 以上の実施の形態では次のような効果が得られる。
 実施の形態の画像処理装置TDxは、動画を構成する画像データ(入力画像データ)の撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整部101(ステップST15、ST30)を備えている。また画像処理装置TDxは、調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理を行う揺れ変更部100(ステップST16)を備えている。また画像処理装置TDxは画像データと撮像時揺れ情報と揺れ変更処理の処理量が特定できる揺れ変更情報SMIとを関連付ける処理を行う関連付け部102(ステップST20)を備えている。
 画像データVD2(PD、iPD、rPD等)と、撮像時揺れ情報(各実施の形態におけるクオータニオンQD、IMUデータ、シフト・回転データSFROなど))と、揺れ変更情報SMI(各実施の形態における調整後クオータニオンeQD、調整後IMUデータeIMUなど)が関連付けられることで、例えば画像処理装置TDyにおいて、画像処理装置TDxにおける揺れ変更処理により、どのような揺れ変更が行われたかを把握することができる。
 すると画像処理装置TDyにおいて、例えば揺れ演出としての揺れ変更処理をやり直したり、既に施されている揺れ演出の揺れ具合を調整したり、揺れ演出をキャンセルしたりするなどの処理が可能となる。
 また画像処理装置TDyにおいて、画像処理装置TDxで施された揺れ演出をキャンセルしたうえで揺れ除去を施すといったことも可能である。
 即ち、揺れの状態を各画像処理装置で任意且つ多様に変更できるようになる。
 なお互いに関連付けられる、画像データと、撮像時揺れ情報と、揺れ変更情報SMIは、例えば同じファイル内に記録されることが考えられる。例えば動画を構成する画像データ(及び音声データ)とメタデータ、及び揺れ変更情報SMIを含むファイルを構成する。例えば撮像時揺れ情報と、揺れ変更情報SMIは画像データに付随するメタデータとして含まれるようにすることができる。
 但し必ずしも同じファイル等で記録される必要はない。撮像時揺れ情報と揺れ変更情報SMIの一方又は両方は、画像データとは別のデータファイルとされても、画像データの各フレームと後に関連付けができる形態であればよい。即ちどのような記録形態であろうと、あくまでも伝送された先の画像処理装置TDyにおいて、これらを関連づけた状態で取得できるものであればよい。
 また撮像時揺れ情報の例としてクオータニオンQD、IMUデータ、シフト・回転データSFROを挙げたが、撮像時揺れ情報とは、撮像時の撮像装置1の動きを表す情報であればよく、他にも考えられる。
 実施の形態では、揺れ変更部100は、調整後揺れ情報に基づいて画像に揺れ演出を付加する揺れ変更処理を行う例を挙げた。
 例えば画像処理装置TDxにおいてユーザが揺れ演出として揺れ量を指示するような操作を行い、それに応じて揺れ演出調整値PRMが入力され、クオータニオンQDが調整されることで、調整後クオータニオンeQDを用いて揺れ演出としての揺れ変更処理が行われる。本実施の形態の場合、このような揺れ演出が、別の画像処理装置TDyにおいても引き継いだり、更に変更することができるようになる。
 第1、第2、第5の実施の形態では、関連付け部102は、入力画像データに撮像時揺れ情報及び揺れ変更情報を関連付けるものとした。即ち関連付け部102が撮像時揺れ情報及び揺れ変更情報SMIと関連付ける画像は、揺れ変更処理が施される前の画像であるとした。
 揺れ変更処理が施されていない画像データとは、例えば撮像装置1での手ぶれ補正等としての揺れ除去がキャンセルされた状態の画像データである。これは実施の形態でいえば図23のように撮像装置1で手ぶれ補正などとしての揺れ除去が施されない状態で入力された画像データPDや、図10、図28のように、撮像装置1で手ぶれ補正などとしての揺れ除去が施されたがステップST12の撮像装置内部補正キャンセル処理により揺れ除去がキャンセルされた画像データiPDであって、ステップST16の揺れ変更処理が行われていない画像データが該当する。
 このような画像データを保存することで、例えば画像処理装置TDyにおいては、その画像データに対して、撮像時揺れ情報SIや揺れ変更情報SMI(例えば調整後クオータニオンeQD)を用いて、画像処理装置TDxで施された揺れ演出を再現することができたり、揺れ演出の揺れ具合を調整したりすることができる。
 第3、第4の実施の形態では、揺れ変更部100は、撮像時揺れ情報に基づいて画像の揺れを除去する揺れ変更処理を行う例を挙げた。
 例えば画像処理装置TDxにおいてステップST16において、調整後クオータニオンeQDではなく、調整前のクオータニオンQDに基づいて揺れ変更処理を行うことは、揺れ除去を行うことに相当する(図24、図26参照)。
 これにより、揺れのない(又は揺れを低減した)画像を求める場合に好適となる。
 また撮像装置1の処理能力によっては取り切れない揺れを、処理能力の高い画像処理装置TDxを用いて除去するということも可能となる。つまり精度の高い揺れ除去が可能となる。
 第3、第4の実施の形態では、関連付け部102が撮像時揺れ情報及び揺れ変更情報と関連付ける画像は、揺れ除去処理が施された画像であるとした。
 揺れ除去がなされた画像データとは、例えば撮像装置1での撮像時の動きにより画像に生じた揺れが除去された画像データである。これは実施の形態でいえば図24や図26のようにステップST16の揺れ変更処理で揺れ除去が行われた画像データrPDが該当する。
 このような画像データを記録し保存することで、例えば画像処理装置TDyや他の画像再生装置において揺れ除去機能が備えられていない場合でも、手ぶれ等が低減、抑圧された画像を再生することができる。
 もちろんこのような画像データについては、撮像時揺れ情報や揺れ変更情報SMIが関連付けられていることで、例えば画像処理装置TDyで、画像データの揺れ除去をキャンセルしたり、画像処理装置TDxで施された揺れ演出を再現することができたり、揺れ演出の揺れ具合を調整したりすることができる。
 第1、第3、第5の実施の形態では、揺れ変更部100は、画像データについて、該画像データに対応づけられたメタデータを用いて撮像時に行われた揺れ除去処理をキャンセルする処理を行った後に、揺れ変更処理を行うものとした。
 例えば実施の形態の図10、図24、図28におけるステップST12の処理で、撮像装置内部補正キャンセルを行った画像データiPDに対して、揺れ変更処理を行う。これにより撮像装置1での揺れ除去の影響を受けない揺れ演出や揺れ除去が可能になり、多様な揺れ演出やより高精度な揺れ除去が可能となる。
 なお、ステップST12では、メタデータにおける座標変換パラメータHPを用いて補正キャンセルを行う。座標変換パラメータHPは、例えばレンズ歪、台形歪、フォーカルプレーン歪、電子手ぶれ補正、光学手ぶれ補正の各パラメータなど、撮像画像の画枠(画角を含めた画像の範囲)を変化させる場合の情報である。
 これにより、撮像時の画枠に関する補正をキャンセルすることができ、撮像装置1で画枠(画像の範囲)を補正した場合に、それを元に戻すことができる。
 第1、第2、第5の実施の形態では、関連付け部102が撮像時揺れ情報及び揺れ変更情報と関連付ける画像データは、撮像時の揺れ除去処理が施されていない状態の入力画像データであるとした。
 撮像時の揺れ除去が施されていない状態の入力画像データとは、例えば撮像装置1での手ぶれ補正等としての揺れ除去がキャンセルされた状態の画像データや、撮像装置1で手ぶれ補正等の揺れ除去が行われなかった画像データである。
 これは実施の形態でいえば図22のように撮像装置1で手ぶれ補正などとしての揺れ除去が施されない状態で入力された画像データPDや、図10、図28などのように撮像装置1で手ぶれ補正などとしての揺れ除去が施されたがステップST12の撮像装置内部補正キャンセル処理により揺れ除去がキャンセルされた画像データiPDが該当する。
 このような画像データを保存することで、例えば画像処理装置TDyにおいては、撮像装置1で行われた揺れ除去をキャンセルする必要がなくなる。
 そして画像処理装置TDyでは、その画像データに対して撮像時揺れ情報(例えばクオータニオンQD)を用いてより高精度の揺れ除去を行うことができる。
 また画像処理装置TDyでは、その画像データに対して、撮像時揺れ情報や揺れ変更情報SMI(例えば調整後クオータニオンeQD)を用いて、画像処理装置TDxで施された揺れ演出を再現することができたり、揺れ演出の揺れ具合を調整したりすることができる。
 第1、第2、第3の実施の形態では、関連付け部102が画像データ及び揺れ変更情報と関連付ける撮像時揺れ情報は、撮像時の撮像装置1の姿勢情報であるとした。
 即ちIMUデータから求めた姿勢情報としてのクオータニオンQDを撮像時揺れ情報としている。これにより撮像時の揺れを適切に表現する情報を画像処理装置TDyに送ることができる。
 第4の実施の形態では、関連付け部102が画像データ及び揺れ変更情報と関連付ける撮像時揺れ情報は、撮像時の撮像装置1の動きを示すシフト・回転情報SFROとした。
 クオータニオンQDと天球モデルMTを用いて揺れ変更を行うアプリケーションプログラムはシステムリソースの消費が比較的大きい。そのため画像処理装置TDyとしてシステムリソースの少ない機器を想定した場合、クオータニオンQDをシフト・回転情報SFROに変換して提供し、揺れ変更を簡易に実行できるようにすることが好適となる。
 なお、シフト・回転データSFROをクオータニオンQDとともに記憶して他の機器に提供できるようにしても良いことはいうまでもない。
 また、撮像時揺れ情報としては、IMUデータも存在する。従って、IMUデータ、シフト・回転データSFRO、クオータニオンQDについては、そのいずれかを撮像時揺れ情報として記憶してもよいし、いずれか2つを撮像時揺れ情報として記憶しても良いし、全てを含めて撮像時揺れ情報として記憶しても良い。もちろん、上記以外の情報を撮像時揺れ情報としてもよい。
 実施の形態では、揺れ情報調整部101は、撮像時揺れ情報と揺れ変更処理量を指定する揺れ変更パラメータPRMに基づいて、揺れ変更パラメータPRMで指定される揺れ量の揺れを付加するための調整後揺れ情報を生成する例を挙げた。
 例えば画像処理装置TDxで揺れ演出が行われる場合、揺れ変更パラメータPRMでクオータニオンQDが調整され、調整後クオータニオンeQDにより揺れ演出が行われる。このような揺れ変更パラメータPRMを導入することで、任意の揺れ量とする揺れ変更が実現できる。
 実施の形態では、関連付け部102が画像データ及び撮像時揺れ情報と関連付ける揺れ変更情報SMIは、揺れ変更パラメータPRMとする例を挙げた。
 例えば画像処理装置TDxで揺れ演出が行われた場合、そのときの揺れ変更パラメータPRMを取得した画像処理装置TDyが、画像処理装置TDxで行われた揺れ演出の処理量を特定できる。
 従って画像処理装置TDyにおいて、画像処理装置TDxで行われた揺れ演出を調整したり、キャンセルしたりして、画像の揺れを任意に再調整できるようになる。
 実施の形態では、揺れ変更パラメータPRMは、例えばユーザ操作により指定されたパラメータであるとした。
 例えばユーザが任意に揺れ変更パラメータPRMを指定して、画像処理装置TDxで揺れ演出が行われた場合、そのときの揺れ変更パラメータPRMを取得した画像処理装置TDyは、画像処理装置TDxで行われた揺れ演出としてのユーザ指示の状態を確認できることになる。
 従って、画像処理装置TDx側のユーザの設定を確認した上で、画像処理装置TDy側のユーザが任意に揺れの調整を行うこともできる。
 実施の形態では、関連付け部102が画像データ及び撮像時揺れ情報と関連付ける揺れ変更情報SMIは、調整後揺れ情報である例を挙げた。
 例えば画像処理装置TDxで揺れ演出が行われる場合、揺れ変更パラメータPRMでクオータニオンQDが調整され、調整後クオータニオンeQDにより揺れ演出が行われる。
 この調整後クオータニオンeQDを揺れ変更情報SMIとして、撮像時揺れ情報SIであるクオータニオンQDと関連付けて記憶させても良い。
 これらを取得した画像処理装置TDyでは、クオータニオンQDと調整後クオータニオンeQDにより、画像処理装置TDxで行われた揺れ演出の処理量を特定できる。
 従って画像処理装置TDyにおいて、画像処理装置TDxで行われた揺れ演出を調整したり、キャンセルしたりして、画像の揺れを任意に再調整できるようになる。
 なお揺れ変更情報SMIの例としては、揺れ変更パラメータPRM、調整後クオータニオンeQDを挙げたが、この両方を記憶させてもよい。
 また第5の実施の形態では調整後IMUデータeIMUを挙げたが、調整後IMUデータeIMUと揺れ変更パラメータPRMの両方を揺れ変更情報SMIとして記憶させてもよい。
 実施の形態では、揺れ情報調整部101は、撮像時揺れ情報に基づく揺れ付加のための揺れ情報(例えば揺らすためのクオータニオンQDs)に対し、揺れの周波数帯域別に揺れ変更パラメータPRMに基づくゲイン処理を行って、調整後揺れ情報を生成する例を挙げた。
 図13、図15の処理のように帯域分割してゲイン処理を行い、ミックスすることで揺れの周波数帯域毎に揺れ量を調整した調整後クオータニオンeQDを生成することができる。このようにすることで揺れの周波数帯域毎に任意の調整を行って多様な揺れ演出を施すことが可能になる。
 例えば大きな揺れは抑えるが細かい揺れは増加させるといったような揺れ演出も容易に可能となる。
 実施の形態では、揺れ情報調整部101は、撮像時揺れ情報に基づく揺れ付加のための揺れ情報(例えば揺らすためのクオータニオンQDs)に対し、揺れの方向別に揺れ変更パラメータに基づくゲイン処理を行って、調整後揺れ情報を生成する例を挙げた。
 図14、図15の処理のように揺れの方向(ヨー、ピッチ、ロール)毎にゲイン処理を行い、ミックスすることで揺れの方向毎に揺れ量を調整した調整後クオータニオンeQDを生成することができる。このようにすることで揺れの方向毎に任意の調整を行って多様な揺れ演出を施すことが可能になる。
 例えば縦方向の揺れは加えるが横方向の揺れは加えないといったような揺れ演出も容易に可能となる。
 実施の形態では、揺れ情報調整部101が調整する撮像時揺れ情報は、処理対象の画像データの撮像の際に生成されたメタデータに基づいて得られる各フレームに対応する姿勢情報であり、調整後の姿勢情報を揺れ変更処理に供するものとした。
 即ちIMUデータから求めた姿勢情報としてのクオータニオンQDを撮像時揺れ情報とし、これを調整した調整後揺れ情報(調整後クオータニオンeQD)を用いて揺れ変更処理が行われる。これにより天球モデルMTを用いた揺れ変更が適切に行うことができる。
 実施の形態では、揺れ変更部100は、処理対象の入力画像データの各フレームを天球モデルMTへ貼付し、各フレームに対応する調整後揺れ情報である調整後の姿勢情報を用いて回転させることで揺れ変更を行う例を挙げた。
 即ち調整後クオータニオンeQDを用いて天球モデルMT上で各フレームの画像を回転させることで揺れ変更処理が行われる。
 天球モデルMT上でフレーム毎に揺れを増減させるような回転を行って揺れ変更補正を行うことで、台形歪みが生じない揺れ変更が可能となる。従って揺れ演出が施された画像として、歪みの少ない高品位な画像が得られることになる。
 なお、実施の形態では、天球モデルMTで揺れ変更を行って平面投影した後に、切り出し領域の画像を切り出す例を述べたがこれに限らない。即ち天球モデルMTで揺れ補正を行った状態で切り出し領域情報CRAで指定される領域の画像を切り出して、それを平面投影することによって、出力画像データoPDを生成することもできる。
 また揺れ演出や揺れ除去のための揺れ変更処理は、天球モデルMTを用いずに行う例も想定される。例えば切り出し領域をフレーム毎に変更することで行う例が考えられる。
 また実施の形態では、画像処理装置TDxは、動画を構成する画像データVD1と対応するメタデータMTD1を含む画像ファイルMFについて、画像データの各フレームに対応するメタデータを抽出して記憶するものとした。即ち動画としての画像ファイルMFを画像処理の対象とするときにフレーム毎のメタデータを記憶する(ステップST3)。
 これにより、揺れ変更処理においてフレーム毎のメタデータを使用できる。
 ところで実施の形態では、画像データの各フレームについて、ライン毎の露光重心のタイミングを基準として取得した姿勢情報(クオータニオンQD(LN))を用いている。
 露光期間内における被写体と撮像装置の相対的な揺れにより、いわゆるブラーが生じ、これはシャッタースピードによって露光時間が長くなるほど目立つ。この場合に、各ラインの露光開始タイミングの姿勢情報を用いると、各ラインの露光期間内の相対的揺れが、姿勢情報からみて一方向の揺れとなり、画像上で目立ちやすくなる。
 一方で図12のように各ラインの露光期間内の重心位置のIMUデータに基づいて姿勢情報を取得することとすると、露光期間内の相対的揺れが、姿勢情報の状態からみて双方向の揺れとなり、視覚上、時間方向に相殺されるように感じられ、これによって画像においてブラーが目立たなくなるようにすることができる。
 実施の形態では、画像処理装置TDyとして、
それぞれ動画を構成する画像データに関連付けられた撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報SMIとを用いて、調整後揺れ情報を生成する揺れ情報調整部101と、調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理を行う揺れ変更部100を備えている。
 即ち画像処理装置TDyは、画像データと、撮像時揺れ情報と、揺れ変更情報SMIとが互いに関連付けられている情報が提供された場合に、二次的な揺れ変更処理が実行できる。画像処理装置TDyでは、画像処理装置TDxで施された揺れ変更をキャンセルしたり、揺れ量を調整したりすることができる。つまり既に一次的な揺れ変更が施された画像をさらに自由に調整したり揺れ変更できる環境が用意される。
 なお、画像処理装置TDx、TDyにおいて、揺れ変更部100としては、少なくとも図10等のステップST16の処理が行われるものであればよく、ステップST11、ST12、ST13、ST14の一部又は全部は揺れ変更部100の機能の外部(例えば揺れ変更部100を有する画像処理装置とは別の装置)でおこなわれてもよい。
 また、RAW画像データを画像処理対象とする場合も考えられる。
 また上述の実施の形態の説明で言及した以外にも処理例は各種考えられる。
 揺れ演出処理の内容(揺れ演出の揺れ量、揺れ具合など)を場合によって切り替えるようにしてもよい。或いは揺れ演出と揺れ除去とを、場合によって切り替えるようにしてもよい。
 例えばメタデータMTD1に基づいて、自動で切り替えることが考えられる。
 また関連づけられた画像データ、撮像時揺れ情報、揺れ変更情報SMIのデータを配布する先の機器に応じて、揺れ変更の切替を行うことも考えられる。
 例えば映像制作会社向けには品質を重視した揺れ変更を行い、スマートフォンのアプリケーションに対して配布する場合は負荷を軽くするようなものとするなどである。
 さらには、表示装置の形態によって揺れ変更処理を切り替えることも考えられる。例えばバーチャルリアリティ用のゴーグルを用いる場合は、揺れを弱めるような例である。
 つまり、関連付けられた画像データ、撮像時揺れ情報、揺れ変更情報SMIのデータを配布する先の機器が何であるかや、表示装置の形態を自動的に検出し、その結果に応じて、揺れ演出処理の内容を自動的に切り替えるようにしても良い。
 画像の画角情報、アスペクト比、画角設定値もステップST20で画像データ等に関連づけて保存しておくようにし、これらも何度も調整可能としてもよい。
 実施の形態のプログラムは、図10,図23,図24,図26,図28のような処理を、例えばCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち実施の形態のプログラムは、動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理(ST15、ST30)と、調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理(ST16)と、入力画像データ及び揺れ変更済み画像データの少なくとも一方と、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報SMIとを関連付ける関連付け処理と(ST20)とを情報処理装置に実行させるプログラムである。
 このようなプログラムにより、上述した画像処理装置TDxを、例えば携帯端末2,パーソナルコンピュータ3、或いは撮像装置1などの機器において実現できる。
 また実施の形態のプログラムは、図20,図21,図25,図30のような処理を、例えばCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムとしてもよい。
 即ち実施の形態のプログラムは、動画を構成する画像データと、撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報SMIとが互いに関連付けられているときに、関連付けられた撮像時揺れ情報と揺れ変更情報SMIを用いて、調整後揺れ情報を生成する揺れ情報調整処理(ST15、ST30)と、調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理(ST16)を情報処理装置に実行させるプログラムである。
 このようなプログラムにより、上述した画像処理装置TDyを、例えば携帯端末2,パーソナルコンピュータ3、或いは撮像装置1などの機器において実現できる。
 このような画像処理装置TDx、TDyを実現するプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の画像処理装置TDx、TDyの広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該パーソナルコンピュータ等を、本開示の画像処理装置として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整部と、
 前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理を行う揺れ変更部と、
 前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報と、を関連付ける関連付け部と、を備えた
 画像処理装置。
 (2)
 前記揺れ変更部は、前記揺れ変更処理として、前記調整後揺れ情報に基づいて前記入力画像データに揺れ演出を付加する
 上記(1)に記載の画像処理装置。
 (3)
 前記関連付け部は、前記入力画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付ける
 上記(1)又は(2)に記載の画像処理装置。
 (4)
 前記揺れ変更部は、前記揺れ変更処理として、前記撮像時揺れ情報に基づいて前記入力画像データの揺れを除去する
 上記(1)から(3)のいずれかに記載の画像処理装置。
 (5)
 前記関連付け部は、前記揺れ変更済み画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付ける
 上記(1)から(4)のいずれかに記載の画像処理装置。
 (6)
 前記揺れ変更部は、前記入力画像データに対して、該入力画像データに対応付けられたメタデータを用いて撮像時に行われた揺れ除去処理をキャンセルする処理を行った後に、前記揺れ変更処理を行う
 上記(1)から(5)のいずれかに記載の画像処理装置。
 (7)
 前記関連付け部が撮像時揺れ情報及び揺れ変更情報と関連付ける画像データは、撮像時の揺れ除去処理が施されていない状態の画像データである
 上記(1)から(6)のいずれかに記載の画像処理装置。
 (8)
 前記画像データは、撮像時に揺れ除去処理が行われていない前記入力画像データである
 上記(7)に記載の画像処理装置。
 (9)
 前記画像データは、前記入力画像データに対して、撮像時に行われた揺れ除去処理をキャンセルする処理を行った画像データである
 上記(7)に記載の画像処理装置。
 (10)
 前記撮像時揺れ情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の姿勢情報である
 上記(1)から(9)のいずれかに記載の画像処理装置。
 (11)
 前記姿勢情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の動きを示すシフト情報又は回転情報である
 上記(1)から(10)のいずれかに記載の画像処理装置。
 (12)
 前記揺れ情報調整部は、前記撮像時揺れ情報と前記揺れ変更処理の処理量を指定する揺れ変更パラメータに基づいて、前記揺れ変更パラメータで指定される揺れ量の揺れを付加するための前記調整後揺れ情報を生成する
 上記(1)から(11)のいずれかに記載の画像処理装置。
 (13)
 前記揺れ変更情報は、前記揺れ変更パラメータである
 上記(12)に記載の画像処理装置。
 (14)
 前記揺れ変更パラメータは、ユーザ操作により指定されたパラメータである
 上記(12)又は(13)のいずれかに記載の画像処理装置。
 (15)
 前記揺れ変更情報は、前記調整後揺れ情報である
 上記(12)から(14)のいずれかに記載の画像処理装置。
 (16)
 前記揺れ情報調整部は、前記撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの周波数帯域別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成する
 上記(12)から(15)のいずれかに記載の画像処理装置。
 (17)
 前記揺れ情報調整部は、撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの方向別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成する
 上記(12)から(16)のいずれかに記載の画像処理装置。
 (18)
 前記撮像時揺れ情報は、前記入力画像データの撮像の際に生成されたメタデータに基づいて得られる前記入力画像データの各フレームに対応する姿勢情報である
 上記(1)から(17)のいずれかに記載の画像処理装置。
 (19)
 前記揺れ変更部は、前記入力画像データの前記各フレームを天球モデルへ貼付し、前記各フレームに対応する前記調整後揺れ情報である調整後の前記姿勢情報を用いて前記各フレームを回転させることで前記揺れ変更処理を行う
 上記(18)に記載の画像処理装置。
 (20)
 それぞれ動画を構成する画像データに関連付けられた撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを用いて、調整後揺れ情報を生成する揺れ情報調整部と、
 調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理を行う揺れ変更部と、を備えた
 画像処理装置。
 (21)
 前記画像データは、撮像時に揺れ除去処理が行われていない画像データ、又は、撮像時に行われた揺れ除去処理をキャンセルする処理が行われた画像データである
 上記(20)に記載の画像処理装置。
 (22)
 前記画像データは、前記撮像時揺れ情報に基づいた前記揺れ変更情報により、揺れが除去された画像データである
 上記(20)又は(21)に記載の画像処理装置。
 (23)
 画像処理装置が、
 動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、
 前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、
 前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理と、
 を行う画像処理方法。
 (24)
 動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、
 前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、
 前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理と、
 を情報処理装置に実行させるプログラム。
 1 撮像装置、2 携帯端末、3 パーソナルコンピュータ、4 サーバ、5 記録媒体、11 レンズ系、12 撮像素子部、13 カメラ信号処理部、14 記録制御部、15 表示部、16 出力部、17 操作部、18 カメラ制御部、19 メモリ部、22 ドライバ部、23 センサ部、41 低域通過フィルタ、42 中域通過フィルタ、43 高域通過フィルタ、44,45,46 ゲイン演算部、47,57,61 合成部、51 ヨー成分抽出部、52 ピッチ成分抽出部、53 ロール成分抽出部、54,55,56 ゲイン演算部、58,59,60 方向別処理部、65 撮像画素範囲、66 結像領域、70 情報処理装置、71 CPU、72 ROM、73 RAM、74 バス、75 入出力インタフェース、76 入力部、77 表示部、78 音声出力部、79 記憶部、80 通信部、81 リムーバブル記録媒体、82 ドライブ、100 揺れ変更部、100a 揺れ演出部、100b 揺れ除去部、101 揺れ情報調整部、102 関連付け部、VS 画像ソース、TDx 画像処理装置、TDy 画像処理装置、MF 画像ファイル、PD 画像データ、iPD 画像データ、oPD 出力画像データ、pPD 画像データ、rPD 画像データ、FN フレーム番号、HP 座標変換パラメータ、TM タイミング情報、CP カメラパラメータ、QD クオータニオン、eQD 調整後クオータニオン、QDs クオータニオン、eIMU 調整後IMUデータ、SFRO シフト・回転情報、PRM 揺れ変更パラメータ、SMI,SMI’ 揺れ変更情報、MT 天球モデル、hMT 揺れ補正済天球モデル、W 露光重心、MTD,MTD1,MTD2 メタデータ、CRC 切り出し領域指示情報、CRA 切り出し領域情報

Claims (24)

  1.  動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整部と、
     前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理を行う揺れ変更部と、
     前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報と、を関連付ける関連付け部と、を備えた
     画像処理装置。
  2.  前記揺れ変更部は、前記揺れ変更処理として、前記調整後揺れ情報に基づいて前記入力画像データに揺れ演出を付加する
     請求項1に記載の画像処理装置。
  3.  前記関連付け部は、前記入力画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付ける
     請求項1に記載の画像処理装置。
  4.  前記揺れ変更部は、前記揺れ変更処理として、前記撮像時揺れ情報に基づいて前記入力画像データの揺れを除去する
     請求項1に記載の画像処理装置。
  5.  前記関連付け部は、前記揺れ変更済み画像データに、前記撮像時揺れ情報及び前記揺れ変更情報を関連付ける
     請求項1に記載の画像処理装置。
  6.  前記揺れ変更部は、前記入力画像データに対して、該入力画像データに対応付けられたメタデータを用いて撮像時に行われた揺れ除去処理をキャンセルする処理を行った後に、前記揺れ変更処理を行う
     請求項1に記載の画像処理装置。
  7.  前記関連付け部が撮像時揺れ情報及び揺れ変更情報と関連付ける画像データは、撮像時の揺れ除去処理が施されていない状態の画像データである
     請求項1に記載の画像処理装置。
  8.  前記画像データは、撮像時に揺れ除去処理が行われていない前記入力画像データである
     請求項7に記載の画像処理装置。
  9.  前記画像データは、前記入力画像データに対して、撮像時に行われた揺れ除去処理をキャンセルする処理を行った画像データである
     請求項7に記載の画像処理装置。
  10.  前記撮像時揺れ情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の姿勢情報である
     請求項1に記載の画像処理装置。
  11.  前記姿勢情報は、撮像装置による前記入力画像データの撮像時の前記撮像装置の動きを示すシフト情報又は回転情報である
     請求項10に記載の画像処理装置。
  12.  前記揺れ情報調整部は、前記撮像時揺れ情報と前記揺れ変更処理の処理量を指定する揺れ変更パラメータに基づいて、前記揺れ変更パラメータで指定される揺れ量の揺れを付加するための前記調整後揺れ情報を生成する
     請求項1に記載の画像処理装置。
  13.  前記揺れ変更情報は、前記揺れ変更パラメータである
     請求項12に記載の画像処理装置。
  14.  前記揺れ変更パラメータは、ユーザ操作により指定されたパラメータである
     請求項12に記載の画像処理装置。
  15.  前記揺れ変更情報は、前記調整後揺れ情報である
     請求項12に記載の画像処理装置。
  16.  前記揺れ情報調整部は、前記撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの周波数帯域別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成する
     請求項12に記載の画像処理装置。
  17.  前記揺れ情報調整部は、撮像時揺れ情報に基づく揺れ付加のための揺れ情報に対し、揺れの方向別に揺れ変更パラメータに基づくゲイン処理を行って、前記調整後揺れ情報を生成する
     請求項12に記載の画像処理装置。
  18.  前記撮像時揺れ情報は、前記入力画像データの撮像の際に生成されたメタデータに基づいて得られる前記入力画像データの各フレームに対応する姿勢情報である
     請求項1に記載の画像処理装置。
  19.  前記揺れ変更部は、前記入力画像データの前記各フレームを天球モデルへ貼付し、前記各フレームに対応する前記調整後揺れ情報である調整後の前記姿勢情報を用いて前記各フレームを回転させることで前記揺れ変更処理を行う
     請求項18に記載の画像処理装置。
  20.  それぞれ動画を構成する画像データに関連付けられた撮像時揺れ情報と、揺れ変更処理の処理量が特定できる揺れ変更情報とを用いて、調整後揺れ情報を生成する揺れ情報調整部と、
     調整後揺れ情報を用いて画像データの揺れの状態を変更する揺れ変更処理を行う揺れ変更部と、を備えた
     画像処理装置。
  21.  前記画像データは、撮像時に揺れ除去処理が行われていない画像データ、又は、撮像時に行われた揺れ除去処理をキャンセルする処理が行われた画像データである
     請求項20に記載の画像処理装置。
  22.  前記画像データは、前記撮像時揺れ情報に基づいた前記揺れ変更情報により、揺れが除去された画像データである
     請求項20に記載の画像処理装置。
  23.  画像処理装置が、
     動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、
     前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、
     前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理と、
     を行う画像処理方法。
  24.  動画を構成する入力画像データを撮像したときの撮像時揺れ情報を調整して調整後揺れ情報を生成する揺れ情報調整処理と、
     前記調整後揺れ情報を用いて前記入力画像データの揺れの状態を変更することで揺れ変更済み画像データを得る揺れ変更処理と、
     前記入力画像データ及び前記揺れ変更済み画像データの少なくとも一方と、前記撮像時揺れ情報と、前記揺れ変更処理の処理量が特定できる揺れ変更情報とを関連付ける関連付け処理と、
     を情報処理装置に実行させるプログラム。
PCT/JP2020/004841 2019-03-28 2020-02-07 画像処理装置、画像処理方法、プログラム WO2020195232A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20777115.5A EP3952276B1 (en) 2019-03-28 2020-02-07 Image processing device, image processing method, and program
US17/434,196 US11716537B2 (en) 2019-03-28 2020-02-07 Image processing device, image processing method, and program
CN202080022096.5A CN113574856A (zh) 2019-03-28 2020-02-07 图像处理设备、图像处理方法和程序
JP2021508201A JP7444162B2 (ja) 2019-03-28 2020-02-07 画像処理装置、画像処理方法、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019063480 2019-03-28
JP2019-063480 2019-03-28

Publications (1)

Publication Number Publication Date
WO2020195232A1 true WO2020195232A1 (ja) 2020-10-01

Family

ID=72608733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004841 WO2020195232A1 (ja) 2019-03-28 2020-02-07 画像処理装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US11716537B2 (ja)
EP (1) EP3952276B1 (ja)
JP (1) JP7444162B2 (ja)
CN (1) CN113574856A (ja)
WO (1) WO2020195232A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220286615A1 (en) * 2021-03-03 2022-09-08 Canon Kabushiki Kaisha Control apparatus, image pickup apparatus, lens apparatus, control method, and storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200412954A1 (en) * 2019-06-25 2020-12-31 Qualcomm Incorporated Combined electronic image stabilization and optical image stabilization
JP7362440B2 (ja) * 2019-11-18 2023-10-17 キヤノン株式会社 駆動装置、撮像装置、駆動装置の制御方法、および、プログラム
US11877059B2 (en) * 2021-03-09 2024-01-16 Qualcomm Incorporated Sensor-based image verification
JP2022149033A (ja) * 2021-03-25 2022-10-06 キヤノン株式会社 制御装置、撮像装置、レンズ装置、カメラシステム、制御方法、及びプログラム
US11537781B1 (en) * 2021-09-15 2022-12-27 Lumos Information Services, LLC System and method to support synchronization, closed captioning and highlight within a text document or a media file
US11887338B2 (en) * 2022-06-16 2024-01-30 Motional Ad Llc Maintaining calibration of an IBIS camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH063726A (ja) * 1992-06-17 1994-01-14 Canon Inc 撮影装置
JP2013145519A (ja) * 2012-01-16 2013-07-25 Canon Inc 画像処理装置及び画像処理装置の制御方法
WO2016002322A1 (ja) * 2014-07-02 2016-01-07 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2018195864A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4968885B2 (ja) * 2006-06-05 2012-07-04 キヤノン株式会社 撮像装置及びその制御方法、撮像システム、画像処理方法並びにプログラム
JP5487722B2 (ja) * 2009-05-25 2014-05-07 ソニー株式会社 撮像装置と振れ補正方法
US8896715B2 (en) * 2010-02-11 2014-11-25 Microsoft Corporation Generic platform video image stabilization
JP2013017165A (ja) * 2011-06-10 2013-01-24 Panasonic Corp 撮像装置
JP5868042B2 (ja) * 2011-07-01 2016-02-24 キヤノン株式会社 防振制御装置、撮像装置、及び防振制御装置の制御方法
JP5976315B2 (ja) * 2011-12-28 2016-08-23 株式会社ザクティ 撮像装置
JP6097522B2 (ja) * 2012-10-22 2017-03-15 キヤノン株式会社 像ブレ補正装置及び像ブレ補正方法、撮像装置
WO2014068779A1 (ja) * 2012-11-05 2014-05-08 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP2014160982A (ja) * 2013-02-20 2014-09-04 Sony Corp 画像処理装置および撮影制御方法、並びにプログラム
KR101578600B1 (ko) * 2013-03-22 2015-12-17 가시오게산키 가부시키가이샤 이미지 처리 장치, 이미지 처리 방법 및 컴퓨터로 읽을 수 있는 기록 매체
JP6332996B2 (ja) * 2013-04-17 2018-05-30 キヤノン株式会社 動画像処理装置および撮像装置、動画像処理方法
JP6170395B2 (ja) * 2013-09-26 2017-07-26 キヤノン株式会社 撮像装置およびその制御方法
JP6448218B2 (ja) 2014-05-12 2019-01-09 キヤノン株式会社 撮像装置、その制御方法および情報処理システム
JP6355454B2 (ja) * 2014-06-27 2018-07-11 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP6594524B2 (ja) * 2016-03-30 2019-10-23 富士フイルム株式会社 撮像装置、作動方法、画像処理装置及び画像処理方法
JP6541835B2 (ja) * 2018-04-25 2019-07-10 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH063726A (ja) * 1992-06-17 1994-01-14 Canon Inc 撮影装置
JP2013145519A (ja) * 2012-01-16 2013-07-25 Canon Inc 画像処理装置及び画像処理装置の制御方法
WO2016002322A1 (ja) * 2014-07-02 2016-01-07 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2018195864A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3952276A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220286615A1 (en) * 2021-03-03 2022-09-08 Canon Kabushiki Kaisha Control apparatus, image pickup apparatus, lens apparatus, control method, and storage medium
US11800226B2 (en) * 2021-03-03 2023-10-24 Canon Kabushiki Kaisha Control apparatus, image pickup apparatus, lens apparatus, control method, and storage medium, that provide an image-stabilization driving amount for a predetermined image point position

Also Published As

Publication number Publication date
JP7444162B2 (ja) 2024-03-06
CN113574856A (zh) 2021-10-29
EP3952276B1 (en) 2024-03-27
US20220174216A1 (en) 2022-06-02
EP3952276A1 (en) 2022-02-09
EP3952276A4 (en) 2022-05-11
JPWO2020195232A1 (ja) 2020-10-01
US11716537B2 (en) 2023-08-01

Similar Documents

Publication Publication Date Title
WO2020195232A1 (ja) 画像処理装置、画像処理方法、プログラム
CN102739955B (zh) 能生成动态范围宽的全景图像的数据的摄像装置
JP5428210B2 (ja) 情報処理装置、撮像システム、録画制御方法及びプログラム
JP2017211827A (ja) 情報処理装置、制御方法、及び、プログラム
JP2012075018A (ja) 再生装置及び方法、並びにプログラム
JP7405131B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2012199752A (ja) 画像処理装置と画像処理方法およびプログラム
JP2005328497A (ja) 撮像装置及び撮像方法
WO2019123890A1 (en) Image processing apparatus, image processing system, image processing method, and recording medium
JP2017175319A (ja) 画像処理装置、画像処理方法及びプログラム
CN110463226B (zh) 声音记录设备,声音系统,声音记录方法和载体装置
WO2017150238A1 (ja) 表示制御装置、表示制御方法、及び、プログラム
WO2020170604A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2021014716A1 (ja) 画像処理装置、画像処理方法、プログラム
WO2021171848A1 (ja) 画像処理装置、画像処理方法、プログラム
WO2021181966A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2019050593A (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
WO2021181965A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2017085466A (ja) 撮像装置、及びその制御方法
WO2022195909A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2019071650A (ja) 制御装置、制御方法、及び、プログラム
JP2019102940A (ja) 仮想視点コンテンツ生成システム、音声処理装置、仮想視点コンテンツ生成システムの制御方法、及びプログラム
JP2010183254A (ja) 撮像装置および被写体検出プログラム
JP2022095791A (ja) 情報処理装置、生成方法、及び、プログラム
JP2011155580A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20777115

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508201

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020777115

Country of ref document: EP

Effective date: 20211028