WO2012160847A1 - 撮像装置、画像処理装置、及び撮像方法 - Google Patents

撮像装置、画像処理装置、及び撮像方法 Download PDF

Info

Publication number
WO2012160847A1
WO2012160847A1 PCT/JP2012/054316 JP2012054316W WO2012160847A1 WO 2012160847 A1 WO2012160847 A1 WO 2012160847A1 JP 2012054316 W JP2012054316 W JP 2012054316W WO 2012160847 A1 WO2012160847 A1 WO 2012160847A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
information
image processing
unit
Prior art date
Application number
PCT/JP2012/054316
Other languages
English (en)
French (fr)
Inventor
学 市川
Original Assignee
オリンパスイメージング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスイメージング株式会社 filed Critical オリンパスイメージング株式会社
Priority to CN201280006974.XA priority Critical patent/CN103339925B/zh
Publication of WO2012160847A1 publication Critical patent/WO2012160847A1/ja
Priority to US13/936,153 priority patent/US9118844B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/212Motion video recording combined with still video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3215Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a time or duration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode

Definitions

  • the present invention relates to an imaging device, an image processing device, and an imaging method for performing special effect image processing on a moving image.
  • an imaging apparatus such as a digital camera can capture not only still images but also moving images.
  • a moving image can be easily captured by operating a moving image capturing instruction unit (moving image button) provided for moving image capturing.
  • Japanese Patent Application Laid-Open No. 2001-45409 has proposed an imaging apparatus capable of performing both still image shooting and moving image shooting.
  • a still image shooting instruction using a still image release switch still image shooting instruction unit
  • a still image obtained at the timing when the instruction is given.
  • a still image flag is added to the image.
  • Japanese Patent Laid-Open No. 2001-45409 a still image to which a still image flag is added is reproduced in parallel with the reproduction of a moving image when the moving image is reproduced.
  • Japanese Patent Application Laid-Open No. 2001-45409 a user can operate a release switch at his / her intended timing to later reproduce a still image obtained at his / her intended timing together with a moving image.
  • Japanese Patent Laid-Open No. 2001-45409 cannot reflect the user's intention on the moving image itself.
  • Japanese Patent Application Laid-Open No. 2010-114729 can be applied to moving images.
  • special effect image processing such as shading prior to moving image shooting
  • the user's preference for the scene at that time can be reflected.
  • the user's intention cannot be reflected during moving image shooting.
  • the present invention has been made in view of the above circumstances, and it is possible to perform special effect image processing on a moving image at a timing intended by a user during moving image shooting without being aware of editing or the like.
  • An object is to provide an imaging device, an image processing device, and an imaging method.
  • an image pickup apparatus performs an image process on an image pickup unit that picks up a subject and obtains image data, and image data obtained by the image pickup unit.
  • Still image information storage unit for storing still image information including still image data obtained by image processing in the image processing unit and accompanying information of the still image data, and execution of moving image shooting for the imaging unit
  • a video recording unit that performs the video recording
  • a timing information acquisition unit that acquires timing information indicating a timing at which execution of the still image shooting is instructed when the execution of the still image shooting is instructed by the still image shooting instruction unit;
  • the processing unit further performs special effect image processing on the moving image data based on the still image information stored in
  • an image processing apparatus configured to receive the still image information and the timing information obtained by the imaging apparatus according to the first aspect. And a special effect image processing unit that performs special effect image processing on the moving image data based on the still image information and the timing information.
  • the moving image shooting instruction unit instructs the imaging unit to perform moving image shooting, and in accordance with an instruction from the moving image shooting instruction unit
  • the imaging unit captures a subject to obtain a plurality of image data
  • the image processing unit performs image processing on the plurality of image data obtained by the imaging unit to obtain moving image data
  • the moving image During the execution of shooting, the still image shooting instruction unit instructs the imaging unit to execute still image shooting, and a still image information storage unit is obtained by the imaging unit in response to an instruction from the still image shooting instruction unit.
  • Still image information including still image data obtained by image processing of the obtained image data by the image processing unit and accompanying information of the still image data is stored, and in response to an instruction from the still image capturing instruction unit
  • the timing information acquisition unit is instructed to execute the still image shooting.
  • Timing information indicating timing is acquired, and the image processing unit is configured to generate the moving image based on the still image information stored in the still image information storage unit and the timing information acquired by the timing information acquisition unit.
  • a special effect image process is further performed on the data.
  • FIG. 1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to each embodiment of the present invention.
  • FIG. 2 is a flowchart showing the main operation of the digital camera.
  • FIG. 3 is a flowchart showing details of the moving image shooting process according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing an example of the process of step S209 of FIG. 3 in the first embodiment of the present invention.
  • FIG. 5 is a diagram showing an example of a synthesis coefficient setting table in the first embodiment of the present invention.
  • FIG. 6 is a diagram for explaining an example of the synthesis process.
  • FIG. 7 is a flowchart showing an example of the process of step S209 of FIG. 3 in the second embodiment of the present invention.
  • FIG. 8A is a diagram illustrating an example of cyclic storage of image data, and illustrates an example of storage up to the seventh image data.
  • FIG. 8B is a diagram illustrating an example of cyclic storage of image data, and is a diagram illustrating an example of storage after the eighth image data.
  • FIG. 9 is a diagram showing an example of a synthesis coefficient setting table in the second embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of a change characteristic of the reproduction speed.
  • FIG. 11 is a diagram for explaining generation of a past frame.
  • FIG. 12 is a diagram for explaining generation of a current frame.
  • FIG. 13 is a flowchart showing an example of the process of step S209 of FIG. 3 in the third embodiment of the present invention.
  • FIG. 14 is a diagram showing an example of the gain map.
  • FIG. 15 is a diagram illustrating an example in the case of performing shading addition processing according to the gain map illustrated in FIG.
  • FIG. 16 is a flowchart showing details of the moving image shooting process according to the fourth embodiment of the present invention.
  • FIG. 17 is a flowchart showing details of the moving image reproduction processing according to the fourth embodiment of the present invention.
  • FIG. 18 is a block diagram illustrating a configuration of a modification in which a special effect image processing unit is provided in a special effect image processing apparatus.
  • FIG. 1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to each embodiment of the present invention.
  • a digital camera 10 shown in FIG. 1 is an interchangeable lens type digital camera. However, it is not always necessary to be an interchangeable lens digital camera, and a lens-integrated digital camera may be used.
  • the digital camera 10 shown in FIG. 1 has an interchangeable lens 100 and a camera body 200.
  • the interchangeable lens 100 is configured to be detachable from the camera body 200.
  • the interchangeable lens 100 is attached to the camera body 200, the interchangeable lens 100 is connected to the camera body 200 so as to be able to communicate. As a result, the interchangeable lens 100 becomes operable according to the control of the camera body 200.
  • the interchangeable lens 100 includes a lens 101, a diaphragm 102, a driver 103, a lens microcomputer 104, and a flash memory 105.
  • the lens 101 is an optical system for condensing a light beam from a subject (not shown) on the image sensor 202 in the camera body 200.
  • the lens 101 has a plurality of lenses such as a focus lens and a zoom lens.
  • the diaphragm 102 is configured to be openable and closable, and adjusts the amount of light incident through the lens 101.
  • the driver 103 has a motor and the like.
  • the driver 103 drives the focus lens and zoom lens in the lens 101 in the direction of the optical axis and drives the aperture 102 to open and close under the control of the lens microcomputer 104.
  • the lens microcomputer 104 is communicably connected to the microcomputer 215 in the camera body 200 via the interface (I / F) 106 when the interchangeable lens 100 is attached to the camera body 200.
  • the lens microcomputer 104 drives the driver 103 according to control from the microcomputer 215.
  • the lens microcomputer 104 communicates lens information of the interchangeable lens 100 stored in the flash memory 105 to the microcomputer 215 via the I / F 106.
  • the flash memory 105 stores lens information such as aberration information of the lens 101, a program necessary for executing the operation of the interchangeable lens 100, and the like.
  • the camera body 200 includes a mechanical shutter 201, an image sensor 202, an analog processing unit 203, an analog / digital (A / D) conversion unit 204, a bus 205, a RAM 206, an AE processing unit 207, and an AF processing unit 208.
  • the mechanical shutter 201 is configured to be movable so that the photoelectric conversion surface of the image sensor 202 is in a light shielding state or an exposed state. By moving the mechanical shutter 201, the exposure time of the image sensor 202 is adjusted.
  • the image sensor 202 has a photoelectric conversion surface on which a light beam from a subject condensed through the lens 101 is imaged.
  • the photoelectric conversion surface is configured with a plurality of pixels arranged two-dimensionally.
  • a color filter is provided on the light incident side of the photoelectric conversion surface.
  • Such an image sensor 202 converts an image (subject image) corresponding to the light beam formed on the photoelectric conversion surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount and outputs the electrical signal.
  • the image sensor 202 image sensors having various configurations such as a CCD system and a CMOS system are known. Various color filters such as a Bayer array are also known.
  • the configuration of the image sensor 202 is not limited to a specific configuration, and image sensors with various configurations can be used. However, it is desirable that the image sensor 202 has an electronic shutter function for electronically controlling the exposure time. In the following description, it is assumed that the image sensor 202 has an electronic shutter function.
  • the analog processing unit 203 performs analog processing such as CDS (correlated double sampling) processing and AGC (automatic gain control) processing on the image signal obtained by the image sensor 202.
  • the A / D converter 204 converts the image signal analog-processed by the analog processor 203 into a digital signal (hereinafter referred to as image data).
  • the imaging element 202 the analog processing unit 203, and the A / D conversion unit 204 function as an example of the imaging unit.
  • the bus 205 is a transfer path for transferring various data generated in the camera body 200.
  • the RAM 206 is a storage unit for temporarily storing various data generated in the camera body 200.
  • the RAM 206 functions as an example of a still image information storage unit.
  • the RAM 206 is a DRAM, for example.
  • the AE processing unit 207 calculates subject luminance using the image data.
  • the subject luminance is not only calculated from the image data, but may be measured by a dedicated photometric sensor, for example.
  • the AF processing unit 208 extracts high-frequency component signals from the image data, integrates the extracted high-frequency component signals, and acquires a focus evaluation value for AF.
  • the image processing unit 209 performs various image processing on the image data.
  • the image processing unit 209 in the present embodiment includes a basic image processing unit 2091 and a special effect image processing unit 2092.
  • the basic image processing unit 2091 performs basic image processing necessary for image display and recording on the image data.
  • the basic image processing includes, for example, optical black subtraction processing, white balance correction processing, color matrix calculation processing, gamma conversion processing, edge enhancement processing, and noise reduction processing.
  • the basic image processing unit 2091 also performs resizing processing and the like.
  • the optical black subtraction process is a process of subtracting and removing the dark current component (optical black) of the image data.
  • the white balance correction process is a process of multiplying a gain for correcting the color balance of the image data.
  • the color matrix calculation process is a process for performing a matrix calculation for adjusting the hue and saturation of the entire image data.
  • the gamma conversion process is a process for converting the gradation characteristics of the image data into predetermined characteristics.
  • the edge enhancement process is a process for enhancing an edge (contour) component in image data.
  • the noise reduction process is a process for removing noise components in the image data.
  • the resizing process is a process of interpolating the image data so as to enlarge or reduce it to a desired size. Further, depending on the color arrangement of the color filters, further synchronization processing may be required as basic image processing.
  • the synchronization processing converts image data in which one pixel corresponds to one color component, such as image data corresponding to a Bayer array, into image data in which one pixel corresponds to a plurality of color components. It is processing.
  • the special effect image processing unit 2092 performs special effect image processing on the image data to give a special viewing angle effect to the image.
  • This special effect image processing includes, for example, shading addition processing, blurring addition processing, soft focus processing, and image composition processing.
  • Shading addition processing is processing for adding shading (shading) to an image.
  • the blur addition process is a process for adding blur to an area in the image excluding the subject area.
  • the soft focus process is a process for adding blur to the entire image.
  • the image composition process is a process for synthesizing a plurality of image data to generate one new image data.
  • the image compression / decompression unit 210 performs still image compression processing such as the JPEG method or moving image compression processing such as the MPEG method on the image data obtained by the image processing in the image processing unit 209 during image recording. Further, the image compression / decompression unit 210 performs a decompression (decoding) process on the image data subjected to the compression process at the time of reproducing the image.
  • the memory I / F 211 is an interface for the microcomputer 215 or the like to access the recording medium 212.
  • the recording medium 212 is a memory card that is detachably attached to the camera body 200, for example.
  • the recording medium 212 records image files and the like.
  • the image file is a file in which header information is added to the image data compressed by the image compression / decompression unit 210.
  • the recording medium 212 functions as an example of a moving image recording unit.
  • the display driver 213 converts the image data obtained by the image processing unit 209 or the image data expanded by the image compression / decompression unit 210 into a video signal and outputs the video signal to the display unit 214.
  • the display unit 214 is a liquid crystal display (LCD), for example.
  • the display unit 214 displays an image based on the video signal input from the display driver 213.
  • the microcomputer 215 comprehensively controls the operation of each part of the camera body 200 such as the mechanical shutter 201, the image sensor 202, and the display driver 213. Further, the microcomputer 215 performs AE processing using the subject brightness calculated by the AE processing unit 207 or performs AF processing using the AF evaluation value calculated by the AF processing unit 208. The microcomputer 215 also controls the operation of the interchangeable lens 100 when the interchangeable lens 100 is attached. Furthermore, the microcomputer 215 in this embodiment also has a function as a timing acquisition unit. Specifically, the microcomputer 215 indicates information indicating the timing when the release button 2161 of the operation unit 216 is fully pressed by the user during moving image shooting, that is, when execution of still image shooting is instructed (hereinafter referred to as release timing). To get.
  • the operation unit 216 is various operation members operated by the user.
  • the operation unit 216 in the present embodiment includes a release button 2161, a moving image recording button 2162, a menu button 2163, a playback button 2164, and a power button 2165.
  • some or all of these buttons may be configured as a virtual operation unit operated by a touch panel.
  • the release button 2161 has a two-stage switch including a first (1st) release switch and a second (2nd) release switch.
  • the microcomputer 215 executes shooting preparation processing such as AE processing and AF processing.
  • the release button 2161 is fully pressed and the second release switch is turned on, the microcomputer 215 executes still image shooting processing.
  • the release button 2161 functions as an example of a still image shooting instruction unit for instructing the microcomputer 215 to execute still image shooting.
  • the moving image recording button 2162 functions as an example of a moving image shooting instruction unit for instructing the microcomputer 215 to execute moving image shooting.
  • the microcomputer 215 executes moving image shooting processing. If the moving image recording button 2162 is pressed during the moving image shooting process, the microcomputer 215 ends the moving image shooting process.
  • Menu button 2163 is an operation unit for instructing display of a menu screen. On the menu screen, the user can change various settings of the camera body 200.
  • the playback button 2164 is an operation unit for instructing the microcomputer 215 to play back a still image file or a moving image file.
  • the power button 2165 is an operation unit for instructing to turn on or off the power of the camera body 200.
  • the flash memory 217 is used for operations of the camera body 200 such as parameters necessary for the operation of the image processing unit 209 such as a white balance gain for white balance correction, a color matrix coefficient for color matrix calculation, and a gamma table for gamma conversion. Various necessary parameters are stored.
  • the flash memory 217 in the present embodiment also stores a table for setting a synthesis coefficient used in special effect image processing.
  • the flash memory 217 also stores various programs executed by the microcomputer 215.
  • the face detection unit 218 detects the image of the face in the image data using feature amount matching or the like, and outputs information indicating the detected face range (face range) to the microcomputer 215.
  • FIG. 2 is a flowchart showing the main operation of the digital camera shown in FIG. The operation of FIG. 2 is performed when the power of the digital camera shown in FIG. 1 is turned on, for example.
  • the microcomputer 215 After the digital camera is turned on, the microcomputer 215 performs an initialization process (step S101). In the initialization processing, the microcomputer 215 performs processing such as turning off the recording flag set in the register of the microcomputer 215.
  • the recording flag is a flag indicating whether or not a moving image is being recorded. While the recording flag is Off, it indicates that the moving image is not being recorded. On the other hand, while the recording flag is On, it indicates that moving image recording is in progress.
  • the microcomputer 215 determines whether or not the reproduction button 2164 of the operation unit 216 has been pressed by the user (step S102). If the playback button 2164 is pressed in the determination in step S102, the microcomputer 215 executes playback processing (step S103). In the reproduction process, the microcomputer 215 waits for the user to select an image file (still image file or moving image file). When the image file is selected, the microcomputer 215 decodes the selected image file by the image compression / decompression unit 210. Then, the microcomputer 215 inputs image data decoded from the selected image file to the display driver 213. The display driver 213 converts the input image data into a video signal, and causes the display unit 214 to display an image corresponding to the video signal. Thereafter, when the user gives an instruction to end reproduction, for example, when the reproduction button 2164 is pressed again, the microcomputer 215 returns the processing to step S102.
  • the microcomputer 215 determines whether the menu button 2163 of the operation unit 216 is pressed by the user (step S104). If the menu button 2163 is pressed in the determination in step S104, the microcomputer 215 controls the display driver 213 to display the menu screen on the display unit 214 and then executes camera setting processing (step S105). .
  • the microcomputer 215 waits for a camera setting change instruction from the user. When an instruction to change any camera setting is given, the microcomputer 215 changes the camera setting according to the instruction. In this camera setting process, for example, the setting of the image recording mode at the time of still image shooting or moving image shooting is changed. In the camera setting process, whether or not to execute special effect image processing to be described later can also be changed.
  • the microcomputer 215 determines whether or not the moving image recording button 2162 of the operation unit 216 is pressed by the user (step S106). If the moving image recording button 2162 is pressed in the determination in step S106, the microcomputer 215 inverts the recording flag (step S107). That is, the microcomputer 215 turns On when the recording flag is Off, and turns it Off when it is On. Thereafter, the microcomputer 215 determines whether or not the moving image is currently being recorded, that is, whether or not the recording flag is On (step S108).
  • the moving image file has a header information recording unit and a moving image recording unit.
  • header information for a moving image file is recorded.
  • the header information includes a file name, shooting information at the time of moving image shooting (ISO sensitivity, aperture value, shooting date, etc.), pointer information for specifying the position of each of a plurality of image data constituting moving image data, and the like. Record.
  • still image information and timing information are recorded as header information. Details of these still image information and timing information will be described later.
  • the moving image recording unit records moving image data in a compressed state.
  • step S111 If the moving image recording button 2162 is not pressed in the determination in step S106, or if the recording flag is not On in the determination in step S108, after the moving image file is generated in step S109, the microcomputer 215 is currently recording the moving image. It is determined whether there is, that is, whether the recording flag is On (step S110). If it is determined in step S110 that the recording flag is Off, the microcomputer 215 determines that the release button 2161 of the operation unit 216 is half-pressed by the user so that the release button 2161 changes from the Off state to the On state of the 1st release switch. It is determined whether or not a transition has been made (step S111).
  • the microcomputer 215 performs face detection processing, AE processing, and AF processing (step S112).
  • face detection process the microcomputer 215 causes the face detection unit 218 to detect a face range.
  • AE process the microcomputer 215 causes the AE processing unit 207 to calculate the subject brightness.
  • the microcomputer 215 determines the ISO sensitivity, the aperture value, and the shutter speed when executing still image shooting according to the subject luminance calculated by the AE processing unit 207.
  • the ISO sensitivity, the aperture value, and the shutter speed may be determined so that the luminance of a specific face is appropriate.
  • the microcomputer 215 causes the AF processing unit 208 to acquire a focus evaluation value.
  • the microcomputer 215 instructs the lens microcomputer 104 to drive the focus lens of the lens 101 little by little while evaluating the contrast in the image data based on the focus evaluation value acquired by the AF processing unit 208. . Thereafter, the microcomputer 215 instructs the lens microcomputer 104 to stop driving the focus lens when the contrast reaches the maximum.
  • Such AF processing is so-called contrast AF processing.
  • contrast AF processing is so-called contrast AF processing.
  • a phase difference AF process may be used as the AF process.
  • the focus lens may be driven to focus on a specific face range.
  • the face detection process, the AE process, and the AF process in the example of FIG. 2 are executed at the timing when the state of the release button 2161 transitions to the On state of the 1st release switch. That is, when the state of the release button does not transition to the On state of the 1st release switch, for example, when the state of the release button remains in the Off state, when the 1st release switch remains in the On state, When the On state is maintained, the face detection process, the AE process, and the AF process are not executed.
  • step S111 If the state of the release button 2161 has not changed to the ON state of the 1st release switch in the determination of step S111, the microcomputer 215 indicates that the release button 2161 of the operation unit 216 is fully pressed by the user and the state of the release button 2161 Is determined whether or not the 2nd release switch is in the ON state (step S113).
  • step S114 the microcomputer 215 executes still image shooting processing.
  • the microcomputer 215 sets the gain control amount (amplification factor) in the analog processing unit 203 according to the ISO sensitivity determined in step S112, and transmits the aperture value determined in step S112 to the lens microcomputer 104. To do.
  • the microcomputer 215 controls the exposure amount of the image sensor 202 by operating the mechanical shutter 201 in accordance with the shutter speed determined in step S112 in synchronization with the driving of the diaphragm 102 under the control of the lens microcomputer 104.
  • Image data is stored in the RAM 206 by such still image shooting processing.
  • the microcomputer 215 After executing the still image shooting process, the microcomputer 215 generates still image data by performing image processing on the image data stored in the RAM 206 by the still image shooting process using the image processing unit 209 (step S110). S115). At this time, if it is preset to perform special effect image processing, both basic image processing by the basic image processing unit 2091 and special effect image processing by the special effect image processing unit 2092 are performed on the image data. . On the other hand, when it is not preset to perform special effect image processing, only basic image processing by the basic image processing unit 2091 is performed on the image data.
  • the microcomputer 215 After the image processing, the microcomputer 215 performs processing for recording the still image data stored in the RAM 206 as a result of the image processing as a still image file (step S116). At this time, the microcomputer 215 instructs the image compression / decompression unit 210 to execute still image compression processing on still image data stored in the RAM 206 as a result of the still image shooting processing. In response to this instruction, the image compression / decompression unit 210 performs still image compression processing so as to correspond to a preset recording mode, and stores the compressed still image data in the RAM 206.
  • the microcomputer 215 reads the still image data compressed by the image compression / decompression unit 210 from the RAM 206, adds predetermined header information to the read still image data, creates a still image file, and creates the created still image file. Is recorded on the recording medium 212.
  • the still image file has a header information recording unit and a still image recording unit.
  • header information for a still image file is recorded.
  • As the header information a file name, shooting information at the time of shooting a still image (ISO sensitivity, aperture value, shooting date, etc.) and the like are recorded.
  • the still image recording unit records still image data in a compressed state.
  • step S117 If it is determined in step S113 that the release button is not in the ON state of the 2nd release switch, the microcomputer 215 executes AE processing (step S117).
  • This AE process is a process for live view display.
  • the microcomputer 215 executes a shooting process for live view display (step S118).
  • the microcomputer 215 controls the exposure amount of the image sensor 202 by operating the electronic shutter function of the image sensor 202 according to the shutter speed determined by the AE process.
  • the microcomputer 215 performs image processing on the image data stored in the RAM 206 as a result of the photographing process using the image processing unit 209 (step S119).
  • the microcomputer 215 instructs the display driver 213 to reproduce the image data stored in the RAM 206 as a result of the image processing.
  • the display driver 213 reads the image data from the RAM 206, converts the read image data into a video signal, and outputs it to the display unit 214.
  • the display unit 214 reproduces an image based on this video signal (step S120). With such live view display, the user can check the composition using the display unit 214.
  • step S110 If the recording flag is On in the determination in step S110, the microcomputer 215 executes the moving image shooting process (step S121). Details of the moving image shooting process will be described later.
  • step S122 the microcomputer 215 determines whether or not the power of the digital camera is turned off. If it is determined in step S122 that the power of the digital camera is not turned off, the microcomputer 215 executes processing subsequent to step S102. On the other hand, when the digital camera is turned off in the determination of step S122, the microcomputer 215 ends the process of FIG.
  • FIG. 3 is a flowchart showing details of the moving image shooting process in the present embodiment.
  • FIG. 3 will be described assuming that special effect image processing is set to be executed in the camera setting processing.
  • the microcomputer 215 performs a face detection process and an AE process (step S201). Subsequently, the microcomputer 215 determines whether or not the state of the release button 2161 has transitioned from the Off state to the On state of the 1st release switch (Step S202). If it is determined in step S202 that the state of the release button 2161 has changed to the ON state of the 1st release switch, the microcomputer 215 performs AF processing (step S203). If it is determined in step S203 that the state of the release button 2161 has not changed to the ON state of the first release switch, the microcomputer 215 skips the process of step S203.
  • step S204 the microcomputer 215 controls the exposure amount of the image sensor 202 by operating the electronic shutter function of the image sensor 202 according to the shutter speed determined by the AE process, similarly to the live view display photographing process. .
  • the microcomputer 215 performs image processing on the image data stored in the RAM 206 as a result of the photographing process using the image processing unit 209 (step S205).
  • step S205 basic image processing is performed on the image data.
  • the microcomputer 215 determines whether or not the state of the release button 2161 is the On state of the 2nd release switch (step S206). If it is determined in step S206 that the release button 2161 is in the On state of the 2nd release switch, the microcomputer 215 stores the still image information at that time in, for example, the RAM 206 (step S207).
  • the still image information is accompanying information related to image data of a frame immediately before the timing when the release button 2161 is fully pressed during movie shooting (release timing).
  • release timing the image data itself of the frame immediately before the release timing is stored as still image information. The stored image data is obtained during moving image shooting, but is handled as one still image data.
  • the stored image data is referred to as still image data in a moving image.
  • information indicating the position in the focused image in the AF process immediately before the release button timing (hereinafter referred to as AF information) may be stored as still image information.
  • information indicating a specific face range obtained in the face detection process immediately before the release timing (hereinafter referred to as face information) can be stored as still image information.
  • various types of information that can identify the main subject of still image data in a moving image can be stored as still image information.
  • the microcomputer 215 After storing the still image information, the microcomputer 215 acquires timing information indicating the release timing (step S208).
  • the timing information is, for example, the elapsed time from the start of the moving image shooting process to the release timing or the time indicating the release timing.
  • the frame number of the image data in the moving image file corresponding to the still image data in the moving image and the information (pointer information) indicating the position from the head of the moving image file of the image data corresponding to the still image data in the moving image are the timing information. It is also good.
  • the microcomputer 215 After acquiring the timing information, the microcomputer 215 executes special effect image processing, live view display processing, and recording processing (step S209). Thereafter, the microcomputer 215 terminates the process in FIG. 3 and executes the processes after step S122 in FIG.
  • FIG. 4 is a flowchart showing an example of the process of step S209 of FIG. 3 in the first embodiment.
  • the microcomputer 215 displays the time difference between the image data acquisition timing of the frame (current frame) that is the subject of the current moving image shooting and the release timing indicated by the timing information, that is, the elapsed time from the release timing. It is determined whether or not a predetermined time T (for example, within 3 seconds) (step S301).
  • a predetermined time T for example, within 3 seconds
  • the timing information is a frame number or pointer information
  • step S301 If it is determined in step S301 that the time difference between the image data acquisition timing of the current frame and the release timing indicated by the timing information is not within a predetermined time, the microcomputer 215 skips the processing in steps S302 and S303. In this case, special effect image processing is not performed on the image data of the current frame.
  • step S301 if it is determined in step S301 that the time difference between the image data acquisition timing of the current frame and the release timing indicated by the timing information is within a predetermined time, the microcomputer 215 stores the table stored in the flash memory 217.
  • the synthesis coefficient is calculated according to (Step S302). After calculating the synthesis coefficient, the microcomputer 215 uses the image processing unit 209 to synthesize (superimpose) the still image data in the moving image stored in the RAM 206 as still image information and the image data of the current frame, and obtain the result by synthesis.
  • the obtained image data is stored in the RAM 206 as image data of a new current frame (step S303).
  • the microcomputer 215 stores the image of the current frame stored in the RAM 206.
  • the display driver 213 is instructed to display an image based on the data in live view (step S304).
  • the microcomputer 215 adds the image data of the current frame stored in the RAM 206 to the moving image file created in advance in step S109 of FIG. 2 (step S305).
  • the microcomputer 215 ends the process of FIG.
  • step S ⁇ b> 305 the microcomputer 215 instructs the image compression / decompression unit 210 to execute the moving image compression process on the image data of the current frame stored in the RAM 206.
  • the image compression / decompression unit 210 performs a moving image compression process so as to correspond to a preset recording mode, and stores the compressed image data in the RAM 206.
  • the microcomputer 215 reads the compressed image data from the RAM 206 and adds the read image data to the moving image recording unit of the moving image file created in advance.
  • FIG. 5 is a diagram showing an example of a synthesis coefficient setting table for calculating a synthesis coefficient in step S302.
  • the synthesis coefficient is set in the range of 0.0 to 1.0. Further, it is desirable that the synthesis coefficient is set to be 0.0 when a predetermined time T has elapsed from a time immediately after the release timing (time 0 in the figure).
  • FIG. 5 shows an example of a synthesis coefficient table that satisfies these two conditions.
  • the characteristic of the table in FIG. 5A is a characteristic that the synthesis coefficient decreases to 0.0 over a predetermined time T.
  • the characteristic of the table in FIG. 5b is a characteristic in which the synthesis coefficient is constant for a certain time and then decreases to 0.0.
  • the characteristics of the table of FIG. 5c are characteristics in which the synthesis coefficient increases to 1.0 and then decreases to 0.0. In this way, a table of synthesis coefficients of various characteristics can be set.
  • the microcomputer 215 calculates a synthesis coefficient corresponding to the time difference from the release timing, using a table stored in advance as shown in FIG. When a plurality of characteristic tables are stored, the user may be able to set which table to use.
  • FIG. 6 is a diagram for explaining an example of the composition processing in step S303.
  • FIG. 6 shows an example in which the synthesis is performed according to the following (Equation 1).
  • C ⁇ ⁇ A + B (Formula 1)
  • a in (Equation 1) indicates the value of the still image data in the moving image
  • B indicates the value of the image data of the current frame
  • indicates the synthesis coefficient
  • C indicates the value of the image data after synthesis.
  • the synthesis coefficient ⁇ in the example of FIG. 6 corresponds to the characteristic a in FIG.
  • the release button 2161 when the release button 2161 is fully pressed during a series of moving image shooting, the image data of the immediately preceding frame is stored as still image data in the moving image. Thereafter, synthesis is performed until a predetermined time T seconds (for example, 3 seconds) elapses from the release timing.
  • T seconds for example, 3 seconds
  • the still image in the moving image in the translucent state is superimposed on the image of the current frame, and the combined image data C1, C2, and C3 shown in FIG. 6 are generated.
  • the composite coefficient table has the characteristic a in FIG. 5, the composite coefficient ⁇ decreases with time. For this reason, the synthesized image data C2 has greater transparency of the synthesized still image data in the moving image than the synthesized image data C1.
  • the still image data in the moving image becomes completely transparent when a predetermined time T (3 seconds) elapses.
  • the synthesized image data C3 obtained at this time is equivalent to image data that is not synthesized.
  • the image processing unit 209 extracts the image data of the face range specified by the face information from the still image data in the moving image, and combines the extracted image data of the face range with the image data of the current frame.
  • the synthesis position of the image data of the face range is not particularly limited. For example, it may be a fixed position, may be a subject position (face range) in the image data of the current frame, or may be set appropriately by the user.
  • image data may be extracted using AF information instead of face information.
  • the image data in the face range of the still image data in the moving image may be enlarged and then combined.
  • the enlargement ratio is desirably set so that the image data of the enlarged face range is within the angle of view of the image data of the current frame.
  • the user may be able to set the enlargement ratio.
  • the user may be able to set whether to synthesize after expanding the image data of the face range of the still image data in the moving image.
  • the image data corresponding to the timing is synthesized as special effect image processing. Processing is performed.
  • the user can perform special effect image processing at an intended timing during moving image shooting without performing editing or the like after moving image shooting.
  • the composite coefficient of still image data in moving images is changed according to the elapsed time from the release timing, and is set to zero after a certain time, thereby reproducing It is possible to give a natural afterimage effect by suppressing a rapid image change at the time.
  • the timing for acquiring the still image data in the moving image is the timing when the release button 2161 is fully pressed.
  • the operation unit for instructing this timing may be other than the release button 2161.
  • the second embodiment is an example in which special effect image processing different from that of the first embodiment is performed.
  • special effect image processing processing for changing the playback time of a moving image corresponding to timing before and after the release timing is performed.
  • a storage area for the image buffer is provided in the RAM 206.
  • the image buffer storage area is provided separately from the storage area for storing still image data and moving image data.
  • the storage area for the image buffer is a storage area for holding image data of past frames in special effect image processing described later.
  • FIG. 7 is a flowchart showing an example of the process of step S209 of FIG. 3 in the second embodiment.
  • the microcomputer 215 displays the time difference between the image data acquisition timing of the frame (current frame) that is the subject of the current moving image shooting and the release timing indicated by the timing information, that is, the elapsed time from the release timing. It is determined whether or not it is a predetermined time T (for example, within 3 seconds) (step S401). If it is determined in step S401 that the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is not within a predetermined time, the microcomputer 215 adds the image data of the current frame stored in the RAM 206 to the current frame. The display driver 213 is instructed to display the image based on the live view (step S402).
  • the microcomputer 215 determines whether or not the image buffer is full (step S403). If it is determined in step S403 that the image buffer is full, the microcomputer 215 adds the image data recorded in the image buffer to the moving image file created in advance in step S109 in FIG. 2 (step S404). ). After that, the microcomputer 215 stores the image data of the current frame in the image buffer configured in the RAM 206 (step S405). If it is determined in step S403 that the image buffer is not full, the microcomputer 215 skips step S404.
  • step S404 the oldest image data among the image data recorded in the image buffer is recorded in the moving image file in order.
  • the image buffer has a capacity sufficient to store seven pieces of image data.
  • the image data is sequentially stored in the image buffer as shown in FIG. 8A until the seventh image data is stored.
  • the oldest image data is added to the moving image file and stored as shown in FIG. 8B.
  • step S401 when the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is within a predetermined time, the microcomputer 215 sets the image data of the current frame to the release timing. It is determined whether or not the image data of the corresponding frame (step S406). If it is determined in step S406 that the image data of the current frame is the image data of the frame corresponding to the release timing, the microcomputer 215 causes the image processing unit 209 to perform a part of the image data of the current frame (for example, the face range or AF). Range) is cut out (step S407). Then, the microcomputer 215 performs generation processing of past frame image data as special effect image processing in the second embodiment, using a part of the image data that has been cut out (step S408). The process of generating the past frame image data will be described later.
  • the microcomputer 215 After generating the image data of the past frame, the microcomputer 215 adds the image data of the past frame generated in step S408 to the moving image file created in advance in step S109 of FIG. 2 (step S409). After the past frame image data is added to the moving image file, the microcomputer 215 instructs the display driver 213 to perform live view display of the image based on the generated past frame image data (step S410). Thereafter, the microcomputer 215 ends the process shown in FIG.
  • step S406 If it is determined in step S406 that the image data of the current frame is not the image data of the frame corresponding to the release timing, the microcomputer 215 uses a partial image of the image data cut out by the image processing unit 209. Generation processing of image data of a new current frame is performed as special effect image processing in the second embodiment (step S411). This generation processing of the image data of the current frame will also be described later.
  • the microcomputer 215 After generating the image data of the current frame, the microcomputer 215 instructs the display driver 213 to display an image based on the generated image data of the current frame (step S412). Thereafter, the microcomputer 215 adds the image data of the current frame generated in step S411 to the moving image file created in advance in step S109 of FIG. 2 (step S413). After adding the image data of the current frame to the moving image file, the microcomputer 215 ends the process shown in FIG.
  • FIG. 9 is a diagram illustrating an example of a synthesis coefficient setting table for frame generation in step S408 or S411.
  • the synthesis coefficient in the second embodiment is also set in the range of 0.0 to 1.0, as in the first embodiment.
  • the synthesis coefficient is set within a predetermined time T before and after the release timing (time 0 in the figure). Then, the synthesis coefficient in the second embodiment is set to be 0.0 at the time of ⁇ T from the release timing. If these conditions are satisfied, the characteristics of the synthesis coefficient may be set arbitrarily.
  • the example of FIG. 9 is a characteristic in which the synthesis coefficient monotonously increases from 0.0 to 0.5 from the time point of ⁇ T to the time point of 0, and then decreases to 0.0 before reaching the time point of T. .
  • the playback speed of moving image data within a predetermined time T before and after the release timing is changed.
  • FIG. 10 is a diagram illustrating an example of a change characteristic of the reproduction speed.
  • FIG. 10 shows an example in which the reproduction speed is changed from the normal speed to the double speed, then changed from the double speed to 1/2, and then returned to the normal speed again.
  • an area for performing high-speed playback processing area of an area equal to or larger than the line in the figure
  • an area for performing low-speed playback processing area below the same-sized line in the figure. Area
  • the number of frames that decrease due to high-speed reproduction matches the number of frames that increase due to low-speed reproduction.
  • FIG. 11 is a diagram for explaining generation of a past frame in step S408.
  • the still image data in the moving image generated from the image data (m) corresponding to the release timing is synthesized with each of the image data (m-6) to (m-1) stored in the image buffer.
  • the still image data in the moving image is also synthesized with the image data (m) corresponding to the release timing.
  • the method of synthesis is the same as in the first embodiment. That is, a part of the still image data in the moving image (for example, a face range) is cut out, and the angle of view of the cut out part of the image is expanded. Then, in accordance with the synthesis coefficient associated with the time difference from the release timing as shown in FIG.
  • a part of the enlarged still image data in the moving image is synthesized with the image data to be synthesized.
  • the angle of view of a part of the still image data in the moving image may not be enlarged, that is, the angle of view may be the same.
  • Each composite image data (m-6) to (m-1) obtained by the synthesis process of still image data in the moving image is overwritten and stored in the image buffer.
  • the composite image data (m) is overwritten and stored in a storage area different from the image buffer of the RAM 206.
  • image data after changing the reproduction speed is generated so as to change the reproduction speed. Assuming that the playback time of image data for one frame does not change, the number of image data to be played back may be reduced to increase the playback speed, and the number of image data to be played back to reduce the playback speed. Can be increased.
  • the reproduction speed when reproducing image data of a plurality of consecutive frames, the reproduction speed can be increased by synthesizing and reproducing the image data of these frames or by thinning and reproducing them.
  • the playback speed when playing back image data of a plurality of consecutive frames, the playback speed can be increased by further playing back the image data of an intermediate frame between successive frames or playing back the image data of the same frame multiple times. Can be slowed down.
  • the composite image data (m-5) and (m-4) and the composite image data (m-3) and (m-2) are reproduced at double speed.
  • the synthesized image data (m-5) and the synthesized image data (m-4) are further synthesized to generate image data (m-5) after changing the reproduction speed.
  • the combined image data (m-3) and the combined image data (m-2) are further combined to generate image data (m-4) after changing the reproduction speed.
  • the composition ratio of the composite image data in these composition processes is, for example, 1: 1.
  • the reproduction speed is double speed.
  • an example in which the synthesized image data for two frames is further synthesized is shown as the high-speed processing, but one of the two frames may be thinned out.
  • the composite image data (m-1) is reproduced at the same speed. Therefore, the composite image data (m ⁇ 1) is used as image data (m ⁇ 3) after changing the reproduction speed without applying any processing.
  • the next composite image data (m) is reproduced at 1/2 times speed.
  • the composite image data (m) is copied to generate post-change speed image data (m-2) and (m-1).
  • the reproduction speed becomes 1/2 times faster.
  • the process of copying the same composite image data is shown as the speed reduction process, but composite image data of two intermediate frames may be newly generated.
  • the process until the generation of the image data (m ⁇ 1) after the reproduction speed change using the composite image data (m) is the past frame generation process. After such a past frame generation process, the composite image data stored in the image buffer until then is deleted. After that, until the predetermined time T elapses, every time new image data is acquired by moving image shooting, the current frame is generated in step S411.
  • the current frame generation process will be described below with reference to FIG.
  • Image data (m + 1) is obtained at the next moving image shooting timing of the composite image data (m). First, still image data in a moving image is synthesized with image data (m + 1) to generate synthesized image data (m + 1). The composite image data (m + 1) is overwritten and stored in the RAM 206. The composite image data (m + 1) is reproduced at 1/2 speed. For this purpose, the composite image data (m + 1) is copied to generate post-change speed image data (m) and (m + 1).
  • the post-change speed image data (m + 2) is composite image data (m + 2).
  • the post-change speed image data (m + 3) is composite image data of an intermediate frame between the composite image data (m + 2) and the composite image data (m + 3).
  • the post-change speed image data (m + 4) is the composite image data (m + 4).
  • composite image data (m + 5) and (m + 6) are also obtained before the predetermined time T elapses. These are played back at the same speed.
  • the special effect image can be applied to the image data at the timing before and after the release button 2161 only by fully pressing the release button 2161 at the desired timing during moving image shooting.
  • a reproduction speed change process is performed as a process.
  • the user can perform special effect image processing at an intended timing during moving image shooting without performing editing or the like after moving image shooting.
  • the reproduction speed is changed after the still image data in the moving image is synthesized.
  • the still image data in the moving image may be synthesized after the processing for changing the reproduction speed is performed.
  • the composition process itself of the still image data in the moving image may be omitted. In this case, it is not necessary to store the still image data in the moving image as still image information.
  • the process of increasing the playback speed by 2 or 1/2 is performed.
  • the reproduction speed is not necessarily doubled or halved, and can be set arbitrarily. For example, if the synthesized image data for 3 frames is synthesized and reproduced, the reproduction speed can be tripled. Conversely, if the same composite image data is reproduced three times in succession, the reproduction speed can be increased to 1/3. However, when the speed-up process of 3 times speed is performed, it is desirable to interpolate the three frames reduced by this process by the speed-down process.
  • the third embodiment is an example in which special effect image processing different from the first and second embodiments is performed.
  • image data is processed according to a gain map.
  • the special effect image processing includes processing for adding shading, processing for changing saturation, processing for adding blur, soft focus processing, and the like.
  • FIG. 13 is a flowchart illustrating an example of the process of step S209 of FIG. 3 in the third embodiment.
  • the microcomputer 215 displays the time difference between the image data acquisition timing of the current frame (current frame) image data acquisition timing and the release timing indicated by the timing information, that is, the elapsed time from the release timing. It is determined whether or not it is a predetermined time T (for example, within 3 seconds) (step S501).
  • step S501 If it is determined in step S501 that the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is within a predetermined time, the microcomputer 215 performs the special effect image processing in the third embodiment.
  • a gain map is created (step S502). The gain map creation process will be described later.
  • the microcomputer 215 executes special effect image processing (step S503).
  • step S501 If the time difference between the image data acquisition timing of the current frame and the release timing indicated by the timing information is not within a predetermined time in the determination in step S501, the microcomputer 215 skips the processing in step S502 and step S503. .
  • step S503 If the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is not within a predetermined time in the determination in step S501, or after executing the special effect image processing in step S503, the microcomputer 215
  • the display driver 213 is instructed to display an image based on the image data stored in the RAM 206 as a result of the effect image processing (step S504).
  • the microcomputer 215 adds the image data stored in the RAM 206 as a result of the special effect image processing to the moving image file created in advance in step S109 in FIG. 2 (step S505). Thereafter, the microcomputer 215 ends the process of FIG.
  • FIG. 14 is a diagram showing an example of the gain map created in step S502.
  • the gain map is a table in which a position on an image is associated with a coefficient specified by the content of special effect image processing.
  • This coefficient is, for example, a gain value that is multiplied by image data to add shading in the case of processing for adding shading, and is a gain value that is multiplied by, for example, a color difference signal (CbCr) in the case of processing for changing saturation.
  • CbCr color difference signal
  • it is a value corresponding to a filter coefficient that determines the degree of blurring.
  • the gain map table shown in FIG. 14 has a characteristic that the coefficient at the center position specified by still image information is 1, and the coefficient decreases to 0 according to the distance from the center position.
  • the center position is the center position of the face range specified by the face information or the center position of the AF range specified by the AF information.
  • the gain map table in the present embodiment is provided with a gain map table having a plurality of characteristics corresponding to the passage of time from the release timing.
  • the gain map table shown in FIG. 14 is set so that the coefficient approaches 1 as the elapsed time from the release timing is longer.
  • FIG. 15 is a diagram illustrating an example in the case of performing shading addition processing according to the gain map illustrated in FIG.
  • the image becomes darker as the distance from the vicinity of the center position (face range in the case of FIG. 15) increases.
  • the elapsed time from the release timing becomes longer, the image becomes brighter as a whole, and a state equivalent to not performing the process of adding shading when a predetermined time T (for example, 3 seconds) elapses is obtained.
  • a predetermined time T for example, 3 seconds
  • the saturation correction color is set so that the saturation decreases as the distance from the center position increases in the same image.
  • a matrix is set.
  • the coefficient of the low-pass filter is set so that the degree of blur increases as the distance from the vicinity of the center position increases.
  • the blur according to the gain map shown in FIG. 14 is applied to the area where the coefficient in the image data is 1, that is, the area excluding the area corresponding to the face range or the AF range. Execute the process. In this case, only the face range (AF range) portion in the image becomes a clear image, and the other portions become blurred images. By such a process of adding blur, it is possible to obtain an image to which special effects such as those obtained by diorama photography are added.
  • the elapsed time from the release timing is determined for the image data corresponding to the timing.
  • Special effect image processing that gives different visual effects is performed.
  • the user can perform special effect image processing at an intended timing during moving image shooting without performing editing or the like after moving image shooting.
  • the synthesizing process described in the first embodiment and the reproduction speed changing process described in the second embodiment may be used in combination.
  • a gain map for performing special effect image processing is created in accordance with face information and AF information as still image information.
  • subject brightness as still image information, it is possible to change the gain map coefficient in accordance with subject brightness.
  • FIG. 16 is a flowchart showing details of the moving image shooting process in the present embodiment.
  • the processing in steps S201 to S206 in FIG. 16 is the same as in FIG. Therefore, the description is omitted.
  • step S206 If it is determined in step S206 that the release button 2161 is in the ON state of the 2nd release switch, the microcomputer 215 stores the still image information at that time in, for example, the RAM 206 (step S607).
  • the still image information is basically the same as in the first embodiment. However, in the fourth embodiment, special effect reproduction information indicating whether or not to perform special effect image processing is recorded as still image information.
  • the microcomputer 215 After storing the still image information, the microcomputer 215 acquires timing information indicating the release timing (step S608). The microcomputer 215 performs a process of recording the still image data (moving image still image data) stored as the still image information in step S607 as a still image file (step S609). Subsequently, the microcomputer 215 adds the image data of the current frame stored in the RAM 206 to the moving image file created in advance in step S109 in FIG. 2 (step S610).
  • the timing information is recorded, for example, in the header information part of the moving image file. Timing information may be recorded in the header information part of the still image file.
  • the microcomputer 215 finishes the process in FIG. 16 and executes the processes after step S122 in FIG. As described above, in this embodiment, still image information and timing information are recorded instead of performing special effect image processing during moving image shooting.
  • FIG. 17 is a flowchart showing the moving image reproduction processing in the present embodiment.
  • the processing in FIG. 17 is performed during the reproduction processing in step S103 in FIG.
  • special effect image processing is performed during operation reproduction.
  • special effect image processing is performed when information indicating that special effect image processing is to be executed is recorded as special effect reproduction information.
  • FIG. 17 shows an example in which the composition processing described in the first embodiment is executed as special effect image processing.
  • the special effect image processing described in the second embodiment and the third embodiment may be executed.
  • the microcomputer 215 waits for the user to select a moving image file (step S701).
  • the microcomputer 215 decodes the selected moving image file by the image compression / decompression unit 210 (step S702).
  • the microcomputer 215 determines the time difference between the acquisition timing of the image data of the current frame to be reproduced and the release timing indicated by the timing information, that is, the elapsed time from the release timing is a predetermined time T (for example, within 3 seconds). It is determined whether or not (step S703). If it is determined in step S703 that the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is within a predetermined time, the microcomputer 215 performs synthesis according to the table stored in the flash memory 217. A coefficient is calculated (step S704).
  • the microcomputer 215 uses the image processing unit 209 to synthesize (superimpose) the still image data in the moving image recorded in the still image file and the image data of the current frame, and obtain an image obtained by the synthesis.
  • the data is stored in the RAM 206 as new current frame image data (step S705).
  • step S703 if the time difference between the acquisition timing of the image data of the current frame and the release timing indicated by the timing information is not within a predetermined time, or after step S705, the microcomputer 215 stores the image of the current frame stored in the RAM 206.
  • the display driver 213 is instructed to display an image based on the data (step S706).
  • the microcomputer 215 determines whether or not the reproduction of the selected moving image has been completed, that is, whether or not the reproduction of the image data of all the frames constituting the moving image data has been completed. (Step S707). If the reproduction of the moving image is not completed in the determination in step S707, the microcomputer 215 executes the processing after step S702 to reproduce the image data of the next frame. When the reproduction of the moving image is completed in the determination in step S707, the microcomputer 215 determines whether to end the moving image reproduction process, that is, whether or not the user has instructed the reproduction end (step S708). ).
  • step S708 If it is determined in step S708 that the moving image playback process is not terminated, the microcomputer 215 executes the processes after step S701. On the other hand, if it is determined in step S708 that the moving image reproduction process is not terminated, the microcomputer 215 terminates the process in FIG. 17 and executes the processes after step S101 in FIG.
  • the digital camera 10 performs both of the processes of FIGS. 16 and 17 .
  • the image processing unit 209 of the digital camera 10 does not include the special effect image processing unit 2092.
  • the camera body 200 is provided with an interface (I / F) 219 for communicating with the special effect image processing apparatus 20.
  • the special effect image processing apparatus 20 includes an image compression / decompression unit 301 and a special effect image processing unit 302.
  • the image compression / decompression unit 301 has the same function as the image compression / decompression unit 210.
  • the special effect image processing unit 302 has the same function as the special effect image processing unit 2092.
  • the camera body 200 of the digital camera 10 and the special effect image processing device 20 are illustrated as being directly connected, but the I / F 219 may be a wireless interface.
  • the technique of the present embodiment can be applied to various cases in which a moving image file (including still image information and timing information) can be exchanged between the camera body 200 and the special effect image processing device 20.
  • a moving image file including still image information and timing information
  • the recording medium 212 is configured to be detachable from the camera body 200
  • the recording medium 212 in which the moving image file is recorded is taken out from the camera body 200, and the moving image file in the taken out recording medium 212 is specially selected.
  • the technique of the present embodiment can be applied even if the effect image processing apparatus 20 reads and processes the image.
  • the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained.
  • the configuration can also be extracted as an invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

 動画撮影により動画像データが取得される(S204,S205)。動画撮影中に静止画撮影の実行が指示された場合に(S206:Yes)、静止画撮影の実行が指示されたタイミングにおいて得られた画像データを画像処理して得られた静止画像データと、該静止画像データの付随情報と、を含む静止画情報が記憶される(S207)。また、静止画撮影の実行が指示されたタイミングを示すタイミング情報が取得される(S208)。そして、静止画情報とタイミング情報とに基づいて、動画像データに対して特殊効果画像処理がさらに施される。

Description

撮像装置、画像処理装置、及び撮像方法
 本発明は、動画像に対して特殊効果画像処理を施す撮像装置、画像処理装置、及び撮像方法に関する。
 近年、デジタルカメラのような撮像装置では、静止画像の撮影だけでなく、動画像の撮影も行えるようになっている。このような撮像装置では、例えば動画撮影用に設けられた動画撮影指示部(動画ボタン)を操作することによって、容易に動画像の撮影を実行することができる。このような静止画撮影と動画撮影の両方が実行可能な撮像装置に関する提案が例えば特開2001-45409号公報においてなされている。特開2001-45409号公報では、動画撮影中に静止画レリーズスイッチ(静止画撮影指示部)を用いた静止画撮影の指示がなされた場合に、その指示がなされたタイミングで得られた静止画像に対して静止画フラグを付加しておくようにしている。そして、特開2001-45409号公報では、動画像の再生時に動画像の再生と並行して静止画フラグが付加された静止画像を再生するようにしている。
 また、再生される画像に対して画像処理を施すことによって特殊な視覚効果を与えるようにした技術が提案されている。例えば、特開2010-114729号公報では、画像処理によってシェーディングを付加するようにしている。
 特開2001-45409号公報では、ユーザが自身の意図したタイミングでレリーズスイッチを操作することにより、自身の意図したタイミングで得られた静止画像を後で動画像とともに再生することが可能である。しかしながら、特開2001-45409号公報では、動画像そのものに対してはユーザの意図を反映させることはできない。
 また、特開2010-114729号公報の技術は動画像に対しても適用することができる。この場合、動画像の撮影に先立ってシェーディング等の特殊効果画像処理を実行するように設定しておけば、そのときのシーンに対するユーザの好みを反映することができる。しかしながら、動画撮影中にはユーザの意思を反映させることができない。このため、従来では、動画像の撮影後の編集段階において動画像に対して特殊効果画像処理を施す必要がある。
 本発明は、前記の事情に鑑みてなされたもので、編集等を意識して行わずに、動画撮影中のユーザが意図したタイミングで動画像に対して特殊効果画像処理を施すことが可能な撮像装置、画像処理装置、撮像方法を提供することを目的とする。
 前記の目的を達成するために、本発明の第1の態様の撮像装置は、被写体を撮像して画像データを得る撮像部と、前記撮像部で得られた画像データに対して画像処理を施す画像処理部と、前記撮像部に対して静止画撮影の実行を指示するための静止画撮影指示部と、前記静止画撮影指示部の指示に応じて前記撮像部で得られた画像データを前記画像処理部で画像処理して得られた静止画像データと、該静止画像データの付随情報と、を含む静止画情報を記憶する静止画情報記憶部と、前記撮像部に対して動画撮影の実行を指示するための動画撮影指示部と、前記動画撮影指示部の指示に応じて前記撮像部で得られた複数の画像データを前記画像処理部で画像処理して得られた動画像データを記録する動画記録部と、前記動画撮影の実行中に前記静止画撮影指示部によって前記静止画撮影の実行が指示された場合に、該静止画撮影の実行が指示されたタイミングを示すタイミング情報を取得するタイミング情報取得部と、を具備し、前記画像処理部は、前記静止画情報記憶部に記憶された前記静止画情報と前記タイミング情報取得部によって取得された前記タイミング情報とに基づいて、前記動画像データに対して特殊効果画像処理をさらに施すことを特徴とする。
 前記の目的を達成するために、本発明の第2の態様の画像処理装置は、第1の態様に記載の撮像装置で得られた前記静止画情報と前記タイミング情報とが入力され、該入力された前記静止画情報と前記タイミング情報とに基づいて、動画像データに対して特殊効果画像処理を施す特殊効果画像処理部を具備することを特徴とする。
 前記の目的を達成するために、本発明の第3の態様の撮像方法は、動画撮影指示部が、撮像部に対して動画撮影の実行を指示し、前記動画撮影指示部の指示に応じて前記撮像部が、被写体を撮像して複数の画像データを得て、画像処理部が前記撮像部で得られた複数の画像データに対して画像処理を施して動画像データを得て、前記動画撮影の実行中に静止画撮影指示部が、前記撮像部に対して静止画撮影の実行を指示し、前記静止画撮影指示部の指示に応じて静止画情報記憶部が、前記撮像部で得られた画像データを前記画像処理部で画像処理して得られた静止画像データと、該静止画像データの付随情報と、を含む静止画情報を記憶し、前記静止画撮影指示部の指示に応じてタイミング情報取得部が、前記静止画撮影の実行が指示されたタイミングを示すタイミング情報を取得し、前記画像処理部が、前記静止画情報記憶部に記憶された前記静止画情報と前記タイミング情報取得部によって取得された前記タイミング情報とに基づいて、前記動画像データに対して特殊効果画像処理をさらに施す、ことを特徴とする。
図1は、本発明の各実施形態に係る撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。 図2は、デジタルカメラのメイン動作を示すフローチャートである。 図3は、本発明の第1の実施形態における動画撮影処理の詳細を示したフローチャートである。 図4は、本発明の第1の実施形態における図3のステップS209の処理の一例を示すフローチャートである。 図5は、本発明の第1の実施形態における合成係数の設定テーブルの例を示す図である。 図6は、合成処理の例を説明するための図である。 図7は、本発明の第2の実施形態における図3のステップS209の処理の例を示すフローチャートである。 図8Aは、画像データの循環記憶の例を示した図であって、7枚目の画像データまでの記憶の例を示した図である。 図8Bは、画像データの循環記憶の例を示した図であって、8枚目の画像データ以後の記憶の例を示した図である。 図9は、本発明の第2の実施形態における合成係数の設定テーブルの例を示す図である。 図10は、再生速度の変化特性の一例を示す図である。 図11は、過去フレームの生成について説明するための図である。 図12は、現在フレームの生成について説明するための図である。 図13は、本発明の第3の実施形態における図3のステップS209の処理の例を示すフローチャートである。 図14は、ゲインマップの例を示した図である。 図15は、図14に示すゲインマップに従ってシェーディングを付加する処理を行った場合の例を示す図である。 図16は、本発明の第4の実施形態における動画撮影処理の詳細を示したフローチャートである。 図17は、本発明の第4の実施形態における動画再生処理の詳細を示したフローチャートである。 図18は、特殊効果画像処理部を特殊効果画像処理装置に持たせた変形例の構成を示すブロック図である。
 以下、図面を参照して本発明の実施形態を説明する。 
 [第1の実施形態]
 図1は、本発明の各実施形態に係る撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。図1に示すデジタルカメラ10は、レンズ交換式のデジタルカメラである。しかしながら、必ずしもレンズ交換式のデジタルカメラである必要はなく、レンズ一体式のデジタルカメラであっても良い。
 図1に示すデジタルカメラ10は、交換式レンズ100と、カメラ本体200と、を有している。交換式レンズ100は、カメラ本体200に対して着脱自在に構成されている。カメラ本体200に交換式レンズ100が装着された場合に、交換式レンズ100は、カメラ本体200と通信自在に接続される。これにより、交換式レンズ100は、カメラ本体200の制御に従って動作可能な状態となる。
 交換式レンズ100は、レンズ101と、絞り102と、ドライバ103と、レンズマイクロコンピュータ104と、Flashメモリ105と、を有している。 
 レンズ101は、図示しない被写体からの光束をカメラ本体200内の撮像素子202に集光するための光学系である。このレンズ101は、フォーカスレンズ及びズームレンズ等の複数のレンズを有している。
 絞り102は、開閉自在に構成され、レンズ101を介して入射した光束の量を調整する。ドライバ103は、モータ等を有している。このドライバ103は、レンズマイクロコンピュータ104の制御に従って、レンズ101内のフォーカスレンズやズームレンズをその光軸方向に駆動させたり、絞り102を開閉駆動させたりする。
 レンズマイクロコンピュータ104は、交換式レンズ100がカメラ本体200に装着された際にインターフェイス(I/F)106を介してカメラ本体200内のマイクロコンピュータ215と通信自在に接続される。このレンズマイクロコンピュータ104は、マイクロコンピュータ215からの制御に従ってドライバ103を駆動させる。また、レンズマイクロコンピュータ104は、Flashメモリ105に記憶されている交換式レンズ100のレンズ情報等を、I/F106を介してマイクロコンピュータ215に通信する。 
 Flashメモリ105は、レンズ101の収差情報等のレンズ情報や交換式レンズ100の動作を実行するために必要なプログラム等を記憶している。
 カメラ本体200は、メカシャッタ201と、撮像素子202と、アナログ処理部203と、アナログ/デジタル(A/D)変換部204と、バス205と、RAM206と、AE処理部207と、AF処理部208と、画像処理部209と、画像圧縮展開部210と、メモリインターフェイス(I/F)211と、記録媒体212と、表示ドライバ213と、表示部214と、マイクロコンピュータ215と、操作部216と、Flashメモリ217と、顔検出部218と、を有している。
 メカシャッタ201は、撮像素子202の光電変換面を遮光状態又は露出状態とするように移動自在に構成されている。このメカシャッタ201を移動させることにより撮像素子202の露光時間が調整される。
 撮像素子202は、レンズ101を介して集光された被写体からの光束が結像される光電変換面を有している。光電変換面は、複数の画素が2次元状に配置されて構成されている。また、光電変換面の光入射側には、カラーフィルタが設けられている。このような撮像素子202は、光電変換面に結像された光束に対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換して出力する。
 ここで、撮像素子202は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子202の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。ただし、撮像素子202は、露光時間を電子的に制御する電子シャッタ機能を有していることが望ましい。以下の説明においては撮像素子202が電子シャッタ機能を有しているものとする。
 アナログ処理部203は、撮像素子202により得られた画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。A/D変換部204は、アナログ処理部203においてアナログ処理された画像信号をデジタル信号(以下、画像データという)に変換する。
 ここで、撮像素子202、アナログ処理部203、A/D変換部204が、撮像部の一例として機能する。
 バス205は、カメラ本体200の内部で発生した各種のデータを転送するための転送路である。RAM206は、カメラ本体200内部で発生した各種のデータを一時的に記憶するための記憶部である。このRAM206が、静止画情報記憶部の一例として機能する。ここで、RAM206は、例えばDRAMである。
 AE処理部207は、画像データを用いて被写体輝度を算出する。被写体輝度は、画像データから算出するだけでなく、例えば専用の測光センサで測定するようにしても良い。AF処理部208は、画像データから高周波成分の信号を取り出し、取り出した高周波成分の信号を積算してAF用の合焦評価値を取得する。
 画像処理部209は、画像データに対する各種の画像処理を行う。本実施形態における画像処理部209は、基本画像処理部2091と、特殊効果画像処理部2092と、を有している。 
 基本画像処理部2091は、画像の表示や記録のために必要な基本的な画像処理を画像データに対して施す。この基本的な画像処理とは、例えば、オプティカルブラック減算処理、ホワイトバランス補正処理、カラーマトリクス演算処理、ガンマ変換処理、エッジ強調処理、ノイズ低減処理が含まれる。この他、基本画像処理部2091は、リサイズ処理等も行う。 
 オプティカルブラック減算処理は、画像データの暗電流成分(オプティカルブラック)を減算して除去する処理である。ホワイトバランス補正処理は、画像データの色バランスを補正するためのゲインを乗じる処理である。カラーマトリクス演算処理は、画像データ全体の色相や彩度の調整を行うためのマトリクス演算を行う処理である。ガンマ変換処理は、画像データの階調特性を所定の特性に変換する処理である。エッジ強調処理は、画像データにおけるエッジ(輪郭)成分を強調する処理である。ノイズ低減処理は、画像データにおけるノイズ成分を除去する処理である。リサイズ処理は、画像データを所望のサイズに拡大又は縮小するように補間する処理である。 
 また、カラーフィルタの色配列によっては、基本画像処理としてさらに同時化処理が必要な場合もある。同時化処理は、ベイヤ配列に対応した画像データ等の、1つの画素が1つの色成分に対応している画像データを、1つの画素が複数の色成分に対応している画像データに変換する処理である。
 特殊効果画像処理部2092は、画像に対して特殊な視角効果を与えるための特殊効果画像処理を画像データに対して施す。この特殊効果画像処理としては、例えばシェーディング付加処理、ぼかし付加処理、ソフトフォーカス処理、画像合成処理が含まれる。
 シェーディング付加処理は、画像にシェーディング(陰影)を付加する処理である。ぼかし付加処理は、画像内の被写体領域を除く領域にぼかしを付加する処理である。ソフトフォーカス処理は、画像の全体にぼかしを付加する処理である。画像合成処理は、複数の画像データを合成して1枚の新たな画像データを生成する処理である。
 画像圧縮展開部210は、画像の記録時においては、画像処理部209における画像処理によって得られた画像データに対してJPEG方式等の静止画圧縮処理又はMPEG方式等の動画圧縮処理を施す。また、画像圧縮展開部210は、画像の再生時においては、圧縮処理が施された画像データに対して展開(デコード)処理を施す。
 メモリI/F211は、マイクロコンピュータ215等が記録媒体212にアクセスするためのインターフェイスである。記録媒体212は、例えばカメラ本体200に着脱自在になされたメモリカードである。この記録媒体212は、画像ファイル等を記録する。画像ファイルは、画像圧縮展開部210によって圧縮された画像データに、ヘッダ情報が付加されたファイルである。記録媒体212が、動画記録部の一例として機能する。
 表示ドライバ213は、画像処理部209で得られた画像データ又は画像圧縮展開部210で伸張された画像データを映像信号に変換して表示部214に出力する。表示部214は、例えば液晶ディスプレイ(LCD)である。この表示部214は、表示ドライバ213から入力された映像信号に基づく画像を表示する。
 マイクロコンピュータ215は、メカシャッタ201、撮像素子202、表示ドライバ213といったカメラ本体200の各部の動作を統括的に制御する。また、マイクロコンピュータ215は、AE処理部207で演算された被写体輝度を用いてAE処理を行ったり、AF処理部208で演算されたAF評価値を用いてAF処理を行ったりもする。また、マイクロコンピュータ215は、交換式レンズ100の装着時には、交換式レンズ100の動作も制御する。さらに、本実施形態におけるマイクロコンピュータ215は、タイミング取得部としての機能も有している。具体的には、マイクロコンピュータ215は、動画撮影中においてユーザにより操作部216のレリーズボタン2161が全押しされた、即ち静止画撮影の実行が指示されたタイミング(以下、レリーズタイミングという)を示す情報を取得する。
 操作部216は、ユーザによって操作される各種の操作部材である。本実施形態における操作部216は、レリーズボタン2161と、動画記録ボタン2162と、メニューボタン2163と、再生ボタン2164と、電源ボタン2165と、を有している。ここで、これらのボタンは、一部又は全部をタッチパネルによって操作される仮想的な操作部として構成しても良い。
 レリーズボタン2161は、ファースト(1st)レリーズスイッチとセカンド(2nd)レリーズスイッチの2段スイッチを有している。レリーズボタン2161が半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ215は、AE処理やAF処理等の撮影準備処理を実行する。また、レリーズボタン2161が全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ215は、静止画撮影処理を実行する。このようにレリーズボタン2161は、マイクロコンピュータ215に対して静止画撮影の実行を指示するための静止画撮影指示部の一例として機能する。
 動画記録ボタン2162は、マイクロコンピュータ215に対して動画撮影の実行を指示するための動画撮影指示部の一例として機能する。動画記録ボタン2162が押された場合、マイクロコンピュータ215は、動画撮影処理を実行する。また、動画撮影処理の実行中に動画記録ボタン2162が押された場合、マイクロコンピュータ215は、動画撮影処理を終了する。
 メニューボタン2163は、メニュー画面の表示を指示するための操作部である。メニュー画面上において、ユーザは、カメラ本体200の各種の設定を変更することが可能である。再生ボタン2164は、マイクロコンピュータ215に対して静止画ファイル又は動画ファイルの再生を指示するための操作部である。電源ボタン2165は、カメラ本体200の電源のオン又はオフを指示するための操作部である。
 Flashメモリ217は、例えばホワイトバランス補正用のホワイトバランスゲイン、カラーマトリクス演算用のカラーマトリクス係数、ガンマ変換用のガンマテーブルといった画像処理部209の動作に必要なパラメータ等の、カメラ本体200の動作に必要な各種のパラメータを記憶している。ここで、本実施形態におけるFlashメモリ217は、特殊効果画像処理において用いられる合成係数を設定するためのテーブルも記憶している。また、Flashメモリ217は、マイクロコンピュータ215が実行する種々のプログラムも記憶している。
 顔検出部218は、画像データ内の顔部の像を、特徴量マッチング等を用いて検出し、検出した顔部の範囲(顔範囲)を示す情報をマイクロコンピュータ215に出力する。
 以下、図1で示したデジタルカメラの動作について説明する。図2は、図1で示したデジタルカメラのメイン動作を示すフローチャートである。図2の動作は、例えば図1に示すデジタルカメラの電源がオンされた場合に行われる。
 デジタルカメラの電源オン後において、マイクロコンピュータ215は、初期化処理を行う(ステップS101)。初期化処理において、マイクロコンピュータ215は、自身が有するレジスタに設定されている記録中フラグをOffにする等の処理を行う。記録中フラグは、動画記録中であるか否かを示すフラグである。記録中フラグがOffになっている間は、動画記録中でないことを示す。一方、記録中フラグがOnになっている間は、動画記録中であることを示す。
 次に、マイクロコンピュータ215は、ユーザによって操作部216の再生ボタン2164が押されたか否かを判定する(ステップS102)。ステップS102の判定において、再生ボタン2164が押された場合に、マイクロコンピュータ215は、再生処理を実行する(ステップS103)。 
 再生処理において、マイクロコンピュータ215は、ユーザによる画像ファイル(静止画像ファイル又は動画像ファイル)の選択を待つ。そして、画像ファイルが選択された場合に、マイクロコンピュータ215は、選択された画像ファイルを画像圧縮展開部210によりデコードする。そして、マイクロコンピュータ215は、選択された画像ファイルからデコードされた画像データを表示ドライバ213に入力する。表示ドライバ213は、入力された画像データを映像信号に変換し、この映像信号に対応した画像を表示部214に表示させる。その後、ユーザによって再生終了の指示がなされた場合、例えば再生ボタン2164が再び押された場合に、マイクロコンピュータ215は、処理をステップS102に戻す。
 また、ステップS102の判定において再生ボタンが押されていない場合に、マイクロコンピュータ215は、ユーザによって操作部216のメニューボタン2163が押されたか否かを判定する(ステップS104)。ステップS104の判定において、メニューボタン2163が押された場合に、マイクロコンピュータ215は、表示ドライバ213を制御して表示部214にメニュー画面を表示させた後、カメラ設定処理を実行する(ステップS105)。 
 カメラ設定処理において、マイクロコンピュータ215は、ユーザからのカメラ設定の変更の指示を待つ。そして、何らかのカメラ設定の変更の指示がなされた場合に、マイクロコンピュータ215は、その指示に従ってカメラ設定を変更する。このカメラ設定処理においては、例えば静止画撮影時や動画撮影時の画像の記録モードの設定が変更される。また、カメラ設定処理において、後述する特殊効果画像処理を実行するか否かも変更することが可能である。
 また、ステップS104の判定において、メニューボタン2163が押されていない場合に、マイクロコンピュータ215は、ユーザによって操作部216の動画記録ボタン2162が押されたか否かを判定する(ステップS106)。ステップS106の判定において、動画記録ボタン2162が押された場合に、マイクロコンピュータ215は、記録中フラグを反転させる(ステップS107)。即ち、マイクロコンピュータ215は、記録中フラグがOffの場合にはOnに、Onの場合にはOffにする。その後、マイクロコンピュータ215は、現在、動画記録中であるか否か、即ち記録中フラグがOnであるか否かを判定する(ステップS108)。
 ステップS108の判定において、記録中フラグがOnである場合に、マイクロコンピュータ215は、動画ファイルを生成し、生成した動画ファイルを記録媒体212に記録する(ステップS109)。動画ファイルは、ヘッダ情報記録部と動画像記録部とを有する。ヘッダ情報部には、動画ファイル用のヘッダ情報を記録する。このヘッダ情報としては、ファイル名や、動画撮影時の撮影情報(ISO感度、絞り値、撮影日時等)、動画像データを構成する複数の画像データのそれぞれの位置を特定するためのポインタ情報等を記録する。この他、本実施形態においては、ヘッダ情報として、静止画情報及びタイミング情報を記録する。これらの静止画情報及びタイミング情報の詳細については後述する。また、動画像記録部には、動画像データを圧縮した状態で記録する。
 ステップS106の判定において動画記録ボタン2162が押されていない場合、ステップS108の判定において記録中フラグがOnでない場合、ステップS109において動画ファイルを生成した後、マイクロコンピュータ215は、現在、動画記録中であるか否か、即ち記録中フラグがOnであるか否かを判定する(ステップS110)。ステップS110の判定において、記録中フラグがOffである場合に、マイクロコンピュータ215は、ユーザによって操作部216のレリーズボタン2161が半押しされてレリーズボタン2161の状態がOff状態から1stレリーズスイッチのOn状態に遷移したか否かを判定する(ステップS111)。ステップS111の判定において、レリーズボタン2161の状態が1stレリーズスイッチのOn状態に遷移した場合に、マイクロコンピュータ215は、顔検出処理、AE処理、及びAF処理を行う(ステップS112)。 
 顔検出処理において、マイクロコンピュータ215は、顔検出部218によって顔範囲を検出させる。 
 AE処理において、マイクロコンピュータ215は、AE処理部207によって被写体輝度を算出させる。その後、マイクロコンピュータ215は、AE処理部207によって算出された被写体輝度に応じて静止画撮影の実行時におけるISO感度、絞り値、シャッタ速を決定する。なお、AE処理において、特定の顔部の輝度が適正となるようにISO感度、絞り値、シャッタ速を決定するようにしても良い。 
 AF処理において、マイクロコンピュータ215は、AF処理部208によって合焦評価値を取得させる。そして、マイクロコンピュータ215は、AF処理部208で取得された合焦評価値により、画像データにおけるコントラストを評価しつつ、レンズ101のフォーカスレンズを微少量ずつ駆動させるようにレンズマイクロコンピュータ104に指示する。その後、マイクロコンピュータ215は、コントラストが最大となった時点でフォーカスレンズの駆動を停止させるようにレンズマイクロコンピュータ104に指示する。このようなAF処理は、所謂コントラスト方式のAF処理である。AF処理として位相差AF処理を用いるようにしても良い。なお、AF処理において、特定の顔範囲に対して合焦するようにフォーカスレンズを駆動させるようにしても良い。
 ここで、図2の例における顔検出処理、AE処理及びAF処理は、レリーズボタン2161の状態が1stレリーズスイッチのOn状態に遷移したタイミングにおいて実行されるものである。即ち、レリーズボタンの状態が1stレリーズスイッチのOn状態に遷移しないタイミング、例えば、レリーズボタンの状態がOff状態のままである場合、1stレリーズスイッチのOn状態のままである場合、後述する2ndレリーズスイッチのOn状態のままである場合等では、顔検出処理、AE処理及びAF処理は実行されない。
 ステップS111の判定において、レリーズボタン2161の状態が1stレリーズスイッチのOn状態に遷移していない場合に、マイクロコンピュータ215は、ユーザによって操作部216のレリーズボタン2161が全押しされてレリーズボタン2161の状態が2ndレリーズスイッチのOn状態となっているか否かを判定する(ステップS113)。
 ステップS113の判定において、レリーズボタンの状態が2ndレリーズスイッチのOn状態である場合に、マイクロコンピュータ215は、静止画撮影処理を実行する(ステップS114)。このために、マイクロコンピュータ215は、ステップS112において決定したISO感度に応じてアナログ処理部203におけるゲイン制御量(増幅率)を設定するとともに、ステップS112において決定した絞り値をレンズマイクロコンピュータ104に送信する。その後、マイクロコンピュータ215は、レンズマイクロコンピュータ104の制御による絞り102の駆動と同期して、ステップS112において決定したシャッタ速に応じてメカシャッタ201を動作させて撮像素子202の露光量を制御する。このような静止画撮影処理により、画像データがRAM206に記憶される。
 静止画撮影処理を実行した後、マイクロコンピュータ215は、静止画撮影処理によってRAM206に記憶された画像データに対して画像処理部209を用いて画像処理を施すことによって静止画像データを生成する(ステップS115)。この際、特殊効果画像処理を施すように予め設定されている場合には、基本画像処理部2091による基本画像処理と特殊効果画像処理部2092による特殊効果画像処理の両方を画像データに対して施す。一方、特殊効果画像処理を施すように予め設定されていない場合には、基本画像処理部2091による基本画像処理のみを画像データに対して施す。
 画像処理の後、マイクロコンピュータ215は、画像処理の結果としてRAM206に記憶された静止画像データを、静止画ファイルとして記録する処理を行う(ステップS116)。この際、マイクロコンピュータ215は、静止画撮影処理の結果としてRAM206に記憶された静止画像データに対する静止画圧縮処理を実行するように画像圧縮展開部210に指示する。この指示を受けて画像圧縮展開部210は、予め設定された記録モードに対応するように静止画圧縮処理を行い、圧縮された静止画像データをRAM206に記憶させる。その後、マイクロコンピュータ215は、画像圧縮展開部210により圧縮された静止画像データをRAM206から読み出し、読み出した静止画像データに所定のヘッダ情報を付加して静止画ファイルを作成し、作成した静止画ファイルを記録媒体212に記録する。静止画ファイルは、ヘッダ情報記録部と静止画像記録部とを有する。ヘッダ情報部には、静止画ファイル用のヘッダ情報を記録する。このヘッダ情報としては、ファイル名や、静止画撮影時の撮影情報(ISO感度、絞り値、撮影日時等)等を記録する。また、静止画像記録部には、静止画像データを圧縮状態で記録する。
 また、ステップS113の判定において、レリーズボタンの状態が2ndレリーズスイッチのOn状態でない場合に、マイクロコンピュータ215は、AE処理を実行する(ステップS117)。このAE処理は、ライブビュー表示のための処理である。AE処理の後、マイクロコンピュータ215は、ライブビュー表示用の撮影処理を実行する(ステップS118)。この撮影処理において、マイクロコンピュータ215は、AE処理によって決定したシャッタ速に応じて撮像素子202の電子シャッタ機能を動作させて撮像素子202の露光量を制御する。撮影処理の後、マイクロコンピュータ215は、撮影処理の結果としてRAM206に記憶された画像データに対して、画像処理部209を用いて画像処理を施す(ステップS119)。画像処理の後、マイクロコンピュータ215は、画像処理の結果としてRAM206に記憶された画像データを再生するように表示ドライバ213に指示する。この指示を受けて表示ドライバ213は、RAM206から画像データを読み出し、読み出した画像データを映像信号に変換して表示部214に出力する。表示部214は、この映像信号に基づいて画像を再生する(ステップS120)。このようなライブビュー表示により、ユーザは、表示部214を用いて構図の確認等を行うことができる。
 また、ステップS110の判定において、記録中フラグがOnである場合に、マイクロコンピュータ215は、動画撮影処理を実行する(ステップS121)。この動画撮影処理の詳細については後述する。
 また、ステップS112、S116、S120、S121の後、マイクロコンピュータ215は、デジタルカメラの電源がオフされたか否かを判定する(ステップS122)。ステップS122の判定において、デジタルカメラの電源がオフされていない場合に、マイクロコンピュータ215は、ステップS102以後の処理を実行する。一方、ステップS122の判定において、デジタルカメラの電源がオフされた場合に、マイクロコンピュータ215は、図2の処理を終了させる。
 図3は、本実施形態における動画撮影処理の詳細を示したフローチャートである。ここで、図3においては、カメラ設定処理において特殊効果画像処理を実行するように設定されているものとして説明を行う。
 動画撮影処理において、マイクロコンピュータ215は、顔検出処理、AE処理を実行する(ステップS201)。続いて、マイクロコンピュータ215は、レリーズボタン2161の状態がOff状態から1stレリーズスイッチのOn状態に遷移したか否かを判定する(ステップS202)。ステップS202の判定において、レリーズボタン2161の状態が1stレリーズスイッチのOn状態に遷移した場合に、マイクロコンピュータ215は、AF処理を行う(ステップS203)。また、ステップS203の判定において、レリーズボタン2161の状態が1stレリーズスイッチのOn状態に遷移していない場合に、マイクロコンピュータ215は、ステップS203の処理をスキップする。
 その後、マイクロコンピュータ215は、撮影処理を実行する(ステップS204)。この撮影処理においてマイクロコンピュータ215は、ライブビュー表示用の撮影処理と同様に、AE処理によって決定したシャッタ速に応じて撮像素子202の電子シャッタ機能を動作させて撮像素子202の露光量を制御する。その後、マイクロコンピュータ215は、撮影処理の結果としてRAM206に記憶された画像データに対して、画像処理部209を用いて画像処理を施す(ステップS205)。ステップS205においては、画像データに対して基本画像処理を施す。
 続いて、マイクロコンピュータ215は、レリーズボタン2161の状態が2ndレリーズスイッチのOn状態であるか否かを判定する(ステップS206)。ステップS206の判定において、レリーズボタン2161の状態が2ndレリーズスイッチのOn状態である場合に、マイクロコンピュータ215は、そのときの静止画情報を例えばRAM206に記憶させる(ステップS207)。 
 静止画情報とは、動画撮影中においてレリーズボタン2161が全押しされたタイミング(レリーズタイミング)の直前のフレームの画像データに関する付随情報である。本実施形態では、例えば、レリーズタイミングの直前のフレームの画像データそのものを静止画情報として記憶させる。この記憶された画像データは、動画撮影中に得られたものであるが、1つの静止画像データとして取り扱われる。以後、この記憶された画像データを動画内静止画像データという。 
 また、レリーズボタンタイミングの直前のAF処理において合焦した画像内の位置を示す情報(以下、AF情報という)を静止画情報として記憶させるようにしても良い。さらに、レリーズタイミングの直前の顔検出処理において得られた特定の顔範囲を示す情報(以下、顔情報という)を、静止画情報として記憶させることが可能である。この他、動画内静止画像データの主要被写体を特定できる各種の情報を静止画情報として記憶させることが可能である。
 静止画情報を記憶させた後、マイクロコンピュータ215は、レリーズタイミングを示すタイミング情報を取得する(ステップS208)。タイミング情報は、例えば動画撮影処理の開始からレリーズタイミングまでの経過時間やレリーズタイミングを示す時刻である。この他、動画内静止画像データに対応した動画ファイル内の画像データのフレーム番号や、動画内静止画像データに対応した画像データの動画ファイルの先頭からの位置を示す情報(ポインタ情報)をタイミング情報としても良い。
 タイミング情報を取得した後、マイクロコンピュータ215は、特殊効果画像処理、ライブビュー表示処理、記録処理をそれぞれ実行する(ステップS209)。その後、マイクロコンピュータ215は、図3の処理を終了させて図2のステップS122以後の処理を実行する。
 図4は、第1の実施形態における図3のステップS209の処理の一例を示すフローチャートである。図4において、マイクロコンピュータ215は、現在の動画撮影の対象となっているフレーム(現在フレーム)の画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差、即ちレリーズタイミングからの経過時間が所定時間T(例えば3秒以内)であるか否かを判定する(ステップS301)。ここで、タイミング情報がフレーム番号やポインタ情報である場合には、動画ファイル内での画像データの位置差が所定以内であるかを判定する。
 ステップS301の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合に、マイクロコンピュータ215は、ステップS302とステップS303の処理をスキップする。この場合には、現在フレームの画像データに対する特殊効果画像処理は行わない。
 一方、ステップS301の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内である場合に、マイクロコンピュータ215は、Flashメモリ217に記憶されているテーブルに従って合成係数を算出する(ステップS302)。合成係数を算出した後、マイクロコンピュータ215は、画像処理部209を用いて静止画情報としてRAM206に記憶させた動画内静止画像データと現在フレームの画像データとを合成(重畳)し、合成により得られた画像データを新たな現在フレームの画像データとしてRAM206に記憶させる(ステップS303)。
 ステップS301において現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合、又はステップS303の後、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データに基づく画像をライブビュー表示するように表示ドライバ213に指示する(ステップS304)。上述の合成によって得られた合成画像データを再生した場合、今回再生されるべき現在フレームの画像に、レリーズタイミングに対応して取得された動画内静止画像が重畳された状態の残像効果を有する画像が表示部214に表示される。
 続いて、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS305)。現フレームの画像データを動画ファイルに追記した後、マイクロコンピュータ215は、図4の処理を終了させる。ステップS305において、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データに対して動画圧縮処理を実行するように画像圧縮展開部210に指示する。この指示を受けて画像圧縮展開部210は、予め設定された記録モードに対応するように動画圧縮処理を行い、圧縮された画像データをRAM206に記憶させる。その後、マイクロコンピュータ215は、圧縮された画像データをRAM206から読み出し、読み出した画像データを予め作成した動画像ファイルの動画像記録部に追記する。
 図5は、ステップS302において合成係数を算出するための合成係数の設定テーブルの例を示す図である。図5に示すように、合成係数は、0.0から1.0の範囲で設定する。さらに、合成係数は、レリーズタイミングの直後の時点(図の0の時点)から所定時間Tが経過した時点で0.0となるように設定することが望ましい。
 図5は、このような2つの条件を満足する合成係数のテーブルの例を示している。例えば、図5のaのテーブルの特性は、合成係数が、所定時間Tをかけて0.0まで減少する特性である。また、図5のbのテーブルの特性は、合成係数が、ある時間の間は一定であり、その後に0.0まで減少する特性である。さらに、図5のcのテーブルの特性は、合成係数が1.0まで増加した後、0.0まで減少する特性である。このように、各種の特性の合成係数のテーブルを設定しておくことができる。マイクロコンピュータ215は、図5のようにして予め記憶されているテーブルを用いて、レリーズタイミングとの時間差に応じた合成係数を算出する。なお、複数の特性のテーブルが記憶されている場合には、その中の何れのテーブルを用いるかをユーザが設定できるようにしても良い。
 図6は、ステップS303の合成処理の例を説明するための図である。ここで、図6は、以下の(式1)に従って合成を行った例を示している。 
   C=α×A+B                       (式1) 
ここで、(式1)のAは動画内静止画像データの値を示し、Bは現在フレームの画像データの値を示し、αは合成係数を示し、Cは合成後の画像データの値を示している。また、図6の例の合成係数αは、図5の特性aに対応している。
 上述したように、一連の動画撮影中にレリーズボタン2161が全押しされると、その直前のフレームの画像データが動画内静止画像データとして記憶される。その後、レリーズタイミングから所定時間T秒(例えば3秒)が経過するまで合成が行われる。(式1)に従って動画内静止画像データを合成することにより、半透明状態の動画内静止画像が現在フレームの画像に重畳され、図6に示す合成画像データC1、C2、C3が生成される。
 合成係数のテーブルが図5の特性aを有している場合、合成係数αは時間経過に伴って減少する。このため、合成画像データC1よりも合成画像データC2のほうが、合成される動画内静止画像データの透明度が大きくなる。そして、動画内静止画像データは、所定時間T(3秒)が経過した時点で完全に透明となる。このときに得られる合成画像データC3は、合成が行われていないのと等価な画像データとなる。
 ここで、上述の例では、(式1)に従って動画内静止画像データの透明度のみを変更して合成している。しかしながら、本実施形態においては、動画内静止画像データと現在フレームの画像データとを任意の手法で合成することが可能である。例えば、以下の(式2)に従って両者を合成しても良い。 
   C=α×A+(1-α)×B                (式2) 
(式2)の場合、動画内静止画像データと現在フレームの画像データの両者に対して半透明化処理がなされて合成が行われる。
 また、静止画情報として顔情報を記憶させている場合には、図6に示すように、動画内静止画像データの顔範囲の画像データのみを合成するようにしても良い。この場合、画像処理部209は、顔情報によって特定される顔範囲の画像データを動画内静止画像データから抽出し、抽出した顔範囲の画像データを現在フレームの画像データに合成する。この場合の顔範囲の画像データの合成位置は、特に限定されるものではない。例えば、固定位置としても良いし、現在フレームの画像データにおける被写体位置(顔範囲)としても良いし、ユーザが適宜設定できるようにしても良い。さらに、顔情報の代わりにAF情報を用いて画像データを抽出するようにしても良い。
 また、図6に示すように、動画内静止画像データの顔範囲の画像データを拡大してから合成するようにしても良い。この場合の拡大率は、拡大後の顔範囲の画像データが現在フレームの画像データの画角内に収まるように設定することが望ましい。また、ユーザが拡大率を設定できるようにしても良い。さらには、動画内静止画像データの顔範囲の画像データを拡大してから合成するか否かをユーザが設定できるようにしても良い。
 以上説明したように、本実施形態によれば、ユーザが動画撮影中の所望のタイミングでレリーズボタン2161を全押しするだけで、そのタイミングに対応した画像データに対して特殊効果画像処理としての合成処理が施される。このように、本実施形態によれば、ユーザは動画撮影後に編集等を行うことなく、動画撮影中の意図したタイミングで特殊効果画像処理を施すことが可能である。
 また、特殊効果画像処理としての合成処理を施す際、動画内静止画像データの合成係数を、レリーズタイミングからの経過時間に応じて変化させ、一定時間後にゼロにするように設定することにより、再生時における急激な画像の変化を抑制して自然な残像効果を与えることが可能である。
 ここで、第1の実施形態においては、動画内静止画像データを取得するタイミングをレリーズボタン2161が全押しされたタイミングとしている。このタイミングを指示する操作部をレリーズボタン2161以外のものとしても良い。
 [第2の実施形態] 
 次に、本発明の第2の実施形態について説明する。第2の実施形態は、第1の実施形態とは別の特殊効果画像処理を施す例である。第2の実施形態においては、特殊効果画像処理として、レリーズタイミングに前後するタイミングに対応した動画像の再生時間を変更する処理を施す。
 以下、第2の実施形態において、第1の実施形態と同一の部分については説明を省略する。本実施形態においては、画像バッファ用の記憶領域がRAM206に設けられている。この画像バッファ用の記憶領域は、静止画像データや動画像データを記憶するための記憶領域とは別個に設けられている。画像バッファ用の記憶領域は、後述の特殊効果画像処理において過去フレームの画像データを保持しておくための記憶領域である。
 図7は、第2の実施形態における図3のステップS209の処理の例を示すフローチャートである。図7において、マイクロコンピュータ215は、現在の動画撮影の対象となっているフレーム(現在フレーム)の画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差、即ちレリーズタイミングからの経過時間が所定時間T(例えば3秒以内)であるか否かを判定する(ステップS401)。ステップS401の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合に、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データに基づく画像をライブビュー表示するように表示ドライバ213に指示する(ステップS402)。
 続いて、マイクロコンピュータ215は、画像バッファがフル状態となったか否かを判定する(ステップS403)。ステップS403の判定において、画像バッファがフル状態となった場合に、マイクロコンピュータ215は、画像バッファに記録されている画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS404)。その後、マイクロコンピュータ215は、現在フレームの画像データをRAM206内に構成された画像バッファに記憶させる(ステップS405)。また、ステップS403の判定において、画像バッファがフル状態となっていない場合に、マイクロコンピュータ215は、ステップS404の処理をスキップする。
 ステップS404においては、画像バッファに記録されている画像データの中で最も古い画像データから順に動画ファイルに記録する。例えば、画像バッファが7枚の画像データを格納できるだけの容量を有しているとする。この場合、7枚目の画像データが記憶されるまでは、図8Aに示すようにして、画像バッファに画像データを順次記憶させる。これに対し、8枚目の画像データ以後については、図8Bに示すようにして、最古の画像データを動画ファイルに追記してから記憶させる。図8Bに示すようにして画像データを循環的に画像バッファに記憶させることにより、画像バッファの容量が少なくとも画像データを逐次記憶させることが可能となる。
 また、ステップS401の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内である場合に、マイクロコンピュータ215は、現在フレームの画像データがレリーズタイミングに対応したフレームの画像データであるか否かを判定する(ステップS406)。ステップS406の判定において、現在フレームの画像データがレリーズタイミングに対応したフレームの画像データである場合に、マイクロコンピュータ215は、画像処理部209によって現在フレームの画像データの一部(例えば顔範囲やAF範囲)を切り出す(ステップS407)。そして、マイクロコンピュータ215は、切り出した画像データの一部の像を用いて、第2の実施形態における特殊効果画像処理としての過去フレームの画像データの生成処理を行う(ステップS408)。この過去フレームの画像データの生成処理については後述する。
 過去フレームの画像データを生成した後、マイクロコンピュータ215は、ステップS408で生成した過去フレームの画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS409)。過去フレームの画像データを動画ファイルに追記した後、マイクロコンピュータ215は、生成した過去フレームの画像データに基づく画像をライブビュー表示するように表示ドライバ213に指示する(ステップS410)。その後にマイクロコンピュータ215は、図7に示す処理を終了させる。
 また、ステップS406の判定において、現在フレームの画像データがレリーズタイミングに対応したフレームの画像データでない場合に、マイクロコンピュータ215は、画像処理部209によって切り出した画像データの一部の像を用いて、第2の実施形態における特殊効果画像処理としての新たな現在フレームの画像データの生成処理を行う(ステップS411)。この現在フレームの画像データの生成処理についても後述する。
 現在フレームの画像データを生成した後、マイクロコンピュータ215は、生成した現在フレームの画像データに基づく画像をライブビュー表示するように表示ドライバ213に指示する(ステップS412)。その後、マイクロコンピュータ215は、ステップS411で生成した現在フレームの画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS413)。現在フレームの画像データを動画ファイルに追記した後、マイクロコンピュータ215は、図7に示す処理を終了させる。
 以下、第2の実施形態における特殊効果画像処理としてのフレームの生成処理について説明する。図9は、ステップS408又はS411におけるフレーム生成のための合成係数の設定テーブルの例を示す図である。
 図9に示すように、第2の実施形態における合成係数も、第1の実施形態と同様、0.0から1.0の範囲で設定する。また、第2の実施形態においては、合成係数を、レリーズタイミング(図の0の時点)の前後の所定時間Tの範囲内で設定する。そして、第2の実施形態における合成係数は、レリーズタイミングから±Tの時点でそれぞれ0.0となるように設定する。これらの条件を満足していれば、合成係数の特性は任意に設定して良い。図9の例は、合成係数が、-Tの時点から0の時点までは0.0から0.5まで単調増加し、その後、Tの時点となる前に0.0まで減少する特性である。
 さらに、本実施形態では、レリーズタイミングの前後の所定時間Tの範囲内の動画像データの再生速度を変更する。この際、±Tの時点では再生速度を等倍速(1倍速)としておくことが望ましい。さらに、動画像の全体としての再生時間が変わらないよう、高速再生処理によって減少するフレーム数と低速再生処理によって増加するフレーム数とを一致させるように再生速度を変更することがより望ましい。
 図10は、再生速度の変化特性の一例を示す図である。図10は、再生速度を、等倍速から2倍速まで変化させた後、2倍速から1/2まで変化させ、その後に再び等倍速まで戻す例である。図10のようにして再生速度を変更する場合、高速再生処理を行う領域(図の等倍のライン以上の領域の面積)と低速再生処理を行う領域(図の等倍のライン以下の領域の面積)とを等しくすることができる。これにより、高速再生によって減少するフレーム数と低速再生によって増加するフレーム数とが一致する。
 図11は、ステップS408における過去フレームの生成について説明するための図である。まず、画像バッファに記憶されている画像データ(m-6)~(m-1)のそれぞれに、レリーズタイミングに対応した画像データ(m)から生成された動画内静止画像データを合成する。また、レリーズタイミングに対応した画像データ(m)にも動画内静止画像データを合成する。合成の仕方は、第1の実施形態と同様である。即ち、動画内静止画像データの一部(例えば顔範囲)を切り出し、この切り出した一部の像の画角を拡大する。そして、図9に示したようなレリーズタイミングからの時間差と対応付けられた合成係数に従って、拡大後の動画内静止画像データの一部の像を合成対象の画像データと合成する。勿論、第1の実施形態と同様、動画内静止画像データの一部の像の画角を拡大せずに、即ち画角を同じくして合成しても良い。
 動画内静止画像データの合成処理によって得られたそれぞれの合成画像データ(m-6)~(m-1)は、画像バッファに上書き記憶される。また、合成画像データ(m)は、RAM206の画像バッファとは別の記憶領域に上書き記憶される。続いて、再生速度を変化させるように再生速度変更後画像データを生成する。1フレーム分の画像データの再生時間が変わらないとすると、再生速度を高速化するには再生する画像データの数を減少させれば良く、再生速度を低速化するには再生する画像データの数を増加させれば良い。例えば、連続する複数のフレームの画像データを再生する際に、これらのフレームの画像データを合成してから再生したり、間引きして再生したりすることにより、再生速度を高速化することができる。逆に、連続する複数のフレームの画像データを再生する際に、連続するフレームの中間のフレームの画像データをさらに再生したり、同じフレームの画像データを複数回再生したりすることにより、再生速度を低速化することができる。
 図11のようにして記憶された画像データから、図10に示すような再生速度の特性を有する動画像データを生成する場合、合成画像データ(m-6)は等倍速で再生する。したがって、合成画像データ(m-6)は何らの処理も適用しない。
 続いて、合成画像データ(m-5)、(m-4)と合成画像データ(m-3)、(m-2)は、2倍速で再生する。このために、合成画像データ(m-5)と合成画像データ(m-4)とをさらに合成して再生速度変更後画像データ(m-5)を生成する。また、合成画像データ(m-3)と合成画像データ(m-2)とをさらに合成して再生速度変更後画像データ(m-4)を生成する。これらの合成処理の際の合成画像データの合成比は例えば1:1である。合成画像データ(m-5)~(m-2)の4フレーム分を再生する代わりに、再生速度変更後画像データ(m-5)、(m-4)の2フレーム分を再生することにより、再生速度は、2倍速となる。ここでは、高速化処理として、2フレーム分の合成画像データをさらに合成する例を示したが、2フレームのうちの一方を間引くようにしても良い。
 続いて、合成画像データ(m-1)は等倍速で再生する。したがって、合成画像データ(m-1)は何らの処理も適用せずに再生速度変更後画像データ(m-3)とする。次の合成画像データ(m)は、1/2倍速で再生する。このために、合成画像データ(m)をコピーして再生速度変更後画像データ(m-2)、(m-1)を生成する。同一の画像データである再生速度変更後画像データ(m-2)、(m-1)を連続して再生することにより、再生速度は、1/2倍速となる。ここでは、低速化処理として、同じ合成画像データをコピーする処理を示したが、2フレームの中間フレームの合成画像データを新たに生成するようにしても良い。
 合成画像データ(m)を用いて再生速度変更後画像データ(m-1)を生成するまでの処理が、過去フレームの生成処理である。このような過去フレームの生成処理の後、それまで画像バッファに記憶されていた合成画像データが消去される。その後は、所定時間Tが経過するまでは、動画撮影によって新たな画像データが取得される毎に、ステップS411の現在フレームの生成処理を行う。以下、図12を参照して現在フレームの生成処理を説明する。
 合成画像データ(m)の次の動画撮影タイミングにおいて、画像データ(m+1)が得られる。まず、画像データ(m+1)に動画内静止画像データを合成して合成画像データ(m+1)を生成する。この合成画像データ(m+1)はRAM206に上書き記憶される。合成画像データ(m+1)は、1/2倍速で再生する。このために、合成画像データ(m+1)をコピーして再生速度変更後画像データ(m)、(m+1)を生成する。
 その後は、再生速度が等倍に戻るように再生速度変更後画像データ(m+2)、(m+3)、(m+4)を順次生成していく。図12に示すように、再生速度変更後画像データ(m+2)は、合成画像データ(m+2)である。また、再生速度変更後画像データ(m+3)は、合成画像データ(m+2)と合成画像データ(m+3)の中間フレームの合成画像データである。さらに、再生速度変更後画像データ(m+4)は、合成画像データ(m+4)である。 
 図12においては、図示していないが、所定時間Tが経過するまでに合成画像データ(m+5)、(m+6)も得られる。これらは、等倍速で再生する。
 以上説明したように、本実施形態によれば、ユーザが動画撮影中の所望のタイミングでレリーズボタン2161を全押しするだけで、そのタイミングに対して前後するタイミングの画像データに対して特殊効果画像処理としての再生速度変化処理が施される。このように、本実施形態においても、ユーザは動画撮影後に編集等を行うことなく、動画撮影中の意図したタイミングで特殊効果画像処理を施すことが可能である。
 また、特殊効果画像処理の終了時点で再生速度が等倍速に戻るように、再生速度変更後画像データを生成することにより、特殊効果画像処理を施す前後での急激な再生速度の変化を抑制することが可能である。
 ここで、上述の第2の実施形態においては、動画内静止画像データを合成してから再生速度の変更処理を行うようにしている。逆に、再生速度の変更処理を行ってから動画内静止画像データを合成しても良い。また、第2の実施形態においては、動画内静止画像データの合成処理自体を省略しても良い。この場合、静止画情報として動画内静止画像データを記憶させる必要はない。
 また、上述の例では、再生速度を2倍又は1/2倍とする処理を行っている。しかしながら、再生速度は、必ずしも2倍又は1/2倍とする必要はなく、任意に設定することが可能である。例えば、3フレームの分の合成画像データを合成して再生すれば、再生速度を3倍とすることが可能である。逆に、同じ合成画像データを3回連続で再生すれば、再生速度を1/3倍とすることが可能である。ただし、3倍速とする高速化処理を行った場合、この処理によって減少した3フレーム分を、低速化処理によって補間することが望ましい。
 [第3の実施形態]
 次に、本発明の第3の実施形態について説明する。第3の実施形態は、第1及び第2の実施形態とはまた別の特殊効果画像処理を施す例である。第3の実施形態においては、特殊効果画像処理として、ゲインマップに従って画像データを処理する。この特殊効果画像処理には、シェーディングを付加する処理、彩度を変更する処理、ぼかしを付加する処理、ソフトフォーカス処理等が含まれる。
 以下、第3の実施形態において、第1及び第2の実施形態と同一の部分については説明を省略する。図13は、第3の実施形態における図3のステップS209の処理の例を示すフローチャートである。図13において、マイクロコンピュータ215は、現在の動画撮影の対象となっているフレーム(現在フレーム)の画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差、即ちレリーズタイミングからの経過時間が所定時間T(例えば3秒以内)であるか否かを判定する(ステップS501)。ステップS501の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内である場合に、マイクロコンピュータ215は、第3の実施形態における特殊効果画像処理のためのゲインマップを作成する(ステップS502)。ゲインマップの作成処理については後述する。ゲインマップを作成した後、マイクロコンピュータ215は、特殊効果画像処理を実行する(ステップS503)。
 また、ステップS501の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合に、マイクロコンピュータ215は、ステップS502及びステップS503の処理をスキップする。
 ステップS501の判定において現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合、又はステップS503において特殊効果画像処理を実行した後、マイクロコンピュータ215は、特殊効果画像処理の結果としてRAM206に記憶されている画像データに基づく画像をライブビュー表示するように表示ドライバ213に指示する(ステップS504)。その後、マイクロコンピュータ215は、特殊効果画像処理の結果としてRAM206に記憶されている画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS505)。その後、マイクロコンピュータ215は、図13の処理を終了させる。
 図14は、ステップS502において作成されるゲインマップの例を示した図である。ゲインマップは、画像上の位置と特殊効果画像処理の内容によって特定される係数とを対応付けたテーブルである。この係数は、シェーディングを付加する処理の場合には例えばシェーディングを付加するために画像データに乗じるゲイン値であり、彩度を変更する処理の場合には例えば色差信号(CbCr)に乗じるゲイン値であり、ソフトフォーカス処理とぼかしを付加する処理の場合には例えばぼかしの程度を決めるフィルタ係数に対応する値である。
 図14に示すゲインマップのテーブルは、静止画情報によって特定される中心位置における係数が1であり、中心位置からの距離に応じて係数が0まで減少する特性を有する。中心位置は、顔情報によって特定された顔範囲の中心位置又はAF情報によって特定されたAF範囲の中心位置とする。
 さらに、図14に示すように、本実施形態におけるゲインマップのテーブルは、レリーズタイミングからの時間経過に応じた複数の特性のゲインマップのテーブルが設けられている。図14に示すゲインマップのテーブルは、レリーズタイミングからの経過時間が長いほど、係数が1に近づくように設定されている。
 本実施形態においては、レリーズタイミングからの経過時間に対応したゲインマップのテーブルを順次選択して特殊効果画像処理を施す。図15は、図14に示すゲインマップに従ってシェーディングを付加する処理を行った場合の例を示す図である。図15に示すように、同一の画像内では、中心位置(図15の場合は顔範囲)付近からの距離が遠くなるに従って画像が暗くなる。そして、レリーズタイミングからの経過時間が長くなるほど、画像が全体的に明るくなり、所定時間T(例えば3秒)が経過した時点でシェーディングを付加する処理を行っていないのと等価な状態となる。
 また、図示は省略しているが、彩度変更処理を行った場合には、同一の画像内では、中心位置付近からの距離が遠くなるに従って低彩度となるように彩度補正用のカラーマトリクスが設定される。また、ソフトフォーカス処理の場合には、中心位置付近からの距離が遠くなるに従ってぼけの程度が大きくなるようにローパスフィルタの係数が設定される。
 また、ぼかしを付加する処理の場合には、画像データ内における係数が1の領域、即ち顔範囲やAF範囲に対応した領域を除く領域に対して、図14で示したゲインマップに従ったぼかし処理を実行する。この場合、画像内の顔範囲(AF範囲)の部分のみが鮮明な像となり、その他の部分がぼけた像となる。このようなぼかしを付加する処理により、ジオラマ撮影で得られるような特殊効果が付加された画像を得ることが可能である。
 以上説明したように、本実施形態によれば、ユーザが動画撮影中の所望のタイミングでレリーズボタン2161を全押しするだけで、そのタイミングに対応した画像データに対してレリーズタイミングからの経過時間に応じた異なる視覚効果を与える特殊効果画像処理が施される。このように、本実施形態においても、ユーザは動画撮影後に編集等を行うことなく、動画撮影中の意図したタイミングで特殊効果画像処理を施すことが可能である。
 ここで、第3の実施形態において、第1の実施形態で説明した合成処理や第2の実施形態で説明した再生速度変更処理を併用するようにしても良い。 
 また、第3の実施形態では、静止画情報としての顔情報やAF情報に従って、特殊効果画像処理を施すためのゲインマップを作成している。この他、静止画情報として例えば被写体輝度を用いることで、被写体輝度に応じてゲインマップの係数を変えるようにする等も可能である。
 [第4の実施形態]
 次に、本発明の第4の実施形態について説明する。上述した第1~第3の実施形態は、何れも動画撮影中に特殊効果画像処理を施す例について説明している。これに対し、第4の実施形態は、動画再生時に特殊効果画像処理を施す例である。
 以下、第4の実施形態において、第1~第3の実施形態と同一の部分については説明を省略する。図16は、本実施形態における動画撮影処理の詳細を示したフローチャートである。ここで、図16のステップS201~S206の処理は、図3と同様である。したがって説明を省略する。
 ステップS206の判定において、レリーズボタン2161の状態が2ndレリーズスイッチのOn状態である場合に、マイクロコンピュータ215は、そのときの静止画情報を例えばRAM206に記憶させる(ステップS607)。静止画情報は、基本的には第1の実施形態と同様である。しかしながら、第4の実施形態においては、静止画情報としてさらに特殊効果画像処理を実行するか否かを示す特殊効果再生情報を記録しておく。
 静止画情報を記憶させた後、マイクロコンピュータ215は、レリーズタイミングを示すタイミング情報を取得する(ステップS608)。マイクロコンピュータ215は、ステップS607で静止画情報として記憶させた静止画像データ(動画内静止画像データ)を、静止画ファイルとして記録する処理を行う(ステップS609)。続いて、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データを、図2のステップS109で予め作成した動画ファイルに追記する(ステップS610)。ここで、タイミング情報は、例えば動画像ファイルのヘッダ情報部に記録しておく。タイミング情報を静止画ファイルのヘッダ情報部に記録しても良い。動画ファイルへの画像データの記録が終了した後、マイクロコンピュータ215は、図16の処理を終了させて図2のステップS122以後の処理を実行する。 
 このように、本実施形態においては、動画撮影時において特殊効果画像処理を施さない代わりに、静止画情報及びタイミング情報を記録しておく。
 図17は、本実施形態における動画再生処理について示すフローチャートである。この図17の処理は、図2のステップS103の再生処理の際に行われる。上述したように、本実施形態においては、動作再生時に特殊効果画像処理を施す。ここで、本実施形態では、特殊効果画像処理を実行する旨を示す情報が特殊効果再生情報として記録されている場合に特殊効果画像処理を行う。
 また、図17は、第1の実施形態で説明した合成処理を特殊効果画像処理として実行する例を示している。第2の実施形態及び第3の実施形態で説明した特殊効果画像処理を実行するようにしても良い。
 図17の再生処理において、マイクロコンピュータ215は、ユーザによる動画像ファイルの選択を待つ(ステップS701)。そして、動画像ファイルが選択された場合に、マイクロコンピュータ215は、選択された動画像ファイルを画像圧縮展開部210によりデコードする(ステップS702)。
 そして、マイクロコンピュータ215は、現在の再生対象のフレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差、即ちレリーズタイミングからの経過時間が所定時間T(例えば3秒以内)であるか否かを判定する(ステップS703)。ステップS703の判定において、現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内である場合に、マイクロコンピュータ215は、Flashメモリ217に記憶されているテーブルに従って合成係数を算出する(ステップS704)。合成係数を算出した後、マイクロコンピュータ215は、画像処理部209を用いて静止画ファイルに記録した動画内静止画像データと現在フレームの画像データとを合成(重畳)し、合成により得られた画像データを新たな現在フレームの画像データとしてRAM206に記憶させる(ステップS705)。
 ステップS703において現在フレームの画像データの取得タイミングとタイミング情報によって示されるレリーズタイミングとの時間差が所定時間以内でない場合、又はステップS705の後、マイクロコンピュータ215は、RAM206に記憶されている現在フレームの画像データに基づく画像を表示するように表示ドライバ213に指示する(ステップS706)。
 現在フレームの画像データを再生した後、マイクロコンピュータ215は、選択された動画像の再生が終了したか、即ち動画像データを構成する全フレームの画像データの再生が終了したか否かを判定する(ステップS707)。ステップS707の判定において、動画像の再生が終了していない場合に、マイクロコンピュータ215は、次のフレームの画像データを再生すべく、ステップS702以後の処理を実行する。また、ステップS707の判定において、動画像の再生が終了した場合に、マイクロコンピュータ215は、動画再生処理を終了するか、即ち、ユーザによって再生終了の指示がなされたか否かを判定する(ステップS708)。ステップS708の判定において、動画再生処理を終了しない場合に、マイクロコンピュータ215は、ステップS701以後の処理を実行する。一方、ステップS708の判定において、動画再生処理を終了しない場合に、マイクロコンピュータ215は、図17の処理を終了させて図2のステップS101以後の処理を実行する。
 以上説明したように、本実施形態によれば、動画撮影時に特殊効果画像処理を施していなくとも、再生時において特殊効果画像処理を施した動画像を再生することが可能である。この場合でも、ユーザは編集操作を意識する必要がない。
 ここで、本実施形態では、図16及び図17の処理の何れもデジタルカメラ10が行う例を示している。しかしながら、デジタルカメラ10において図16の動画撮影処理のみを行い、デジタルカメラ10とは別体の特殊効果画像処理装置において図17の処理を実行するようにしても良い。このような変形例の構成を図18に示す。図18の例では、撮像装置の一例としてのデジタルカメラ10の画像処理部209が、特殊効果画像処理部2092を有していない。その代わりに、カメラ本体200には、特殊効果画像処理装置20と通信するためのインターフェイス(I/F)219が設けられている。また、特殊効果画像処理装置20は、画像圧縮展開部301と、特殊効果画像処理部302と、を有している。画像圧縮展開部301は、画像圧縮展開部210と同様の機能を有する。また、特殊効果画像処理部302は、特殊効果画像処理部2092と同様の機能を有する。
 ここで、図18の例では、デジタルカメラ10のカメラ本体200と特殊効果画像処理装置20とが直接接続されているように図示されているが、I/F219は、無線インターフェイスであっても良い。この他、本実施形態の技術は、カメラ本体200と特殊効果画像処理装置20との間で動画像ファイル(静止画情報及びタイミング情報を含む)の授受を行える各種の場合において適用可能である。例えば、記録媒体212がカメラ本体200に対して着脱自在に構成されていれば、動画ファイルが記録されている記録媒体212をカメラ本体200から取り出し、この取り出した記録媒体212内の動画ファイルを特殊効果画像処理装置20で読み出して処理するような形態であっても本実施形態の技術は適用可能である。
 以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
 さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。

Claims (18)

  1.  被写体を撮像して画像データを得る撮像部と、
     前記撮像部で得られた画像データに対して画像処理を施す画像処理部と、
     前記撮像部に対して静止画撮影の実行を指示するための静止画撮影指示部と、
     前記静止画撮影指示部の指示に応じて前記撮像部で得られた画像データを前記画像処理部で画像処理して得られた静止画像データと、該静止画像データの付随情報と、を含む静止画情報を記憶する静止画情報記憶部と、
     前記撮像部に対して動画撮影の実行を指示するための動画撮影指示部と、
     前記動画撮影指示部の指示に応じて前記撮像部で得られた複数の画像データを前記画像処理部で画像処理して得られた動画像データを記録する動画記録部と、
     前記動画撮影の実行中に前記静止画撮影指示部によって前記静止画撮影の実行が指示された場合に、該静止画撮影の実行が指示されたタイミングを示すタイミング情報を取得するタイミング情報取得部と、
     を具備し、
     前記画像処理部は、前記静止画情報記憶部に記憶された前記静止画情報と前記タイミング情報取得部によって取得された前記タイミング情報とに基づいて、前記動画像データに対して特殊効果画像処理をさらに施すことを特徴とする撮像装置。
  2.  前記画像処理部は、前記特殊効果画像処理として、前記動画像データを構成する複数の前記画像データのうちの前記タイミング情報に対応した画像データに前記静止画像データを重畳させる処理を前記動画像データに対して施すことを特徴とする請求項1に記載の撮像装置。
  3.  前記画像処理部は、前記重畳させる処理として、前記重畳する静止画像データの重畳比率を前記タイミングからの経過時間に応じて変化させ、一定時間後にゼロにする処理を前記動画像データに対して施すことを特徴とする請求項2に記載の撮像装置。
  4.  前記画像処理部は、前記動画記録部が前記動画像データを記録する前に前記特殊効果画像処理を前記動画像データに対して施し、
     前記動画記録部は、前記特殊効果画像処理が施された動画像データを記録することを特徴とする請求項1に記載の撮像装置。
  5.  前記画像処理部は、前記動画記録部に記録された動画像データの再生が指示された際に前記特殊効果画像処理を該動画記録部に記録された動画像データに対して施し、
     前記特殊効果画像処理が施された動画像データを表示部に再生する再生制御部をさらに具備することを特徴とする請求項1に記載の撮像装置。
  6.  前記画像処理部は、前記タイミング情報に対応した画像データと前記静止画像データの双方の画角を同じ画角として、前記タイミング情報に対応した画像データに前記静止画像データを重畳することを特徴とする請求項2又は3に記載の撮像装置。
  7.  前記画像処理部は、前記静止画像データに記録されている前記被写体の像を前記タイミング情報に対応した画像データに記録されている前記被写体の像の画角よりも拡大した画角で、前記タイミング情報に対応した画像データに前記静止画像データを重畳することを特徴とする請求項2又は3に記載の撮像装置。
  8.  前記付随情報には前記被写体の顔検出情報が含まれており、
     前記画像処理部は、前記静止画像データに記録されている前記被写体の像としての前記顔検出情報によって示される前記静止画像データの顔部の像の画角よりも拡大した画角で、前記タイミング情報に対応した画像データに前記静止画像データを重畳することを特徴とする請求項7に記載の撮像装置。
  9.  前記画像処理部は、前記特殊効果画像処理として、前記動画像データを構成する複数の前記画像データのうちの前記タイミング情報に対応した画像データに対して前後するタイミングの画像データの再生速度を変化させる処理を施すことを特徴とする請求項1に記載の撮像装置。
  10.  前記画像処理部は、前記特殊効果画像処理として、前記静止画像データに対してシェーディングを付加する処理を施すことを特徴とする請求項1に記載の撮像装置。
  11.  前記画像処理部は、前記特殊効果画像処理として、前記静止画像データに対してぼかしを付加する処理を施すことを特徴とする請求項1に記載の撮像装置。
  12.  前記付随情報には前記被写体の顔検出情報が含まれており、
     前記画像処理部は、前記顔検出情報によって示される前記静止画像データに記録されている前記被写体の顔部の像を中心として前記シェーディングを付加する処理を施すことを特徴とする請求項10に記載の撮像装置。
  13.  前記付随情報には前記被写体の顔検出情報が含まれており、
     前記画像処理部は、前記顔検出情報によって示される前記静止画像データに記録されている前記被写体の顔部の像を除く領域に前記ぼかしを付加する処理を施すことを特徴とする請求項11に記載の撮像装置。
  14.  前記付随情報にはAF情報が含まれており、
     前記画像処理部は、前記AF情報によって示される前記静止画像データのAF中心を中心として前記シェーディングを付加する処理を施すことを特徴とする請求項10に記載の撮像装置。
  15.  前記付随情報にはAF情報が含まれており、
     前記画像処理部は、前記AF情報によって示される前記静止画像データのAF中心を除く領域に前記ぼかしを付加する処理を施すことを特徴とする請求項11に記載の撮像装置。
  16.  前記付随情報には、前記動画像データの再生時に該再生される前記動画像データに前記特殊効果画像処理を施すかどうかを指示する特殊効果再生情報がさらに含まれ、
     前記画像処理部は、前記特殊効果再生情報によって前記特殊効果画像処理を施すように指示された場合に前記動画像データに特殊効果画像処理を施すことを特徴とする請求項1に記載の撮像装置。
  17.  請求項1に記載の撮像装置で得られた前記静止画情報と前記タイミング情報とが入力され、該入力された前記静止画情報と前記タイミング情報とに基づいて、動画像データに対して特殊効果画像処理を施す特殊効果画像処理部を具備することを特徴とする画像処理装置。
  18.  動画撮影指示部が、撮像部に対して動画撮影の実行を指示し、
     前記動画撮影指示部の指示に応じて前記撮像部が、被写体を撮像して複数の画像データを得て、
     画像処理部が前記撮像部で得られた複数の画像データに対して画像処理を施して動画像データを得て、
     前記動画撮影の実行中に静止画撮影指示部が、前記撮像部に対して静止画撮影の実行を指示し、
     前記静止画撮影指示部の指示に応じて静止画情報記憶部が、前記撮像部で得られた画像データを前記画像処理部で画像処理して得られた静止画像データと、該静止画像データの付随情報と、を含む静止画情報を記憶し、
     前記静止画撮影指示部の指示に応じてタイミング情報取得部が、前記静止画撮影の実行が指示されたタイミングを示すタイミング情報を取得し、
     前記画像処理部が、前記静止画情報記憶部に記憶された前記静止画情報と前記タイミング情報取得部によって取得された前記タイミング情報とに基づいて、前記動画像データに対して特殊効果画像処理をさらに施す、
     ことを特徴とする撮像方法。
PCT/JP2012/054316 2011-05-25 2012-02-22 撮像装置、画像処理装置、及び撮像方法 WO2012160847A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280006974.XA CN103339925B (zh) 2011-05-25 2012-02-22 摄像装置、图像处理装置以及摄像方法
US13/936,153 US9118844B2 (en) 2011-05-25 2013-07-06 Imaging apparatus, image processing apparatus, and imaging method for providing a special effect superimposing still image data on moving image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-116919 2011-05-25
JP2011116919A JP5186021B2 (ja) 2011-05-25 2011-05-25 撮像装置、画像処理装置、及び撮像方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/936,153 Continuation US9118844B2 (en) 2011-05-25 2013-07-06 Imaging apparatus, image processing apparatus, and imaging method for providing a special effect superimposing still image data on moving image data

Publications (1)

Publication Number Publication Date
WO2012160847A1 true WO2012160847A1 (ja) 2012-11-29

Family

ID=47216936

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/054316 WO2012160847A1 (ja) 2011-05-25 2012-02-22 撮像装置、画像処理装置、及び撮像方法

Country Status (4)

Country Link
US (1) US9118844B2 (ja)
JP (1) JP5186021B2 (ja)
CN (1) CN103339925B (ja)
WO (1) WO2012160847A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103873761B (zh) * 2012-12-18 2018-03-02 宏达国际电子股份有限公司 图像记录方法与可携式电子装置
US10356312B2 (en) * 2014-03-27 2019-07-16 Htc Corporation Camera device, video auto-tagging method and non-transitory computer readable medium thereof
JP6478537B2 (ja) * 2014-09-09 2019-03-06 キヤノン株式会社 撮像装置及び制御方法
CN106296686A (zh) * 2016-08-10 2017-01-04 深圳市望尘科技有限公司 一种用静态和动态摄像机相结合对运动物体逐帧三维重构方法
JP2018042200A (ja) * 2016-09-09 2018-03-15 オリンパス株式会社 撮像装置及び撮像方法
JP2018042198A (ja) * 2016-09-09 2018-03-15 オリンパス株式会社 撮像装置及び撮像方法
JP6604297B2 (ja) * 2016-10-03 2019-11-13 株式会社デンソー 撮影装置
CN109509162B (zh) * 2017-09-14 2023-05-30 阿里巴巴集团控股有限公司 图像采集方法、终端、存储介质及处理器
JP7215022B2 (ja) * 2018-09-05 2023-01-31 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
WO2020066317A1 (ja) * 2018-09-26 2020-04-02 富士フイルム株式会社 撮影装置、撮影方法、及びプログラム
CN117253456B (zh) * 2023-09-18 2024-06-11 深圳市大我云读写科技有限公司 基于墨水屏的残影清除方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09191427A (ja) * 1996-01-09 1997-07-22 Canon Inc 撮像記録再生装置
JP2004312218A (ja) * 2003-04-04 2004-11-04 Fuji Photo Film Co Ltd デジタルカメラおよび画像再生装置
JP2006222771A (ja) * 2005-02-10 2006-08-24 Sony Corp 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
JP2011035486A (ja) * 2009-07-30 2011-02-17 Olympus Imaging Corp カメラシステム及びカメラの制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4179711B2 (ja) 1999-07-29 2008-11-12 オリンパス株式会社 電子カメラ
JP4066162B2 (ja) * 2002-09-27 2008-03-26 富士フイルム株式会社 画像編集装置、画像編集プログラム並びに画像編集方法
JP2007336281A (ja) * 2006-06-15 2007-12-27 Sony Corp 画像記録装置、画像再生装置、画像記録方法及び画像再生方法
JP5094686B2 (ja) 2008-11-07 2012-12-12 オリンパスイメージング株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09191427A (ja) * 1996-01-09 1997-07-22 Canon Inc 撮像記録再生装置
JP2004312218A (ja) * 2003-04-04 2004-11-04 Fuji Photo Film Co Ltd デジタルカメラおよび画像再生装置
JP2006222771A (ja) * 2005-02-10 2006-08-24 Sony Corp 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
JP2011035486A (ja) * 2009-07-30 2011-02-17 Olympus Imaging Corp カメラシステム及びカメラの制御方法

Also Published As

Publication number Publication date
JP5186021B2 (ja) 2013-04-17
CN103339925B (zh) 2018-01-09
US20130293733A1 (en) 2013-11-07
JP2012248937A (ja) 2012-12-13
US9118844B2 (en) 2015-08-25
CN103339925A (zh) 2013-10-02

Similar Documents

Publication Publication Date Title
JP5186021B2 (ja) 撮像装置、画像処理装置、及び撮像方法
JP5187241B2 (ja) 撮像装置及び撮像方法
KR101247647B1 (ko) 화상 합성 장치, 화상 합성 방법, 및 기록 매체
KR101342477B1 (ko) 동영상을 촬영하는 촬상 장치, 및 촬상 처리 방법
US9684988B2 (en) Imaging device, image processing method, and recording medium
JP2010213213A (ja) 撮像装置及び撮像方法
JP2006025312A (ja) 撮像装置、及び画像取得方法
US9402037B2 (en) Imaging apparatus, image processing apparatus, and image processing method for generating random special effects
JP2007124279A (ja) 画像処理装置
JP2014017579A (ja) 撮影装置、画像処理方法、及び、画像処理プログラム
JP5146498B2 (ja) 画像合成装置、画像合成方法、及びプログラム
JP2007299339A (ja) 画像再生装置および方法並びにプログラム
US9282257B2 (en) Image apparatus and imaging method
US10051200B2 (en) Imaging apparatus and control method thereof
JP5146015B2 (ja) 撮像装置及び撮像方法
JP5146500B2 (ja) 画像合成装置、画像合成方法、及びプログラム
JP5530304B2 (ja) 撮像装置および撮影画像表示方法
JP2014049882A (ja) 撮像装置
JP5951988B2 (ja) 画像合成装置及び画像合成方法
JP5836109B2 (ja) 画像処理装置、それを備えた撮像装置、画像処理方法、及び画像処理プログラム
JP5878063B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP2014011767A (ja) 撮像装置及び撮像方法
JP6218865B2 (ja) 撮像装置および撮像方法
JP6120664B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4956341B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789318

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12789318

Country of ref document: EP

Kind code of ref document: A1