WO2020110710A1 - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
WO2020110710A1
WO2020110710A1 PCT/JP2019/044383 JP2019044383W WO2020110710A1 WO 2020110710 A1 WO2020110710 A1 WO 2020110710A1 JP 2019044383 W JP2019044383 W JP 2019044383W WO 2020110710 A1 WO2020110710 A1 WO 2020110710A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
image
unit
control unit
file
Prior art date
Application number
PCT/JP2019/044383
Other languages
English (en)
French (fr)
Inventor
田中 康一
和田 哲
哲也 藤川
幸徳 西山
林 健吉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020558308A priority Critical patent/JP7191980B2/ja
Publication of WO2020110710A1 publication Critical patent/WO2020110710A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Definitions

  • the present invention relates to an image capturing apparatus, an image capturing method, and a program for capturing a moving image, and particularly to an image capturing apparatus, an image capturing method, and a program capable of extracting a frame forming a moving image as a still image.
  • a technique for shooting a moving image for the purpose of extracting a still image after shooting is known.
  • a moving image is captured and recorded in order to capture a momentary event (event) that is unknown when it occurs, and the user selects a desired frame after the capturing, but when the event occurs during movie recording. It is difficult to predict. Therefore, it is necessary to continue shooting video for a certain period of time, the remaining capacity of the recording medium is imminent, or it takes a great deal of effort for the user to select a frame in which an event has occurred from a long-time video. There are challenges.
  • the tag indicating the event information is not standardized, and can be recognized only by a specific device including the image pickup device used for shooting, and when the event frame is reproduced, all frames are reproduced. It is necessary to analyze the tag information of, and there is a problem that it takes time to reproduce the event frame. Further, in the technique described in Patent Document 1, since only marking information is recorded, it is necessary to decode a moving image (still image processing) every time a marked frame is extracted and displayed, which imposes a high processing load on the imaging device. .. As described above, in the conventional technology, the user cannot easily select the frame of the moving image to be extracted as the still image.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging device, an imaging method, and a program by which a user can easily select a frame of a moving image to be extracted as a still image.
  • an imaging device is an imaging device, and includes a direction detection unit that detects a direction of the imaging device with respect to a gravity direction, a shooting unit that shoots a moving image,
  • the control unit includes a first moving image mode in which a moving image file of a moving image captured by the image capturing unit is generated, and a still image can be extracted from the moving image file.
  • the direction detection unit determines that the direction change with respect to the gravity direction of the imaging device has occurred
  • the moving image is divided to generate the first moving image and the second moving image, and the control unit stores the first moving image file of the first moving image.
  • the first moving image file of the second moving image is saved in the second folder of the storage unit.
  • the user orients the camera (imaging device) horizontally (the camera bottom is parallel to the ground) or vertically (the camera bottom is parallel to the direction of gravity) depending on the desired composition. And hold it to shoot.
  • moving image shooting it is rare to switch between vertical and horizontal during shooting.
  • shooting a moving image for extracting a still image it is assumed that the attitude of the camera changes between the vertical and horizontal directions during shooting the moving image because of the characteristic that the frame is cut out afterwards. This vertical and horizontal change can be considered as a kind of event resulting from the user's action.
  • the moving image is divided to generate the first moving image and the second moving image when the direction of the image capturing apparatus (the attitude of the image capturing apparatus) changes with respect to the gravity direction, and the first moving image is generated.
  • the first moving image file of the moving image and the second moving image file of the second moving image are saved in separate folders (first folder, second folder).
  • the user can easily select the frame of the moving image to be extracted as the still image. Furthermore, in the first aspect, it is not necessary to use information such as tags and markings. Therefore, based on the moving image recorded in the first aspect, frame selection and still image extraction can be performed by another imaging device or image reproduction. It can also be performed by an apparatus or an image processing apparatus.
  • the storage unit may be included in the imaging device or may be an external device.
  • the control unit in the first aspect, generates a third moving image between the first moving image and the second moving image in time, and the third moving image is changed in direction. Including the video of the first period of time.
  • the period (first period) during which the direction change is occurring is set to a moving image (third moving image) different from the first and second moving images so that the user can easily identify it.
  • the imaging device is the imaging device according to the first aspect, in which, in time, the first moving image is before the second moving image, and the direction detection unit is in the first state in which the imaging device is in the horizontal direction, It is detected whether the device is in the second state along the direction of gravity or the third state in which the imaging device is changing between the first state and the second state, and the first state is detected.
  • the moving image includes a moving image during the period when the imaging device is in the third state.
  • an intermediate state between the first and second states for example, an intermediate state between the first and second states, a state in which the direction of the image pickup apparatus is indefinite, a state in which the attitude of the image pickup apparatus changes between the first state and the second state, etc. It can be in three states.
  • the control unit does not store the third moving image in the storage unit.
  • the capacity of the storage unit can be saved by not storing the moving image during the period (first period) in which the direction change is occurring.
  • control unit saves the third moving image in the first folder of the storage unit. That is, the third moving image is stored in the same folder as the first moving image.
  • the third moving image also includes a moving image in the second period after the direction change ends.
  • the shooting condition may not be stable due to the composition change even after the direction change ends, and thus the third moving image is included in the second period even after the direction change ends. ..
  • the first moving image also includes a moving image in the second period after the direction change ends.
  • the first moving image is included in the second period even after the direction change ends. ..
  • An image pickup apparatus is the sixth or seventh aspect, wherein during the second period, the image pickup apparatus adjusts the exposure of the moving image, the white balance of the moving image, or the focus of the subject in the moving image. Is.
  • the eighth aspect concretely defines the contents of the second period.
  • the control unit provides the first moving image file and the second moving image file with information regarding the direction of the imaging apparatus with respect to the gravity direction. ..
  • information can be added to a file name or a part thereof, a header or footer of a moving image file, and the like.
  • the imaging device is the imaging device according to any one of the first to ninth aspects, wherein the control unit has a reception unit that receives an instruction from the user, and the end timing of the second moving image is determined by the reception unit. It corresponds to the acceptance of the second moving image end instruction or the moving image shooting end instruction. According to the tenth aspect, the user can end the second moving image at a desired timing.
  • An image pickup apparatus is the image pickup apparatus according to any one of the first to tenth aspects, including a reception unit that receives a user instruction in the control unit, or an event detection unit that detects a specific event. Does not divide the moving image when the direction detecting unit detects the direction change while receiving the user instruction from the receiving unit or detecting the specific event by the event detecting unit. According to the eleventh aspect, the moving image is not divided when there is a direction change (posture change) of the imaging device during the user's instruction or the occurrence of a specific event, so a series of scenes related to the user's instruction or the event is performed. Can be confirmed in one video.
  • the imaging device is the imaging device according to any one of the first to eleventh aspects, wherein the control unit has a second moving image mode in which shooting conditions are different from the first moving image mode, and the control unit has a second In the moving image mode, when the direction detecting unit detects a change in direction, the moving image is not divided.
  • the normal moving image mode in which the still image is not extracted from the moving image can be the second moving image mode.
  • the image pickup apparatus is such that at least the shutter speed, the autofocus speed, the automatic exposure following speed, and the white balance following speed in the first moving image mode are the second moving image mode.
  • One is set to high speed and/or the frame rate is set to be high for the second moving image mode.
  • the thirteenth aspect defines one aspect of the difference in the shooting conditions between the first moving image mode and the second moving image mode. It is possible to extract high quality still images.
  • the imaging apparatus in any one of the first to thirteenth aspects, at least part of the first moving image file and the second moving image file are common except for the extension of the file name. Thereby, the user can easily identify that the first moving image file and the second moving image file are files generated by dividing one moving image.
  • an imaging method provides a direction detection unit that detects a direction of an imaging device with respect to a gravity direction, a shooting unit that shoots a moving image, and a moving image shot by the shooting unit. And a control unit having a first moving image mode capable of extracting a still image from the file, wherein the direction detection unit changes the direction with respect to the gravity direction of the image pickup device in the first moving image mode.
  • a determination step of determining whether or not a direction change has occurred in the first moving image mode a moving image generation step in which the control unit divides the moving image to generate a first moving image and a second moving image, and a first moving image
  • a first moving image file is stored in the first folder of the storage unit
  • a second moving image file of the second moving image is stored in the second folder of the storage unit.
  • a program according to a sixteenth aspect of the present invention is directed to a direction detection unit that detects the direction of an imaging device with respect to the gravity direction, a shooting unit that shoots a moving image, and a moving image shot by the shooting unit.
  • a program for operating an imaging device comprising a control unit having a first moving image mode capable of extracting a still image from a file, wherein the direction detection unit causes a change in direction with respect to the gravity direction of the imaging device in the first moving image mode. If it is determined that the direction change has occurred in the first moving image mode, the control unit divides the moving image to generate the first moving image and the second moving image, and stores the first moving image file of the first moving image.
  • the user can easily select a desired frame from the captured moving image, as in the first and fifteenth aspects.
  • the sixteenth aspect may further include the same configurations as the second to fourteenth aspects.
  • the programs of these aspects may be recorded in a non-transitory recording medium recording a computer-readable code.
  • the user can easily select a desired frame from the captured moving image.
  • FIG. 1 is a diagram showing a configuration of a camera according to the first embodiment.
  • FIG. 2 is a diagram showing a functional configuration of the image processing apparatus.
  • FIG. 3 is a diagram showing the coordinate system of the camera.
  • FIG. 4 is a diagram showing an example of posture determination and moving image division.
  • FIG. 5 is a flowchart showing the processing of the imaging method.
  • FIG. 6 is a diagram showing a change in the attitude of the camera and division and storage of a moving image.
  • FIG. 7 is a diagram showing an example of a folder structure.
  • FIG. 8 is another diagram showing an example of the folder structure.
  • FIG. 9 is a diagram showing an example of icon display of a vertical moving image and a horizontal moving image.
  • FIG. 9 is a diagram showing an example of icon display of a vertical moving image and a horizontal moving image.
  • FIG. 10 is a diagram showing a state in which a thumbnail image is attached to a vertical moving image and a horizontal moving image.
  • FIG. 11 is another flowchart showing the processing of the imaging method.
  • FIG. 12 is a diagram showing another example of posture determination and moving image division.
  • FIG. 13 is a diagram showing still another example of posture determination and moving image division.
  • FIG. 14 is a diagram showing still another example of posture determination and moving image division.
  • FIG. 15 is a diagram showing still another example of posture determination and moving image division.
  • FIG. 16 is another flowchart showing the processing of the imaging method.
  • FIG. 17 is another flowchart showing the processing of the imaging method.
  • FIG. 18 is a flowchart showing the moving image recording processing in the first mode and the second mode.
  • FIG. 19 is a flowchart (continuation of FIG.
  • FIG. 18 showing the moving image recording processing in the first mode and the second mode.
  • FIG. 20 is a diagram showing how a frame to be extracted as a still image is selected.
  • FIG. 21 is an external view of a smartphone according to the second embodiment.
  • FIG. 22 is a block diagram showing the configuration of the smartphone according to the second embodiment.
  • FIG. 23 is a diagram showing the posture of the smartphone according to the second embodiment.
  • FIG. 24 is a diagram showing how the attitude of the smartphone is determined based on the angle.
  • FIG. 1 is a diagram showing the configuration of a camera 10 (imaging device) according to the first embodiment.
  • the camera 10 includes an interchangeable lens 100 (imaging unit, imaging device) and an imaging device main body 200 (imaging device), and forms a subject image (optical image) on the imaging element 210 by the imaging lens including a zoom lens 110 described later. ..
  • the interchangeable lens 100 and the imaging device main body 200 can be attached and detached via a mount (not shown).
  • the interchangeable lens 100 includes a zoom lens 110, a focus lens 120, a diaphragm 130, and a lens driving unit 140.
  • the lens driving unit 140 drives the zoom lens 110 and the focus lens 120 forward and backward according to a command from the image processing device 240 (lens drive control unit 240F in FIG. 2) to perform zoom (optical zoom) adjustment and focus adjustment.
  • the zoom adjustment and the focus adjustment may be performed in accordance with not only a command from the image processing device 240 but also a zoom operation and a focus operation (a zoom ring (not shown), a rotation of the focus ring, etc.) performed by the user. Good.
  • the lens driving unit 140 controls the diaphragm 130 according to a command from the image processing device 240 to adjust the exposure.
  • information such as the positions of the zoom lens 110 and the focus lens 120 and the opening degree of the diaphragm 130 is input to the image processing device 240.
  • the interchangeable lens 100 has an optical axis L.
  • the imaging device main body 200 includes an imaging element 210 (imaging unit), an AFE 220 (AFE: Analog FrontEnd, imaging unit), an A/D converter 230 (A/D: Analog to Digital, imaging unit), an image processing device 240, and an operation.
  • the unit 250, the storage unit 260, the monitor 270, and the attitude sensor 280 (direction detection unit) are provided.
  • the image pickup apparatus main body 200 may have a shutter (not shown) for blocking the light transmitted through the image pickup element 210.
  • the image sensor 210 has a light receiving surface in which a large number of light receiving elements are arranged in a matrix.
  • the subject light that has passed through the zoom lens 110, the focus lens 120, and the aperture 130 is imaged on the light receiving surface of the image pickup element 210, and converted into an electric signal by each light receiving element.
  • An R (red), G (green), or B (blue) color filter is provided on the light receiving surface of the image sensor 210, and a color image of the subject can be acquired based on the signals of the respective colors.
  • various photoelectric conversion elements such as a CMOS (Complementary Metal-Oxide Semiconductor) and a CCD (Charge-Coupled Device) can be used.
  • the AFE 220 performs noise removal and amplification of the analog image signal output from the image sensor 210, and the A/D converter 230 converts the captured analog image signal into a digital image signal having a gradation width.
  • FIG. 2 is a diagram showing a functional configuration of the image processing device 240.
  • the image processing device 240 includes an image acquisition unit 240A, a direction detection unit 240B (direction detection unit), a control unit 240C (control unit), an event detection unit 240D (event detection unit), and a still image extraction unit 240E (still image extraction unit). , And a lens drive control unit 240F (lens drive control unit).
  • the control unit 240C has a receiving unit that receives a user instruction, and this receiving unit can receive a user instruction via the operation unit 250.
  • the image processing device 240 takes a moving image based on the digital image signal input from the A/D converter 230, generates a file, generates a still image file, processes a plurality of frames constituting the moving image, and extracts a still image. Etc. are processed. Details of the processing by the image processing device 240 will be described later.
  • the functions of the image processing device 240 can be realized by using various processors.
  • the various processors include, for example, a CPU (Central Processing Unit) that is a general-purpose processor that executes software (programs) to realize various functions.
  • the various processors described above include programmable logic devices (GPUs, which are processors specialized for image processing), FPGAs (Field Programmable Gate Arrays), and the like, whose circuit configurations can be changed after manufacturing.
  • Programmable Logic Device PLD
  • the above-described various processors also include a dedicated electric circuit, which is a processor having a circuit configuration specifically designed to execute a specific process such as an ASIC (Application Specific Integrated Circuit).
  • the processor When the above-described processor or electric circuit executes software (program), the processor (computer) readable code of the software to be executed is stored in a non-transitory recording medium such as a ROM (Read Only Memory). The processor then references the software.
  • the software stored in the non-temporary recording medium includes a program for executing the imaging method according to the present invention (a program for operating the imaging device according to the present invention).
  • the code may be recorded in a non-temporary recording medium such as various magneto-optical recording devices and semiconductor memories instead of the ROM.
  • a RAM Random Access Memory
  • EEPROM Electrical Erasable and Programmable Read Only Memory
  • the image processing device 240 includes a ROM 242 in addition to the above units.
  • the ROM 242 stores a computer-readable code of a program (including a program for executing the image pickup method according to the present invention) necessary for image capturing, recording, display, and the like.
  • the operation unit 250 has a release button (not shown), operation buttons (for example, a cross button, a Quick button, an OK button, etc.), a dial, a switch, etc., and the user can set a shooting mode, a moving image shooting instruction, a still image extraction instruction, Various operations can be performed.
  • the monitor 270 may be used as the operation unit 250.
  • the storage unit 260 (storage unit) is composed of various types of magneto-optical recording media, non-transitory recording media such as semiconductor memories, and its control circuit, and stores moving images, still images, still images extracted from the moving images, and the like.
  • the recording medium may be of a type that can be attached to and detached from the image pickup apparatus main body 200.
  • the captured image (moving image, still image) may be transmitted to and stored in an external recording medium (storage unit) by, for example, wireless communication.
  • the monitor 270 (display device) is composed of a touch panel type liquid crystal display panel and can display a moving image, a still image, a still image extracting frame, and the like.
  • the monitor 270 can be arranged on the back surface side, the top surface side, or the like of the imaging device body 200. Further, the camera 10 may include a finder.
  • the camera 10 can set a still image shooting mode, a moving image shooting mode for still image extraction (first moving image mode), or a normal moving image shooting mode (second moving image mode) as a shooting mode.
  • the still image shooting mode and the normal moving image shooting mode are the same as those of a normal digital camera.
  • the moving image shooting mode for still image extraction is a mode in which still images can be extracted from a moving image file, and moving images with different shooting conditions from the normal moving image shooting mode (shooting conditions that emphasize extraction of still images rather than viewing the moving images themselves). Movie).
  • the still image extraction moving image shooting mode at least one of the shutter speed, the autofocus speed, the automatic exposure following speed, and the white balance following speed is set to a higher speed than the normal moving image shooting mode, And/or the frame rate is set higher than in the normal moving image shooting mode.
  • the resolution and frame rate are set to the highest values that can be set by the camera 10 (for example, 4,000 ⁇ 2,000 pixels, 30 frames/second), and the color tone is also set on the premise of still image extraction.
  • the upper limit of ISO sensitivity is also set higher than in the normal moving image shooting mode.
  • the shutter speed is set to a value corresponding to the frame rate of a moving image to be recorded in the normal moving image shooting mode (1/30 seconds when the frame rate is 30 frames/second).
  • the speed is set to be higher than the frame interval (for example, less than 1/30 seconds).
  • the shutter speed is set to a value corresponding to the frame rate of the moving image so that a smooth moving image is reproduced, but in this case, a moving subject may be blurred.
  • the shutter speed is set to a higher speed (higher than the frame interval) in the moving image shooting mode for still image extraction than in the normal moving image shooting mode, so that high-quality still images with less subject blurring can be extracted.
  • the shutter speed can be increased by increasing the upper limit of ISO (International Organization for Standardization), and a still image with less blur can be extracted.
  • the autofocus speed, the auto exposure tracking speed, the auto white balance tracking speed, and the like are set higher than in the normal moving image shooting mode. As a result, it is possible to obtain many frames in which the subject is in focus, frames with proper exposure, and the like.
  • setting a high rate also shortens the frame interval of the moving image and increases the number of frames that can be extracted as a still image.
  • the frames forming the moving image can be extracted as a still image afterwards. Therefore, the user can easily take a picture of an event (natural phenomenon, accident, happening, etc.) that is unknown when it will occur, a picture of a subject whose state changes over time or a momentary state of a moving subject, etc. be able to.
  • the still image can be extracted not only at the timing at which the recording of the still image is instructed but also at other timings. Therefore, the user can acquire a still image at a desired timing.
  • a high-quality still image can be extracted by setting shooting conditions (shutter speed, resolution, frame rate, etc.) suitable for still image extraction.
  • still images can be shot (saved) during moving image shooting.
  • FIG. 3 is a diagram showing an example of a coordinate system defined for the camera 10.
  • the X-axis is the optical axis direction (direction toward the subject)
  • the Z-axis is the direction toward the upper side of the imaging device main body 200
  • the (X-axis, Y-axis, Z-axis) is the coordinate of the right-handed system.
  • FIG. 4 is a diagram showing an example of the relationship between the angle around the X axis and the posture (vertical or horizontal).
  • the direction detection unit 240B determines "horizontal" when the angle is in the range of (-45 deg or more and +45 deg or less) and (+135 deg or more and +225 deg or less), and determines "vertical” otherwise. can do.
  • the direction detection unit 240B determines the camera based on the measurement result of the attitude sensor 280. It is possible to detect 10 postures (directions with respect to the direction of gravity).
  • the range of angles shown in FIG. 4 is an example, and the posture may be determined in a range different from this.
  • the direction detection unit 240B may determine "horizontal" when the angle is in the range of (-30 deg or more and +30 deg or less) and (+150 deg or more and +210 deg or less), and may determine "vertical” otherwise. ..
  • FIG. 5 is a flowchart showing processing in the still image extracting moving image shooting mode.
  • the camera 10 enters the still image extracting moving image shooting mode.
  • the control unit 240C sets the photographing unit (the interchangeable lens 100, the image sensor 210, the AFE 220, the A/D converter 230) to the first moving image mode.
  • the process of FIG. 5 is started, and the control unit 240C initializes the state of the camera 10 (acquisition and display of live view image, initialization of attitude, start of attitude determination, etc.) (step S100: initialization step). ).
  • the control unit 240C determines whether or not a moving image recording start instruction has been given (step S110: shooting step, moving image generation step). For example, when a release button (not shown) of the operation unit 250 is pressed down, it can be determined that “a moving image recording start instruction has been issued”. If the determination is positive, the process proceeds to step S120.
  • the direction detection unit 240B detects the attitude (direction with respect to the gravity direction) of the camera 10 (imaging device) based on the output of the attitude sensor 280 (step S120: attitude detection step, determination step). As described above with reference to FIGS. 3 and 4, the direction detection unit 240B determines whether the posture is “vertical”, “horizontal”, or “indefinite” depending on the angle around the X axis.
  • the posture “undefined” may include a state in which the angle around the Y axis is large and “vertical” or “horizontal” cannot be specified, such as when the user is holding the camera 10 toward the ground or the sky. .. Note that the direction detection unit 240B may not detect the “undefined” state of the camera 10.
  • step S120 When it is determined in step S120 that the posture of the camera 10 is "horizontal” or “indefinite”, the control unit 240C compresses the captured moving image to form a new moving image file. Then, the control unit 240C starts recording (saving) of the moving image file in the horizontal moving image folder (first folder) of the storage unit 260 (step S130: moving image saving step).
  • the moving image can be compressed in the MPEG format (MPEG2, MPEG4, etc.), for example.
  • the control unit 240C starts recording (saving) the moving image file in a vertical moving image folder (second folder) different from the horizontal moving image folder (step).
  • S140 Video saving step.
  • a microphone (not shown) provided in the camera 10 may be used to record and store the sound together.
  • horizontal video and vertical video are videos when the posture is horizontal or indeterminate
  • horizontal video folder and vertical video folder are horizontal video and vertical video, respectively. Is a folder to save.
  • the direction detection unit 240B continues the posture detection of the camera 10 in parallel with the shooting of the moving image, and determines "whether or not the direction change with respect to the gravity direction of the camera 10 (imaging device) has occurred" (step S170: determination step). .. “Whether or not the direction has changed” can be determined based on the output of the attitude sensor 280 (for example, acceleration in the three axis directions).
  • the control unit 240C closes the moving image file being recorded and divides the moving image (step S180: moving image generating step). Then, the determination in step S190 is denied and the process returns to step S120.
  • the control unit 240C determines whether the attitude of the camera 10 is "vertical”, “horizontal”, or “indefinite” as at the start of recording the moving image file. Then, according to the result, the control unit 240C stores the new moving image file related to the division in the horizontal moving image folder or the vertical moving image folder of the storage unit 260. For example, when the attitude of the camera 10 changes from “horizontal” at the start of recording to “vertical”, the control unit 240C stores the moving image file (the first moving image file of the first moving image) in the horizontal moving image folder at the start of recording. The new moving image file (second moving image file of the second moving image) generated due to the posture change is saved in the vertical moving image folder. In addition, in step S170, when the posture of the camera changes again (Yes in step S170), the moving image may not be closed. This is because the number of video files will increase too much if the video is repeatedly divided each time the camera posture changes.
  • the image acquisition unit 240A, the direction detection unit 240B, and the control unit 240C divide the moving image and save the moving image file according to the posture of the camera 10 until the moving image shooting ends (while the determination in step S190 is No). Continue to do.
  • the direction detection unit 240B and the control unit 240C give information about the posture (direction with respect to the direction of gravity) of the camera 10 to the first moving image file and the second moving image file, for example, when displaying an icon of the moving image file or playing the moving image. It is preferable to be able to refer to.
  • the direction detection unit 240B and the control unit 240C can record information on the attitude of the camera 10 in the header or footer. For example, “01” can be set for the vertical direction, “02” for the horizontal direction, and “03” for other (oblique, indefinite, etc.).
  • the camera 10 may shift from the horizontal state to the vertical state and end the shooting of the moving image in the vertical state.
  • the end timing of the second moving image corresponds to reception of the user's second moving image ending instruction or moving image shooting ending instruction by the receiving unit in the control unit 240C.
  • the reception unit can receive a user instruction via the operation unit 250.
  • the vertical state may be changed to the horizontal state again and the shooting of the moving image may be ended in the horizontal state.
  • the end timing of the first moving image (horizontal moving image; moving image in the horizontal state) corresponds to the acceptance of the user's first moving image ending instruction or moving image shooting ending instruction by the receiving unit.
  • FIG. 6 is a diagram showing an example of determining a direction change based on an angle around the X axis.
  • the posture is determined to be “horizontal” from the time elapsed from zero to t1, and the angle is determined to be “longitudinal” at the point of elapsed time t1 exceeding 45 deg (threshold value).
  • the moving image is divided at time t1.
  • the control unit 240C saves the moving image file (first moving image file) of the first moving image whose elapsed time is from 0 to t1 in the horizontal moving image folder (first folder), and the moving image file of the second moving image after the elapsed time t1 ( The second moving image file) is saved in the vertical moving image folder (second folder). Since the posture of the camera 10 may change minutely, it may be determined that “the posture has changed” when the state in which the posture has changed continues for a predetermined time or longer.
  • FIG. 6 shows an example in which the attitude of the camera 10 changes from horizontal to vertical, the same processing can be performed when the attitude changes from vertical to horizontal (in this case, the vertical moving image is the first moving image and the horizontal moving image is the horizontal moving image).
  • the moving image becomes the second moving image
  • the vertical moving image folder becomes the first folder
  • the horizontal moving image folder becomes the second folder; the same applies to other aspects).
  • step S150 the control unit 240C determines in step S150 that “there is a video recording end instruction (video shooting end instruction)”, and “step S160”. Even when it is determined that the remaining capacity of the recording medium is not sufficient”, the moving image file is closed (step S180). However, in these cases, the shooting of the moving image is also ended (Yes in step S190).
  • step S150 the control unit 240C may determine that the "video recording end instruction has been given", for example, when a release button (not shown) of the operation unit 250 is pressed, or when an end instruction is given via the monitor 270. it can.
  • the moving image is divided to generate a horizontal moving image (first moving image) and a vertical moving image (second moving image). Then, save the horizontal moving image file (first moving image file) in the horizontal moving image folder (first folder), and save the vertical moving image file (second moving image file) in the vertical moving image folder (second folder). To do.
  • the user can easily identify the posture of the camera 10 when each moving image is captured, and can easily select a moving image including a frame to be extracted as a still image by using the posture of the camera 10 as a clue.
  • the user can search for a desired frame quickly because the frame to be extracted as a still image can be searched in a moving image whose recording time has been shortened by dividing the frame.
  • the user can easily select a desired frame from the captured moving image.
  • FIG. 7 is a diagram showing an example of a folder structure for storing a moving image.
  • a folder is created for each shooting date, and a folder is created for each shooting number within the folder for each shooting date.
  • one shooting number can be set from the time when the video recording start is instructed in step S110 to the time when the video shooting is ended in step S190.
  • a horizontal moving image folder and a vertical moving image folder are provided for the folders of the respective shooting numbers, and the horizontal moving image and the vertical moving image are stored respectively.
  • Such a folder structure can be displayed on the monitor 270 by the control unit 240C.
  • FIG. 8 shows a state in which a horizontal moving image folder (first folder) and a vertical moving image folder (second folder) are displayed on the monitor 270 with horizontal and vertical icons, respectively.
  • first folder a horizontal moving image folder
  • second folder a vertical moving image folder
  • the user can easily visually recognize the vertical moving image folder and the vertical moving image folder, and can easily select a desired frame.
  • FIG. 9 is a diagram showing an example of icon display of a moving image file. Part (a) of the figure shows a state where a horizontal moving image file is displayed with the horizontal icon attached to the horizontal icon. The symbol in the icon indicates that the file can be played back by designating it. Similarly, part (b) of FIG. 9 shows an example of an icon display for a moving image file of a vertical moving image, in which the vertical icon is attached with the characters “vertical moving image”.
  • the file name is the file creation date (October 23, 2018), shooting number (001), vertical and horizontal identification information (horizontal video is H (Horizontal), vertical video is V (Vertical)), file number (001, 002,...
  • the horizontal moving image file (first moving image file) and the vertical moving image file (second moving image file) have a common part except the file name extension.
  • the vertical/horizontal identification information is an example of information about the direction of the camera 10 (imaging device) with respect to the gravity direction.
  • the file name may include information indicating the type of file, file creation date and time, and vertical/horizontal identification information.
  • the file name "IMG2018011012230_H.MOV” is given to the horizontal moving image file created on 2018/1/1 12:30, and the vertical moving image file is created on 2018/1/1 12:40.
  • a file name of "IMG201201101240_H.MOV” can be given.
  • "IMG” is an example of information indicating that it is an image file.
  • the file name may include information indicating the file size.
  • FIG. 10 is a diagram showing a state in which thumbnail images are displayed on the icons.
  • Part (a) of the figure is an example of a horizontal moving image
  • part (b) is an example of a vertical moving image.
  • the image to be displayed may be the first frame of the horizontal moving image or the vertical moving image, or a frame in the middle (for example, a frame in which an event has occurred).
  • the icon display, thumbnail display, and file name assignment of the moving image file exemplified above allow the user to easily distinguish between a vertical moving image and a horizontal moving image, and to easily select a moving image including a desired frame.
  • the control unit 240C can display icons, thumbnails, and file names of moving image files.
  • FIG. 11 is a flowchart showing the processing in mode 1, and the direction detection unit 240B determines whether the attitude (direction with respect to the gravity direction) of the camera 10 is “horizontal”, “vertical”, or “changing”.
  • Step S122 Posture detection step
  • the control unit 240C starts recording (saving) of the moving image file (first moving image file) in the horizontal moving image folder (first folder) as the horizontal moving image (first moving image) (step). S130). In the case of “vertical”, the control unit 240C starts recording as a vertical moving image (second moving image) in the vertical moving image folder (second folder) (step S140). If it is "changing”, recording is started in the changing moving image folder (third folder) as a changing moving image (third moving image) (step S124).
  • the changing moving image folder can be created in the lower hierarchy of the folder of each shooting number.
  • the direction detection unit 240B determines that “the posture change of the camera 10 has started or completed” (Yes in step S172 (determination step))
  • the moving image is divided (closed moving image file, new moving image file Generate).
  • the direction detecting unit 240B determines that “the posture change has started” when the angle around the X axis changes by a predetermined value or more for a certain period of time. ..
  • the direction detection unit 240B determine that “the posture change is completed” when the time within which the angle variation is within the determined range continues for a certain time or more. For example, in the example shown in FIG. 12, the angle greatly changes between the elapsed times t1 and t2, and the angle is stable between the elapsed times t3 and t4.
  • the direction detection unit 240B determines that "the posture is changing" from the elapsed time t2 to t4, and determines that "the posture change is completed" at the elapsed time t4 (determination of the actual posture and the posture of the camera 10). Considering the time lag until the result changes).
  • the control unit 240C displays the horizontal moving image (first moving image; zero elapsed time to t2) and the vertical moving image (second moving image; elapsed time t4 or later) in time from the elapsed time t2 to t4.
  • a changing moving image (third moving image) in between is generated.
  • the moving image during change includes the moving image during the first period in which the posture of the camera 10 is changing (direction change is occurring).
  • the control unit 240C records the moving image during the period in which the camera 10 is in the third state (the posture is changing) in the first moving image and records it in the first folder (horizontal moving image folder).
  • the direction detection unit 240B determines that the period from the elapsed time t2 to t4 (first period) and the period from the elapsed time t4 to t5 (second period) are “ The posture of the camera 10 has changed.”
  • the third moving image includes the moving image in the second period after the direction change is completed.
  • the control unit 240C divides the moving image into a moving image file (third moving image file) different from the horizontal moving image (first moving image) and the vertical moving image (second moving image), and sets the horizontal moving image folder (third moving image folder). It can be recorded in one folder).
  • the third moving image may be recorded in an independent changing moving image folder (third folder).
  • An image during a posture change or a period in which the shooting condition is unstable may be less important, but in aspect 3, such a period is saved as a moving image different from the horizontal moving image and the vertical moving image, and thus extracted as a still image. You can easily select the frames you want and organize the video files and folders.
  • Mode 5 Mode in which no moving image is recorded during posture change
  • the moving image is recorded during the period during the posture change (and the period until the posture is stabilized thereafter), but a mode in which the moving image is not recorded during the posture change can also be adopted.
  • the direction detection unit 240B indicates that "the orientation of the camera 10 is horizontal (first state), vertical (second state), or changing (third state)."""Arethere?” is detected (step S122). Then, when the posture is changing, recording of the moving image file is not started (return to step S122).
  • step S130 and S140 when the attitude of the camera 10 is horizontal or vertical and the change in the attitude of the camera 10 starts after the recording of the moving image is started (steps S130 and S140) (Yes in step S174 (judgment step)), the control unit 240C executes the steps.
  • the moving image file is closed in S180 and the process returns to step S122.
  • the camera 10 resumes the recording of the moving image after the posture of the camera 10 becomes horizontal or vertical (steps S130 and S140).
  • the closed video file is saved in the corresponding folder.
  • the image in which the posture is changing may be less important in some cases, but since the moving image is not stored in such a period in mode 5, the remaining capacity of the recording medium can be saved. Further, the user can easily select a frame to be extracted as a still image and organize moving image files and folders.
  • Aspect 6 Aspect in which the moving image is not divided immediately after the event occurs even if there is a posture change
  • Aspect 6 shown in the flowchart of FIG. 17 is another aspect for the case where the posture change of the camera 10 has started or completed (Yes in step S172 (judgment step)).
  • the control unit 240C determines Do not close the moving image file (Yes in step S176 and do not proceed to step S180). Therefore, in this case, the moving image is not divided.
  • the control unit 240C sets the value of T (for example, 30 seconds can be set, but other values may be used) in response to the user's operation via the operation unit 250 or irrespective of the user's operation.
  • T for example, 30 seconds can be set, but other values may be used
  • You can Whether or not a specific event has occurred is determined by the event detection unit 240D (see FIG. 2) by automatically detecting the amount of movement of the subject, the change in size or shape, the change in brightness, etc. by known image processing. You may. Further, whether or not a specific event has occurred may be determined by a user's instruction via the operation unit 250 or the reception unit (including the case where the monitor 270 is used as a touch panel).
  • control unit 240C may determine that “a (specific) event has occurred” when the receiving unit receives a still image shooting instruction from the user during moving image shooting.
  • the event detection unit 240D and the control unit 240C preferably add information indicating the event detection timing to the moving image file (for example, record it in a header or footer). By referring to this information, the user can easily select a frame to be extracted as a still image (described later).
  • FIG. 17 is based on FIG. 11 (a mode in which the moving image whose posture is changing is different from the horizontal moving image and the vertical moving image and is stored in a different folder), but also based on the flowcharts of FIGS. 5 and 15. Good.
  • the control unit 240C determines whether the camera 10 is in the first moving image mode (moving image mode for still image extraction) or the second moving image mode (normal moving image mode) (step S112). In the case of the first moving image mode, the control unit 240C sets shooting conditions suitable for the first moving image mode (step S114).
  • the shooting conditions set in step S114 are, as described above in the "shooting mode" section, the shooting conditions that emphasize extraction of a still image rather than viewing the moving image itself.
  • the processes in and after step S114 in the first moving image mode are the same as those in the flowchart of FIG. 5, so detailed description thereof will be omitted.
  • step S112 when the result of the determination in step S112 is the second moving image mode, the control unit 240C sets the shooting condition suitable for the second moving image mode (step S191 in FIG. 19).
  • the direction detection unit 240B determines the attitude of the camera 10 (step S192), and the control unit 240C starts recording (saving) a moving image file in the second moving image folder of the storage unit 260 (step S193: moving image saving step). ..
  • the processing of steps S194 and S195 is the same as the processing of steps S150 and S160 for the first moving image mode.
  • step S194 When there is an instruction to end the moving picture recording (Yes in step S194) and when the remaining capacity of the recording medium is not sufficient (No in step S195), the control unit 240C closes the moving picture file (step S197), and the step of FIG. The process returns to S190 (determination as to whether or not moving image shooting has ended).
  • step S194 If there is no moving image recording end instruction (No in step S194) and the recording medium remaining capacity is sufficient (Yes in step S195), the control unit 240C continues recording the moving image.
  • the second moving image mode unlike the case of the first moving image mode, when the direction detecting unit 240B does not detect a change in the posture of the camera 10 (direction change) (No in step S196), a case is detected (step S196). Even in S196, Yes) does not divide the moving image. Even if the attitude of the camera 10 changes in the second moving image mode, the moving image is not divided because the second moving image mode is not a mode for shooting a moving image for the purpose of extracting a still image but a moving image as in the first moving image mode. This is because it is not necessary to divide the to make it easier to find a specific scene.
  • the control unit 240C can generate a first moving image mode folder and a second moving image folder in the storage unit 260 (storage unit) for each shooting date. ..
  • the control unit 240C creates a folder for each shooting number in the folder of the first moving image mode, and a horizontal moving image folder (an example of the first folder) and a vertical moving image folder (the first moving image folder) in the folder of each shooting number.
  • Two folder examples are provided to store a horizontal moving image (first moving image example) and a vertical moving image (second moving image example), respectively.
  • the control unit 240C records the files of the moving images shot on the shooting date in the folders for each shooting date. Further, the control unit 240C does not provide the folders of the first and second moving image modes under the folder of the shooting date, but sets the folders of the first and second moving image modes as the upper layer and the folders of the shooting date under the lower folder. It may be provided. Such a folder structure can be displayed on the monitor 270 by the control unit 240C as in the case of FIG.
  • the camera 10 can extract frames that form a moving image as a still image.
  • the moving image file recorded by the camera 10 may be used to extract a still image by another device such as a personal computer.
  • the control unit 240C causes the monitor 270 to reproduce and display the file selected by the user among the moving image files of the horizontal moving image, the vertical moving image, or the changing moving image (first moving image, second moving image, third moving image).
  • frame-by-frame reproduction one frame at a time according to a user operation
  • the control unit 240C stops the reproduction by the user's operation, and confirms the selection of the frame displayed at the time of the stop according to the user's operation, so that the still image extraction unit 240E extracts the frame as a still image. ..
  • Example 2 When the information indicating the event detection is added to the moving image file, the control unit 240C refers to the information and displays a plurality of frames including the frame in which the event is detected on the monitor 270 (see FIG. 1). Good.
  • FIG. 20 is an example of such a display, and five frames 1051 to 1055 including a frame 1052 are displayed. Further, the frame 1052 in which a still image is recorded (still image recording is an example of event occurrence) is given a camera-like icon 1060 by the still image extraction unit 240E. This allows the user to know that the frame is a still image recorded.
  • the range of the still image extraction frame to be displayed is the frame (frame 1051) and the subsequent frame (frame 1051) temporally before the “frame corresponding to the recorded still image file” (frame 1052 in the example of FIG. 20). Frames 1053 to 1055) may be included. Further, the range of the still image extraction frame to be displayed may be a mode of “including only a frame preceding in time” or a mode of “including only a frame subsequent in time”. The range of the still image extraction frame to be displayed may be set according to the designation by the user, or may be set without depending on the designation by the user.
  • the range of frames to be displayed may be specified by time (for example, one second before and after the frame in which a still image is recorded) or by the number of frames (for example, before and after the frame in which a still image is recorded). 10 frames each). Further, in the initial state, only the frames recorded as still images may be displayed in a list, and the frames selected from the frames may be displayed before and/or after in time.
  • the user can select a frame from the displayed still image extraction frames.
  • the user can select a frame by checking the check box 1070 for a desired frame via the operation unit 250 and/or the monitor 270, and can also select a plurality of frames.
  • the frame in which the still image designated by the user is recorded is not always recorded at the best timing. By displaying other related frames together, the user may want to select another frame. Therefore, it is preferable to display the still image on the monitor 270 so that the still image can be selected from the frame before and/or after the frame.
  • FIG. 20 shows a state in which the user has selected a frame 1053 different from the frame in which the still image is recorded (frame 1052 with the icon 1060).
  • the still image extraction unit 240E extracts the selected frame as a still image (still image extraction step). Since the moving image file is stored in a moving image format such as MPEG format, the still image extracting unit 240E converts the data of the selected frame into a still image format (JPEG format or the like). The user can extract a still image at a desired timing from the moving images (first moving image, second moving image, third moving image).
  • the camera 10 which is a digital camera
  • the configuration of the imaging device is not limited to this.
  • the other imaging device of the present invention can be, for example, a built-in or external PC camera (PC: Personal Computer), or a portable terminal device having a shooting function as described below. ..
  • Examples of the mobile terminal device which is an embodiment of the image pickup device of the present invention include a mobile phone, a smartphone, a PDA (Personal Digital Assistants), and a portable game machine.
  • a smartphone will be described as an example in detail with reference to the drawings.
  • FIG. 21 is a diagram showing an appearance of a smartphone 1 (imaging device) which is an embodiment of an imaging device of the present invention, in which (a) part is a front view and (b) part is a rear view.
  • a smartphone 1 shown in FIG. 21 has a flat housing 2, and a display panel 21 (display device) as a display unit and an operation panel 22 (operation unit) as an input unit on one surface of the housing 2. Is provided with a display input unit 20.
  • the housing 2 includes a speaker 31, a microphone 32, an operation unit 40 (operation unit), and camera units 41 and 42 (imaging device, photographing unit, event detection unit, control unit, still image extraction unit, lens drive control). Section) and a strobe 43.
  • the configuration of the housing 2 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be adopted, or a configuration having a folding structure or a slide mechanism may be adopted.
  • FIG. 22 is a block diagram showing the configuration of the smartphone 1 shown in FIG.
  • the wireless communication unit 11 the display input unit 20, the call unit 30, the operation unit 40, the camera units 41 and 42, the flash unit 43, and the storage unit. 50, external input/output unit 60, GPS receiving unit 70 (GPS: Global Positioning System), motion sensor unit 80, power supply unit 90, main control unit 101 (imaging unit, moving image file generation unit, still image file (Generation unit, event detection unit, display control unit, still image extraction unit, lens drive control unit).
  • GPS Global Positioning System
  • main control unit 101 imaging unit, moving image file generation unit, still image file (Generation unit, event detection unit, display control unit, still image extraction unit, lens drive control unit.
  • main control unit 101 imaging unit, moving image file generation unit, still image file (Generation unit, event detection unit, display control unit, still image extraction unit, lens drive control unit.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 11 performs wireless communication with the base station device accommodated in the mobile communication network according to an instruction from the main control unit 101. Using such wireless communication, various file data such as voice data and image data, electronic mail data and the like are transmitted and received, and Web data and streaming data are received.
  • the display input unit 20 displays an image (still image and/or moving image), character information, and the like to visually convey the information to the user, and also performs a user operation on the displayed information. It is a so-called touch panel for detection, and includes a display panel 21 and an operation panel 22.
  • an LCD Liquid Crystal Display
  • an OELD Organic Electro-Luminescence Display
  • the operation panel 22 is a device that is placed so that an image displayed on the display surface of the display panel 21 can be visually recognized and detects one or a plurality of coordinates operated by a conductor such as a finger of a user or a pen.
  • a conductor such as a finger of a user or a pen
  • the operation panel 22 outputs a detection signal generated due to the operation to the main control unit 101.
  • the main control unit 101 detects the operation position (coordinates) on the display panel 21 based on the received detection signal.
  • the operation panel 22 may have a function of detecting a user operation even in an area outside the display panel 21.
  • the operation panel 22 includes a detection area (hereinafter, referred to as a display area) for the overlapping portion that overlaps the display panel 21 and a detection area (hereinafter, a non-display area) for the other outer edge portion that does not overlap the display panel 21. Referred to)).
  • the call unit 30 includes a speaker 31 and a microphone 32, converts a user's voice input through the microphone 32 into voice data that can be processed by the main control unit 101, and outputs the voice data to the main control unit 101. 11 or the audio data received by the external input/output unit 60 can be decoded and output from the speaker 31. Further, as shown in FIG. 21, for example, the speaker 31 can be mounted on the same surface as the surface on which the display input unit 20 is provided, and the microphone 32 can be mounted on the side surface of the housing 2.
  • the operation unit 40 is a hardware key that uses a key switch or the like, and is a device that receives an instruction from a user.
  • the operation unit 40 is mounted on the side surface of the housing 2 of the smartphone 1 and is turned on when pressed with a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a button type switch.
  • the storage unit 50 stores the control program and control data of the main control unit 101, application software, address data in which names and telephone numbers of communication partners are associated with each other, transmitted/received e-mail data, Web data downloaded by Web browsing, and It stores downloaded content data, and also temporarily stores streaming data and the like. Further, the storage unit 50 includes an internal storage unit 51 with a built-in smartphone and an external storage unit 52 having a detachable external memory slot. The internal storage unit 51 and the external storage unit 52 that configure the storage unit 50 are realized by using known storage media.
  • the external input/output unit 60 serves as an interface with all external devices connected to the smartphone 1.
  • the smartphone 1 is directly or indirectly connected to another external device via the external input/output unit 60 by communication or the like.
  • means for communication and the like include universal serial bus (USB), IEEE 1394, network (eg, Internet, wireless LAN).
  • USB universal serial bus
  • RFID Radio Frequency Identification
  • infrared communication Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wide Band) (registered trademark), Zigbee (registered trademark), and jig (registered trademark).
  • Trademarks, etc. can also be cited as means for communication.
  • Examples of the external device connected to the smartphone 1 include a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, a memory card (Memory card) connected via a card socket, and a SIM (Subscriber).
  • An Identity Module Card/UIM (User Identity Module Card) card may be used.
  • external audio and video devices connected via audio and video I/O (Input/Output) terminals, external audio and video devices wirelessly connected, smartphones wired/wirelessly connected, and wired/wirelessly connected.
  • External devices such as a PDA, a personal computer connected by wire/wireless, and earphones can also be connected.
  • the external input/output unit 60 can transmit the data transmitted from such an external device to each component inside the smartphone 1, or can transmit the data inside the smartphone 1 to the external device.
  • the motion sensor unit 80 includes, for example, a triaxial acceleration sensor and a tilt sensor, and detects a physical movement of the smartphone 1 according to an instruction from the main control unit 101. By detecting the physical movement of the smartphone 1, the moving direction, acceleration, and posture of the smartphone 1 are detected. The detection result is output to the main control unit 101.
  • the power supply unit 90 supplies power stored in a battery (not shown) to each unit of the smartphone 1 according to an instruction from the main control unit 101.
  • the main control unit 101 includes a microprocessor, operates according to a control program and control data stored in the storage unit 50, and integrally controls each unit of the smartphone 1 including the camera unit 41. Further, the main control unit 101 has a mobile communication control function for controlling each unit of the communication system and an application processing function for performing voice communication and data communication through the wireless communication unit 11.
  • the main control unit 101 has an image processing function of displaying a video on the display input unit 20 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function means a function of the main control unit 101 decoding image data, performing image processing on the decoding result, and displaying an image on the display input unit 20.
  • the camera units 41 and 42 are digital cameras (imaging devices) that electronically capture images using imaging devices such as CMOS and CCD. Under control of the main control unit 101, the camera units 41 and 42 convert the image data (moving image, still image) obtained by imaging into compressed image data such as MPEG or JPEG, and record it in the storage unit 50. In addition, it can be output through the external input/output unit 60 and the wireless communication unit 11. Further, the camera unit 41, under the control of the main control unit 101, performs division and combination of moving images, acquisition of high-quality still images (RAW images, etc.), frame replacement and processing, and extraction of still images from moving images. You can also In the smartphone 1 shown in FIGS. 21 and 22, it is possible to take a picture using one of the camera sections 41 and 42, or to take a picture using the camera sections 41 and 42 at the same time. When the camera unit 42 is used, the strobe 43 can be used.
  • the camera units 41 and 42 can be used for various functions of the smartphone 1.
  • the smartphone 1 can display the images acquired by the camera units 41 and 42 on the display panel 21.
  • the smartphone 1 can use the images of the camera units 41 and 42 as one of the operation inputs of the operation panel 22.
  • the smartphone 1 can also detect the position by referring to the images from the camera units 41 and 42 when the GPS receiving unit 70 detects the position.
  • the smartphone 1 refers to the images from the camera units 41 and 42 and uses the light of the camera unit 41 of the smartphone 1 without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the axial direction and the current usage environment.
  • the smartphone 1 can also use the images from the camera units 41 and 42 in the application software.
  • the positional information acquired by the GPS reception unit 70 and the audio information acquired by the microphone 32 are added to the image data of the still image or the moving image (the main control unit or the like performs the audio-text conversion to obtain the text information).
  • the posture information acquired by the motion sensor unit 80 may be added and recorded in the storage unit 50.
  • the smartphone 1 can also output the image data of these still images or moving images through the external input/output unit 60 or the wireless communication unit 11.
  • Part (a) of FIG. 23 is a diagram showing an example of a coordinate system defined for the smartphone 1, and in this example, the posture is determined by the angle around the X axis.
  • the part (a) shows a vertical state at an angle of 0 deg (second state in which the smartphone 1 (imaging device) is along the gravity direction), and the part (b) of the figure shows a lateral state at an angle of 90 deg (smartphone 1 (imaging device)).
  • FIG. 24 is a diagram illustrating an example of a relationship between an angle around the X axis and the attitude (vertical or horizontal) of the smartphone 1.
  • the posture and the state are set with the lateral state (the state shown in part (b) of FIG. 23) as a reference (angle 0 deg).
  • State, second state, third state may be defined.
  • the processing of the image capturing method according to the present invention (moving image capturing, division and recording, still image recording, still image extraction, etc.) is performed.
  • the smartphone 1 the camera units 41 and 42 and the main control unit perform the process executed by the image processing device 240 (each unit illustrated in FIG. 2) in the first embodiment (including the processes of Aspect 1 to Aspect 6). 101 can be executed.
  • the functions of the operation unit 250, the storage unit 260, and the monitor 270 according to the first embodiment can be realized by the operation unit 40, the storage unit 50 and the operation panel 22, the display panel 21, and the operation panel 22 in the smartphone 1. it can.
  • the same effect as that of the camera 10 according to the first embodiment selection of a frame to be extracted as a still image, easy arrangement of moving image files, folders

Abstract

本発明は、静止画として抽出したい動画のフレームをユーザが容易に選択することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。本発明の第1の態様に係る撮像装置は、撮像装置であって、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、制御部と、を備え、制御部は、撮影部が撮影した動画の動画ファイルを生成し、動画ファイルから静止画を抽出可能な第1動画モードを有し、制御部は、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、制御部は第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、第2動画の第2動画ファイルを記憶部の第2フォルダに保存する。

Description

撮像装置、撮像方法、及びプログラム

 本発明は動画を撮影する撮像装置、撮像方法、及びプログラムに関し、特に動画を構成するフレームを静止画として抽出可能な撮像装置、撮像方法、及びプログラムに関する。

 撮影後に静止画を抽出することを目的として動画を撮影する技術が知られている。この技術では、例えばいつ起こるか分からない一瞬の事象(イベント)を捉えるために動画を撮影及び記録しておき、撮影後にユーザが所望のフレームを選択するが、動画撮影中にいつイベントが発生するかは予測が難しい。そのため、ある程度の時間にわたって動画を撮影し続ける必要があり、記録メディアの残容量が切迫する、あるいは長時間の動画からイベントが発生したフレームをユーザが選択するのに非常に大きな労力を要する、という課題がある。

 上述した課題に対応するために、動画へのタグ付けやマーキングを行うことが考えられる。例えば、イベントを検出し、イベント発生時のフレームに対してイベント情報を表すタグを付加する。また、例えば特許文献1には、動画の撮影中にユーザの指示により静止画取得タイミングで動画にマーキングし、動画撮影終了後にマーキング箇所及びその前後の動画フレームを抽出及び表示することで、ユーザが動画における静止画抽出のタイミングを選択することを可能にする旨が記載されている。

特開2016-32303号公報

 しかしながら、上述したタグの付加を行う場合、イベント情報を表すタグは標準化されておらず、撮影に用いた撮像装置を含む特定の機器でしか認識できず、またイベントフレームを再生するにあたっては全フレームのタグ情報を解析する必要があり、イベントフレームの再生までに時間を要するという課題がある。また、特許文献1に記載の技術ではマーキング情報が記録されるだけなので、マーキングしたフレームを抽出及び表示する度に動画のデコード(静止画処理)が必要であり、撮像装置への処理負荷が高い。このように、従来の技術は静止画として抽出したい動画のフレームをユーザが容易に選択できるものではなかった。

 本発明はこのような事情に鑑みてなされたもので、静止画として抽出したい動画のフレームをユーザが容易に選択することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。

 上述した目的を達成するため、本発明の第1の態様に係る撮像装置は、撮像装置であって、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、制御部と、を備え、制御部は、撮影部が撮影した動画の動画ファイルを生成し、動画ファイルから静止画を抽出可能な第1動画モードを有し、制御部は、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、制御部は第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、第2動画の第2動画ファイルを記憶部の第2フォルダに保存する。

 通常、静止画撮影においては、ユーザは所望の構図に応じてカメラ(撮像装置)を横向き(カメラ底面が地面と平行)になるように、あるいは縦向き(カメラ底面が重力方向と平行)になるように構えて撮影する。これに対し動画撮影においては、撮影中に縦と横を切り替えることは少ない。一方、静止画の抽出を行うための動画撮影においては、事後的にフレーム切り出しを行うという特性上、動画撮影中にもカメラの構え方が縦と横で変化することが想定される。この縦と横の変化は、ユーザの動作に起因する一種のイベントであると考えることができる。このような観点から、第1の態様では、重力方向に対する撮像装置の方向(撮像装置の姿勢)の変化が起きた場合に動画を分割して第1動画と第2動画を生成し、第1動画の第1動画ファイルと第2動画の第2動画ファイルをそれぞれ別フォルダ(第1フォルダ、第2フォルダ)に保存する。これにより各動画を撮影した際の撮像装置の姿勢を容易に識別でき、ユーザは静止画として抽出したいフレームを含む動画を撮像装置の姿勢を手がかりにして容易に選択することができる。また、静止画として抽出するフレームは分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。

 このように、第1の態様によれば、静止画として抽出したい動画のフレームをユーザが容易に選択することができる。さらに、第1の態様ではタグやマーキング等の情報を用いる必要がないので、第1の態様で記録された動画に基づくと、フレームの選択や静止画の抽出を、他の撮像装置や画像再生装置、画像処理装置でも行うことができる。なお、記憶部は撮像装置に備えられたものでもよいし、外部の装置でもよい。

 第2の態様に係る撮像装置は第1の態様において、制御部は、時間において、第1動画と第2動画の間にある第3動画を生成し、第3動画は、方向変化が起きている第1期間の動画を含む。第2の態様では、方向変化が起きている期間(第1期間)を第1,第2動画とは別の動画(第3動画)にして、ユーザが容易に識別できるようにしている。

 第3の態様に係る撮像装置は第1の態様において、時間において、第1動画は第2動画よりも前であり、方向検出部は、撮像装置が水平方向に沿っている第1状態、撮像装置が重力方向に沿っている第2状態、又は、撮像装置が第1状態と第2状態との間で変化している状態である第3状態のいずれかであるかを検出し、第1動画は、撮像装置が第3状態である期間の動画を含む。第3の態様において、例えば第1,第2状態の中間状態、撮像装置の方向が不定の状態、撮像装置の姿勢が第1状態と第2状態との間で変化している状態等を第3状態とすることができる。

 第4の態様に係る撮像装置は第2の態様において、制御部は、第3動画を記憶部に保存しない。第4の態様によれば、方向変化が起きている期間(第1期間)の動画を保存しないことで、記憶部の容量を節約することができる。

 第5の態様に係る撮像装置は第2の態様において、制御部は、第3動画を記憶部の第1フォルダに保存する。すなわち、第3動画は第1動画と同じフォルダに保存される。

 第6の態様に係る撮像装置は第4又は第5の態様において、第3動画は、方向変化が終了した後の第2期間の動画も含む。第6の態様は、方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、方向変化が終了した後も第2期間においては第3動画に含めている。

 第7の態様に係る撮像装置は第1又は第2の態様において、第1動画は、方向変化が終了した後の第2期間の動画も含む。第6の態様は、方向変化が終了しても構図の変化に伴い撮影条件が安定していない可能性があるため、方向変化が終了した後も第2期間においては第1動画に含めている。

 第8の態様に係る撮像装置は第6又は第7の態様において、第2期間は、撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である。第8の態様は、第2期間の内容を具体的に規定するものである。

 第9の態様に係る撮像装置は第1ないし第8の態様のいずれか1つにおいて、制御部は、第1動画ファイルと第2動画ファイルに、重力方向に対する撮像装置の方向に関する情報を付与する。例えば、ファイル名もしくはその一部、動画ファイルのヘッダやフッタ等に情報を付与することができる。

 第10の態様に係る撮像装置は第1ないし第9の態様のいずれか1つにおいて、制御部は、ユーザの指示を受け付ける受付部を有し、第2動画の終了タイミングは、受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する。第10の態様によれば、ユーザは所望のタイミングで第2動画を終了させることができる。

 第11の態様に係る撮像装置は第1ないし第10の態様のいずれか1つにおいて、制御部内にあるユーザの指示を受け付ける受付部、又は特定のイベントを検出するイベント検出部を備え、制御部は、受付部によるユーザの指示の受付中又はイベント検出部による特定のイベントの検出中に、方向検出部により方向変化を検出した場合、動画を分割しない。第11の態様によれば、ユーザの指示又は特定のイベントの発生中に撮像装置の方向変化(姿勢変化)があった場合は動画を分割しないので、ユーザの指示又はイベントに関連した一連のシーンを1つの動画で確認することができる。

 第12の態様に係る撮像装置は第1ないし第11の態様のいずれか1つにおいて、制御部は、第1動画モードと撮影条件が異なる第2動画モードを有し、制御部は、第2動画モードにおいて、方向検出部が方向変化を検出した場合、動画を分割しない。例えば、動画からの静止画の抽出を行わない通常の動画モードを第2動画モードとすることができる。

 第13の態様に係る撮像装置は第12の態様において、第1動画モードは、第2動画モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は第2動画モードに対してフレームレートが高く設定される。第13の態様は、第1動画モードと第2動画モードとの撮影条件の違いの一態様を規定するものであり、第1動画モードの撮影条件をこのように設定することで、動画から高画質な静止画を抽出することができる。

 第14の態様に係る撮像装置は第1ないし第13の態様のいずれか1つにおいて、第1動画ファイルと第2動画ファイルは、ファイル名の拡張子を除く少なくとも一部が共通している。これにより、ユーザは第1動画ファイルと第2動画ファイルとが1つの動画を分割して生成されたファイルであることを容易に識別することができる。

 上述した目的を達成するため、本発明の第15の態様に係る撮像方法は、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置の撮像方法であって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、第1動画モードにおいて方向変化が起きたと判断された場合、制御部が動画を分割して第1動画と第2動画を生成する動画生成ステップと、第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、第2動画の第2動画ファイルを記憶部の第2フォルダに保存する動画保存ステップと、を有する。第15の態様に係る撮像方法によれば、第1の態様と同様に撮影した動画からユーザが所望のフレームを容易に選択することができる。なお、第15の態様において第2の態様から第14の態様と同様の構成をさらに備えていてもよい。

 上述した目的を達成するため、本発明の第16の態様に係るプログラムは、重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置を動作させるプログラムであって、第1動画モードにおいて、方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断させ、第1動画モードにおいて方向変化が起きたと判断された場合、制御部が動画を分割して第1動画と第2動画を生成させ、第1動画の第1動画ファイルを記憶部の第1フォルダに保存させ、第2動画の第2動画ファイルを記憶部の第2フォルダに保存させる、プログラムである。第16の態様に係るプログラムによれば、第1,第15の態様と同様に、撮影した動画からユーザが所望のフレームを容易に選択することができる。なお、第16の態様において第2の態様から第14の態様と同様の構成をさらに備えていてもよい。また、これら態様のプログラムは、コンピュータ読み取り可能なコードを記録した非一時的記録媒体に記録されていてもよい。

 以上説明したように、本発明の撮像装置、撮像方法、及びプログラムによれば、撮影した動画からユーザが所望のフレームを容易に選択することができる。

図1は、第1の実施形態に係るカメラの構成を示す図である。 図2は、画像処理装置の機能構成を示す図である。 図3は、カメラの座標系を示す図である。 図4は、姿勢判定と動画分割の例を示す図である。 図5は、撮像方法の処理を示すフローチャートである。 図6は、カメラの姿勢変化と動画の分割及び保存の様子を示す図である。 図7は、フォルダ構成の例を示す図である。 図8は、フォルダ構成の例を示す他の図である。 図9は、縦動画及び横動画のアイコン表示の例を示す図である。 図10は、縦動画及び横動画にサムネイル画像を付した様子を示す図である。 図11は、撮像方法の処理を示す他のフローチャートである。 図12は、姿勢判定と動画分割の他の例を示す図である。 図13は、姿勢判定と動画分割のさらに他の例を示す図である。 図14は、姿勢判定と動画分割のさらに他の例を示す図である。 図15は、姿勢判定と動画分割のさらに他の例を示す図である。 図16は、撮像方法の処理を示すさらに他のフローチャートである。 図17は、撮像方法の処理を示すさらに他のフローチャートである。 図18は、第1モード及び第2モードにおける動画記録の処理を示すフローチャートである。 図19は、第1モード及び第2モードにおける動画記録の処理を示すフローチャート(図18の続き)である。 図20は、静止画として抽出するフレームを選択する様子を示す図である。 図21は、第2の実施形態に係るスマートフォンの外観図である。 図22は、第2の実施形態に係るスマートフォンの構成を示すブロック図である。 図23は、第2の実施形態に係るスマートフォンの姿勢を示す図である。 図24は、角度によるスマートフォンの姿勢判定の様子を示す図である。

 以下、添付図面を参照しつつ、本発明に係る撮像装置、撮像方法、及びプログラムを実施するための形態について詳細に説明する。

 <第1の実施形態>

 <撮像装置の全体構成>

 図1は第1の実施形態に係るカメラ10(撮像装置)の構成を示す図である。カメラ10は交換レンズ100(撮影部、撮像装置)及び撮像装置本体200(撮像装置)により構成され、後述するズームレンズ110を含む撮影レンズにより被写体像(光学像)を撮像素子210に結像させる。交換レンズ100と撮像装置本体200とは、図示せぬマウントを介して装着及び取り外しすることができる。

 <交換レンズの構成>

 交換レンズ100は、ズームレンズ110と、フォーカスレンズ120と、絞り130と、レンズ駆動部140とを備える。レンズ駆動部140は、画像処理装置240(図2のレンズ駆動制御部240F)からの指令に応じてズームレンズ110、フォーカスレンズ120を進退駆動してズーム(光学ズーム)調整、フォーカス調整を行う。ズーム調整及びフォーカス調整は、画像処理装置240からの指令に応じて行う他に、ユーザが行ったズーム操作、フォーカス操作(図示せぬズームリング、フォーカスリングの回動等)に応じて行ってもよい。また、レンズ駆動部140は画像処理装置240からの指令に応じて絞り130を制御し、露出を調整する。一方、ズームレンズ110及びフォーカスレンズ120の位置、絞り130の開放度等の情報が画像処理装置240に入力される。なお、交換レンズ100は光軸Lを有する。

 <撮像装置本体の構成>

 撮像装置本体200は、撮像素子210(撮影部)、AFE220(AFE:Analog FrontEnd、撮影部)、A/D変換器230(A/D:Analog to Digital、撮影部)、画像処理装置240、操作部250、記憶部260、モニタ270、及び姿勢センサ280(方向検出部)を備える。撮像装置本体200は、撮像素子210に透過させる光を遮光するためのシャッター(不図示)を有していてもよい。撮像素子210は、多数の受光素子がマトリクス状に配列された受光面を備える。そして、ズームレンズ110、フォーカスレンズ120、及び絞り130を透過した被写体光が撮像素子210の受光面上に結像され、各受光素子によって電気信号に変換される。撮像素子210の受光面上にはR(赤),G(緑),又はB(青)のカラーフィルタが設けられており、各色の信号に基づいて被写体のカラー画像を取得することができる。なお、撮像素子210としては、CMOS(Complementary Metal-Oxide Semiconductor)、CCD(Charge-Coupled Device)等の様々な光電変換素子を用いることができる。AFE220は撮像素子210から出力されるアナログ画像信号のノイズ除去、増幅等を行い、A/D変換器230は、取り込んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。

 <画像処理装置の構成>

 図2は、画像処理装置240の機能構成を示す図である。画像処理装置240は、画像取得部240A、方向検出部240B(方向検出部)、制御部240C(制御部)、イベント検出部240D(イベント検出部)、静止画抽出部240E(静止画抽出部)、及びレンズ駆動制御部240F(レンズ駆動制御部)を備える。制御部240Cはユーザの指示を受け付ける受付部を有し、この受付部は操作部250を介したユーザの指示を受け付けることができる。そして、画像処理装置240は、A/D変換器230から入力されたデジタル画像信号に基づいて動画の撮影及びファイル生成、静止画ファイル生成、動画を構成する複数のフレームに対する処理、静止画の抽出等の処理を行う。画像処理装置240による処理の詳細は後述する。

 画像処理装置240の機能は、各種のプロセッサ(processor)を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。

 上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのプロセッサ(コンピュータ)読み取り可能なコードをROM(Read Only Memory)等の非一時的記録媒体に記憶しておく。そして、プロセッサがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、本発明に係る撮像方法を実行するためのプログラム(本発明に係る、撮像装置を動作させるプログラム)を含む。ROMではなく各種光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM(Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electronically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。

 画像処理装置240は、上述の各部の他にROM242を備える。ROM242には、画像の撮影、記録、表示等に必要なプログラム(本発明に係る撮像方法を実行するためのプログラムを含む)のコンピュータ読み取り可能なコードが記録される。

 <操作部>

 操作部250は図示せぬレリーズボタン、操作用ボタン(例えば十字ボタン、Quickボタン、OKボタン等)、ダイヤル、スイッチ等を有し、ユーザは撮影モード設定、動画撮影指示、静止画抽出指示等、各種の操作を行うことができる。なお、モニタ270(タッチパネル型)を操作部250として使用してもよい。

 <記憶部>

 記憶部260(記憶部)は各種の光磁気記録媒体、半導体メモリ等の非一時的記録媒体及びその制御回路により構成され、動画、静止画、動画から抽出した静止画等を保存する。記録媒体は撮像装置本体200に対し着脱できるタイプを用いることができる。撮影した画像(動画、静止画)を例えば無線通信により外部の記録媒体(記憶部)に送信して保存してもよい。

 <モニタ及びファインダ>

 モニタ270(表示装置)はタッチパネル型の液晶表示パネルにより構成され、動画、静止画、静止画抽出用フレーム等を表示することができる。モニタ270は撮像装置本体200の背面側、天面側等に配置することができる。また、カメラ10はファインダを備えていてもよい。

 <撮影モード>

 カメラ10は撮影モードとして静止画撮影モード、静止画抽出用動画撮影モード(第1動画モード)、通常動画撮影モード(第2動画モード)のいずれかを設定することができる。静止画撮影モード、通常動画撮影モードは通常のデジタルカメラと同様のモードである。一方、静止画抽出用動画撮影モードは動画のファイルから静止画を抽出可能なモードであり、通常動画撮影モードと撮影条件が異なる動画(動画自体の鑑賞よりも静止画の抽出を重視した撮影条件の動画)を撮影する。具体的には、静止画抽出用動画撮影モードでは、通常動画撮影モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は通常動画撮影モードに対してフレームレートが高く設定される。また、解像度及びフレームレートはカメラ10で設定可能な最高値(例えば4,000×2,000画素、30フレーム/秒)に設定され、色調も静止画抽出を前提として設定される。ISO感度の上限も通常動画撮影モードより高くする。

 例えばシャッタースピードに関しては、通常動画撮影モードでは記録する動画のフレームレートに対応した値(フレームレートが30フレーム/秒の場合、1/30秒)に設定される。一方、静止画抽出用動画モードではフレーム間隔よりも高速(例えば、1/30秒未満)に設定される。通常動画撮影モードでは、滑らかな動画が再生されるようにシャッタースピードが動画のフレームレートに対応した値に設定されるが、この場合動く被写体に対してはブレが生じる可能性がある。このため、静止画抽出用動画撮影モードではシャッタースピードを通常動画撮影モードよりも高速(フレーム間隔よりも高速)に設定しており、これにより被写体のブレが少ない高画質な静止画を抽出することが可能になる。同様に、ISO感度(ISO:International Organization for Standardization)の上限を高くすることでシャッタースピードを高速化でき、これによりブレが少ない静止画を抽出することができる。また、オートフォーカスの速度,自動露出の追従速度やオートホワイトバランスの追従速度等が通常動画撮影モードよりも高速に設定される。これによって、被写体に合焦したフレーム、露出が適正なフレーム等を多く取得することができる。フレームレートについても、高レートに設定することで動画のフレーム間隔が短くなり、静止画として抽出できるフレームが増加する。

 上述した静止画抽出用動画撮影モードによれば、動画を構成するフレームを事後的に静止画として抽出することができる。よって、ユーザはいつ発生するか分からないイベント(自然現象やアクシデント、ハプニング等)の写真、時間の経過と共に状態が変化する被写体や動きのある被写体の瞬間的な状態の写真等を容易に撮影することができる。この際、詳細を後述するように、静止画の記録を指示したタイミングだけでなくその他のタイミングについても静止画を抽出できる。よって、ユーザは所望のタイミングの静止画を取得することができる。また、静止画抽出に適した撮影条件(上述したシャッタースピード、解像度、フレームレート等)を設定することにより高画質の静止画を抽出することができる。なお、このような静止画の事後的抽出に加えて、静止画抽出用動画撮影モード及び通常動画撮影モードにおいては、動画撮影中に静止画を撮影(保存)することができる。

 <カメラの姿勢>

 図3はカメラ10に対して規定される座標系の例を示す図である。図3に示す例では、X軸が光軸方向(被写体に向かう方向)、Z軸が撮像装置本体200の上方に向かう方向であり、(X軸,Y軸,Z軸)で右手系の座標系を構成する。カメラ10が縦位置(カメラ10の上面及び底面が鉛直方向と平行)であるか横位置(カメラ10の上面及び底面が地面と平行)であるかは、例えばX軸周りの角度(撮像装置本体200の上面及び底面が地面と平行の状態で0degとする)で判断することができる。図4はX軸周りの角度と姿勢(縦又は横)の関係の例を示す図である。方向検出部240B(方向検出部)は角度が(-45deg以上+45deg以下)、及び(+135deg以上+225deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定することができる。上述のようにカメラ10は姿勢センサ280(例えば、3軸方向の加速度を測定する加速度センサ;図1参照)を備えているので、方向検出部240Bは、姿勢センサ280の測定結果に基づいてカメラ10の姿勢(重力方向に対する方向)を検出することができる。

 なお、図4に示す角度の範囲は一例であり、これと異なる範囲で姿勢を判定してもよい。例えば方向検出部240Bは角度が(-30deg以上+30deg以下)、及び(+150deg以上+210deg以下)の範囲である場合に「横」と判定し、それ以外の場合に「縦」と判定してもよい。

 <静止画抽出用動画撮影モードにおける処理>

 上述した構成のカメラ10における撮像方法について説明する。図5は、静止画抽出用動画撮影モードにおける処理を示すフローチャートである。例えば操作部250の図示せぬモードダイヤルの操作によりカメラ10が静止画抽出用動画撮影モードになる。そして、制御部240Cは、撮影部(交換レンズ100、撮像素子210、AFE220、A/D変換器230)を第1動画モードに設定する。そして、図5の処理が開始され、制御部240Cは、カメラ10の状態を初期化(ライブビュー画像の取得及び表示、姿勢の初期化、姿勢判定の開始等)する(ステップS100:初期化ステップ)。

 <動画記録開始指示>

 制御部240Cは動画記録開始指示がされたか否かを判断する(ステップS110:撮影ステップ、動画生成ステップ)。例えば操作部250の図示せぬレリーズボタンが押し下げされた場合に「動画記録開始指示がされた」と判断することができる。判断が肯定されるとステップS120へ進む。

 <姿勢の判定>

 方向検出部240Bは、姿勢センサ280の出力に基づいてカメラ10(撮像装置)の姿勢(重力方向に対する方向)を検出する(ステップS120:姿勢検出ステップ、判断ステップ)。図3,4について上述したように、方向検出部240Bは、X軸周りの角度により姿勢が「縦」、「横」、「不定」のいずれであるかを判定する。姿勢が「不定」には、ユーザがカメラ10を地面や空に向けて構えている場合のように、Y軸周りの角度が大きく「縦」又は「横」を特定できない状態を含めることができる。なお、方向検出部240Bは、カメラ10の「不定」状態を検出しなくてもよい。

 <姿勢に応じたフォルダへの記録>

 ステップS120でカメラ10の姿勢が「横」又は「不定」と判断された場合、制御部240Cは撮影した動画を圧縮して新たな動画ファイルとする。そして制御部240Cは、記憶部260の横動画用フォルダ(第1フォルダ)に動画ファイルの記録(保存)を開始する(ステップS130:動画保存ステップ)。動画の圧縮は、例えばMPEG形式(MPEG2、MPEG4等)で行うことができる。一方、カメラ10の姿勢が「縦」と判断された場合、制御部240Cは横動画用フォルダとは別の縦動画用フォルダ(第2フォルダ)に動画ファイルの記録(保存)を開始する(ステップS140:動画保存ステップ)。カメラ10に設けられた図示せぬマイクロフォンにより音声を合わせて収録及び保存してもよい。なお、「横動画」、「縦動画」は、それぞれ姿勢が横又は不定の場合、縦の場合の動画であり、「横動画用フォルダ」、「縦動画用フォルダ」はそれぞれ横動画、縦動画を保存するフォルダである。

 <姿勢が不定の場合の扱い>

 なお、図5のフローチャートでは「姿勢が横から不定に変化した場合」及び「不定から横に変化した場合」は同一フォルダ及び同一ファイルでの記録を継続する。そして、「姿勢が縦から不定に変化した場合」及び「不定から縦に変化した場合」は、「姿勢が変化した」と判断して動画の分割及び別フォルダへの記録を行う態様について説明している。しかしながら姿勢が不定の場合に縦動画用フォルダに記録してもよいし、横動画用フォルダ及び縦動画用フォルダとは別のフォルダに記録してもよい(後述する他の態様を参照)。

 方向検出部240Bは動画の撮影と並行してカメラ10の姿勢検出を継続し、「カメラ10(撮像装置)の重力方向に対する方向変化が起きたか否か」を判断する(ステップS170:判断ステップ)。「方向変化が起きたか否か」は姿勢センサ280の出力(例えば、3軸方向の加速度)に基づいて判断することができる。方向検出部240Bが「方向変化が起きた」と判断した場合、具体的には「カメラ10の姿勢が「横又は不定」と「縦」との間で変化した」と判断した場合(ステップS170でYes)は、制御部240Cは記録中の動画ファイルをクローズして動画を分割する(ステップS180:動画生成ステップ)。そして、ステップS190の判断を否定してステップS120に戻る。

 戻ってきたステップS120では、制御部240Cは動画ファイルの記録開始時と同様にカメラ10の姿勢が「縦」、「横」、及び、「不定」のいずれであるかを判断する。そして、制御部240Cは、その結果に応じて、分割に係る新たな動画ファイルを記憶部260の横動画用フォルダ又は縦動画用フォルダに保存する。例えば、カメラ10の姿勢が記録開始時の「横」から「縦」に変化した場合、制御部240Cは、記録開始時は横動画用フォルダに動画ファイル(第1動画の第1動画ファイル)を保存し、姿勢変化に起因して生成された新たな動画ファイル(第2動画の第2動画ファイル)を縦動画用フォルダに保存する。なお、ステップS170において、カメラの姿勢が再度変化した場合(ステップS170でYes)に、動画はクローズしなくてもよい。カメラの姿勢変化が起きるたびに、繰り返して動画を分割すると、動画のファイル数が増えすぎてしまうからである。

 画像取得部240A、方向検出部240B、及び制御部240Cは、このようなカメラ10の姿勢に応じた動画の分割及び動画ファイルの保存を、動画撮影終了まで(ステップS190の判断がNoの間)継続して行う。方向検出部240B及び制御部240Cは、第1動画ファイル及び第2動画ファイルに対しカメラ10の姿勢(重力方向に対する方向)に関する情報を付与しておき、動画ファイルのアイコン表示や動画再生の際等に参照できるようにすることが好ましい。方向検出部240B及び制御部240Cは、カメラ10の姿勢に関する情報をヘッダやフッタに記録することができる。例えば、縦の場合は“01”、横の場合は“02”、その他(斜め、不定等)は“03”とすることができる。

 なお、図6の例のように、カメラ10が横状態から縦状態に移行し縦状態で動画の撮影を終了する場合がある。この場合、第2動画(縦動画;縦状態での動画)の終了タイミングは、制御部240C内にある受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する。この受付部は、操作部250を介したユーザの指示を受け付けることができる。同様に、縦状態から再度横状態に移行し横状態で動画の撮影を終了する場合がある。この場合、第1動画(横動画;横状態での動画)の終了タイミングは、受付部によるユーザの第1動画終了指示又は動画撮影終了指示の受付に対応する。これらの動画終了タイミングは、後述する態様においても同様である。

 図6はX軸周りの角度に基づく方向変化の判断例を示す図である。図6の例では、経過時間がゼロからt1の間は姿勢が「横」、経過時間t1の時点で角度が45deg(しきい値)を超えて「縦」と判断されており、これにより経過時間t1で動画が分割されている。制御部240Cは経過時間がゼロからt1までの第1動画の動画ファイル(第1動画ファイル)を横動画用フォルダ(第1フォルダ)に保存し、経過時間t1以降の第2動画の動画ファイル(第2動画ファイル)は縦動画用フォルダ(第2フォルダ)に保存する。なお、カメラ10の姿勢は細かく変動する可能性があるので、姿勢が変化した状態が決められた時間以上継続した時点で「姿勢が変化した」と判断してもよい。なお、図6ではカメラ10の姿勢が横から縦に変化する例を示しているが、縦から横に変化する場合も同様に処理することができる(この場合、縦動画が第1動画、横動画が第2動画となる。また、縦動画用フォルダが第1フォルダ、横動画用フォルダが第2フォルダとなる;他の態様についても同様である)。

 制御部240Cは、カメラ10の姿勢が変化した場合(ステップS170でYes)の他、ステップS150で「動画記録終了指示(動画撮影終了指示)があった」と判断した場合、及びステップS160で「記録メディアの残容量が十分でない」と判断した場合にも動画ファイルをクローズする(ステップS180)。しかし、これらの場合は動画の撮影も終了させる(ステップS190でYes)。ステップS150では、制御部240Cは操作部250の図示せぬレリーズボタンが押し下げされた場合、モニタ270を介した終了指示がされた場合等に「動画記録終了指示がされた」と判断することができる。

 第1の実施形態では、このように「静止画抽出用動画撮影モード(第1動画モード)においてカメラ10(撮像装置)の重力方向に対する方向(姿勢)が変化した」と判断された場合は、動画を分割して横動画(第1動画)と縦動画(第2動画)を生成する。そして、横動画の動画ファイル(第1動画ファイル)を横動画用フォルダ(第1フォルダ)に保存し、縦動画の動画ファイル(第2動画ファイル)を縦動画用フォルダ(第2フォルダ)に保存する。

 これによりユーザは各動画を撮影した際のカメラ10の姿勢を容易に識別でき、静止画として抽出したいフレームを含む動画をカメラ10の姿勢を手がかりにして容易に選択することができる。また、ユーザは静止画として抽出するフレームを分割され記録時間が短くなった動画の中で探せばよいので、所望のフレームを迅速に探すことができる。このように、第1の実施形態によれば、撮影した動画からユーザが所望のフレームを容易に選択することができる。

 <フォルダ構成の例>

 図7は動画を保存するフォルダ構成の例を示す図である。同図の例では、撮影日ごとにフォルダが生成され、撮影日ごとのフォルダ内には撮影番号ごとにフォルダが生成されている。例えば、図5のフローチャートにおいて、ステップS110で動画記録開始が指示されてからステップS190で動画撮影を終了するまでを1つの撮影番号とすることができる。各撮影番号のフォルダに対し、横動画用フォルダと縦動画用フォルダが設けられており、それぞれ横動画、縦動画が保存される。このようなフォルダ構成は、制御部240Cによりモニタ270に表示することができる。

 図8は、横動画用フォルダ(第1フォルダ)と縦動画用フォルダ(第2フォルダ)をそれぞれ横向き、縦向きのアイコンでモニタ270に表示した様子を示している。このようなフォルダ表示の態様によれば、ユーザは縦動画用フォルダと縦動画用フォルダを視覚により容易に把握でき、所望のフレームを容易に選択することができる。

 <動画ファイルのアイコン表示及びファイル名>

 図9は動画ファイルのアイコン表示の例を示す図である。同図の(a)部分は、横動画の動画ファイルについて横型アイコンに「横動画」の文字を付して表示した様子を示している。アイコン中の記号はファイルの指定により再生可能であることを示す。同様に、図9の(b)部分は縦動画の動画ファイルについてのアイコン表示の例を示しており、縦型アイコンに「縦動画」の文字を付して表示している。図9の例において、ファイル名はファイル作成日(2018年10月23日)、撮影番号(001)、縦横識別情報(横動画はH(Horizontal)、縦動画はV(Vertical))、ファイル番号(001,002,・・・)、ファイルサイズ(10MB等)、拡張子(ここでは“.mpg”)から構成されている。そして、横動画の動画ファイル(第1動画ファイル)と縦動画の動画ファイル(第2動画ファイル)はファイル名の拡張子を除く一部が共通している。なお、縦横識別情報はカメラ10(撮像装置)の重力方向に対する方向に関する情報の一例である。

 ファイル名はファイルの種類を示す情報、ファイル作成日時、及び縦横識別情報を含んでいてもよい。例えば、2018/1/1 12:30に作成した横動画のファイルに対し“IMG201801011230_H.MOV”というファイル名を付与し、2018/1/1 12:40にファイル名を作成した縦動画のファイルに対し“IMG201801011240_H.MOV”というファイル名を付与することができる。ファイル名中、“IMG”は画像ファイルであることを示す情報の一例である。この場合においても、ファイル名はファイルサイズを示す情報を含んでいてもよい。

 図10はアイコンにサムネイル画像を表示した様子を示す図である。同図の(a)部分は横動画の場合の例であり、(b)部分は縦動画の場合の例である。表示する画像は横動画又は縦動画の最初のフレームでもよいし、途中のフレーム(例えば、イベントが発生したフレーム等)でもよい。

 以上に例示した動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与により、ユーザは縦動画と横動画とを容易に識別でき、所望のフレームを含む動画を容易に選択することができる。なお、動画ファイルのアイコン表示、サムネイル表示、ファイル名の付与は制御部240Cが行うことができる。

 <動画の分割及び記録の他の態様>

 動画の分割及び記録(保存)の他の態様について説明する。なお、以下で説明するフローチャートのうち図5と同じ処理には同じステップ番号を付し、詳細な説明を省略する。

 (態様1:姿勢変化中の期間を独立した動画ファイルとする態様)

 図5について説明した態様ではカメラ10の姿勢(X軸周りの角度)がしきい値を超えたら「方向変化が起きた」と判断している。しかし、図11に示す態様1では姿勢変化中の動画は横動画及び縦動画とは別の動画ファイルとして別のフォルダに保存する。図11は態様1での処理を示すフローチャートであり、方向検出部240Bは、カメラ10の姿勢(重力方向に対する方向)が「横」、「縦」、「変化中」のいずれであるかを判断する(ステップS122:姿勢検出ステップ)。

 制御部240Cは、姿勢が「横」である場合は横動画(第1動画)として横動画用フォルダ(第1フォルダ)に動画ファイル(第1動画ファイル)の記録(保存)を開始する(ステップS130)。制御部240Cは、「縦」である場合は縦動画(第2動画)として縦動画用フォルダ(第2フォルダ)に記録を開始する(ステップS140)。「変化中」である場合は変化中動画(第3動画)として変化中動画用フォルダ(第3フォルダ)に記録を開始する(ステップS124)。態様1においては、各撮影番号のフォルダの下位の階層に、横動画用フォルダ及び縦動画用フォルダに加えて、変化中動画用フォルダを作成することができる。

 態様1では、方向検出部240Bが「カメラ10の姿勢変化が開始又は完了した」と判断した場合(ステップS172(判断ステップ)でYes)に動画を分割(動画ファイルのクローズ、新たな動画ファイルの生成)する。この際、カメラ10の姿勢は手振れその他により細かく変動する場合があるので、方向検出部240BはX軸周りの角度が一定時間に決められた値以上変化したら「姿勢変化が開始した」と判断する。同様に、方向検出部240Bは、角度の変動が決められた範囲内に収まる時間が一定時間以上継続したら「姿勢変化が完了した」と判断することが好ましい。例えば、図12に示す例では、経過時間t1とt2の間で角度が大きく変化しており、経過時間t3とt4の間で角度が安定している。

 よって、方向検出部240Bは経過時間t2からt4まで「姿勢が変化中である」と判断し、経過時間t4において「姿勢変化が完了した」と判断する(カメラ10の実際の姿勢と姿勢の判定結果が変化するまでの時間ズレを考慮している)。この判断に対応して、制御部240Cは経過時間t2からt4までの間、時間において横動画(第1動画;経過時間ゼロからt2まで)と縦動画(第2動画;経過時間t4以降)の間にある変化中動画(第3動画)を生成する。図12に示すように、変化中動画(第3動画)は、カメラ10の姿勢が変化中である(方向変化が起きている)第1期間の動画を含む。

 (態様2:姿勢変化中は前の期間の動画ファイルに継続して記録する態様)

 上述した態様1では姿勢変化中(第1期間)は独立した動画(第3動画)として記録している。しかし、態様2では、姿勢変化中は変化開始前の期間についての動画ファイルに継続して記録する。具体的には、図13に示すように、態様2では方向検出部240Bはカメラ10(撮像装置)が第1状態(カメラ10の底面が水平方向に沿っている状態;横状態)、第2状態(カメラ10の底面が重力方向に沿っている状態;縦状態)、又は第3状態(第1状態と第2状態との間で変化している状態)のいずれであるかを検出する。そして、制御部240Cはカメラ10が第3状態(姿勢が変化中)である期間の動画を第1動画に含めて第1フォルダ(横動画用フォルダ)に記録する。

 (態様3:姿勢変化終了後の期間の一部を変化中の期間の動画ファイルに継続して記録する態様)

 カメラ10の姿勢が変化した状況では、モニタ270の画面における構図が大きく変化している場合がある。その場合、カメラ10(撮像装置)が動画の露出(AE:AutoExposure)、動画のホワイトバランス(AWB:Auto White Balance)、又は動画中の被写体のフォーカス(AF:Auto Focus)等を調整する期間が必要になる可能性がある。そこで態様3では、姿勢変化終了後の決められた期間(第2期間)は、カメラ10の姿勢が安定していても姿勢が変化中である場合と同様に扱う。具体的には、例えば図14に示すように、方向検出部240Bは経過時間t2からt4までの期間(第1期間)に加えて経過時間t4からt5までの期間(第2期間)についても「カメラ10の姿勢が変化している」として扱う。

 そして、これら第1期間及び第2期間については第3動画として記録(保存)する。すなわち、第3動画は方向変化が終了した後の第2期間の動画も含む。なお、制御部240Cは動画を分割して第3動画を横動画(第1動画)及び縦動画(第2動画)とは別の動画ファイル(第3動画ファイル)とし、横動画用フォルダ(第1フォルダ)に記録することができる。しかし、第3動画は独立した変化中動画用フォルダ(第3フォルダ)に記録してもよい。姿勢変化中や撮影条件が不安定な期間の画像は重要性が低い場合があるが、態様3ではそのような期間は横動画及び縦動画とは別の動画として保存するので、静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。

 (態様4:姿勢変化終了後の期間の一部までを当初の動画ファイルに継続して記録する態様)

 上述した態様3では、カメラ10の姿勢変化中(第1期間)及び姿勢変化が終了してから決められた期間(第2期間)については「第3動画」としている。しかし、態様4では、図15に示すように第1期間(経過時間t2からt4まで)及び第2期間(経過時間t4からt5まで)については「第1動画」として横動画用フォルダ(第1フォルダ)に記録する。

 (態様5:姿勢変化中は動画を記録しない態様)

 上述した態様1から態様4では姿勢変化中の期間(及びその後姿勢が安定するまでの期間)について動画を記録しているが、姿勢変化中は動画を記録しない態様も採用することができる。具体的には、図16のフローチャートに示すように、方向検出部240Bが「カメラ10の姿勢が横(第1状態)、縦(第2状態)、又は変化中(第3状態)のいずれであるか」を検出する(ステップS122)。そして、姿勢が変化中の場合は動画ファイルの記録を開始しない(ステップS122に戻る)。

 また、カメラ10の姿勢が横又は縦であり動画の記録を開始(ステップS130、ステップS140)した後にカメラ10の姿勢変化が開始すると(ステップS174(判断ステップ)でYes)、制御部240CはステップS180で動画ファイルをクローズしてステップS122に戻る。そして、カメラ10は、カメラ10の姿勢が横又は縦となってから動画の記録を再開する(ステップS130、ステップS140)。クローズされた動画ファイルは対応するフォルダに保存される。姿勢変化中の画像は重要性が低い場合があるが、態様5ではそのような期間は動画を保存しないので記録メディアの残容量を節約することができる。またユーザは静止画として抽出したいフレームの選択や動画ファイル、フォルダの整理を容易に行うことができる。

 (態様6:姿勢変化があった場合でもイベント発生の直後は動画を分割しない態様)

 図17のフローチャートに示す態様6は、カメラ10の姿勢変化が開始もしくは完了した(ステップS172(判断ステップ)でYes)場合についての他の態様である。この態様では、カメラ10の姿勢変化開始もしくは完了したタイミングから決められた時間(ステップS176では“T秒前”と記載)前までの間に特定のイベントが発生していた場合、制御部240Cは動画ファイルをクローズしない(ステップS176でYesとなりステップS180に進まない)。したがってこの場合、動画の分割を行わない。また、一定時間前までに特定イベントが発生していた場合だけではなく、特定のイベントの検出中(イベントが継続中)である場合、及び受付部によるユーザの指示の受付中である場合(ユーザの指示、又はユーザの指示に基づく処理が継続中である場合を含む)も同様である。

 制御部240Cは、操作部250を介したユーザの操作に応じて、あるいはユーザの操作によらずにTの値(例えば30秒とすることができるが、他の値でもよい)を設定することができる。特定のイベントが発生したかどうかは、イベント検出部240D(図2を参照)が周知の画像処理によって被写体の動き量、大きさや形の変化、明るさの変化等を自動的に検出して判断してもよい。また、特定のイベントが発生したかどうかは、操作部250又は受付部(モニタ270をタッチパネルとして使用する場合を含む)を介したユーザの指示により判断してもよい。例えば、制御部240Cは、受付部がユーザによる動画撮影中に静止画の撮影指示を受け付けた場合に「(特定の)イベントが発生した」と判断してもよい。イベント検出部240D及び制御部240Cは、イベントを検出した場合、イベント検出タイミングを示す情報を動画ファイルに付与する(例えば、ヘッダやフッタに記録する)ことが好ましい。この情報を参照することで、ユーザは静止画として抽出したいフレームを容易に選択することができる(後述)。

 上述のように、カメラ10の姿勢変化があった場合でも姿勢変化前にイベントが発生していた場合は動画を分割しないことで、ユーザはイベントに関連した一連の流れを1つの動画で確認することができ、撮影した動画から所望のフレームを容易に選択することができる。なお、図17のフローチャートは図11(姿勢変化中の動画は横動画及び縦動画とは別動画とし、別フォルダに保存する態様)をベースとしているが、図5、15のフローチャートをベースとしてもよい。

 なお、カメラ10において、上述した態様1から態様6を含めたいずれの態様で動画の分割及び記録(保存)を行うかを、操作部250を介したユーザの操作に応じて決定してもよい。

 <第1モード及び第2モードを考慮した場合の処理>

 図5,11,16,17に示すフローチャートでは第1動画モードにおける処理について説明したが、第1動画モード及び第2動画モードを考慮した場合の処理について、図18,19を参照しつつ説明する。なお、図5,11,16,17と同様の処理については同一のステップ番号を付し、詳細な説明を省略する。

 制御部240Cは、カメラ10が第1動画モード(静止画抽出用動画モード)か第2動画モード(通常の動画モード)かを判断する(ステップS112)。第1動画モードの場合、制御部240Cは、第1動画モードに適した撮影条件を設定する(ステップS114)。ステップS114で設定する撮影条件は、「撮影モード」の項で上述したように、動画自体の鑑賞よりも静止画の抽出を重視した撮影条件である。第1動画モードにおけるステップS114以降の処理は図5のフローチャートと同様であるので、詳細な説明を省略する。

 一方、ステップS112での判断の結果が第2動画モードであった場合、制御部240Cは、第2動画モードに適した撮影条件を設定する(図19のステップS191)。方向検出部240Bはカメラ10の姿勢を判定し(ステップS192)、制御部240Cは、記憶部260の第2動画用フォルダに動画ファイルの記録(保存)を開始する(ステップS193:動画保存ステップ)。ステップS194,S195の処理は第1動画モードについてのステップS150,S160の処理と同様である。動画記録終了指示があった場合(ステップS194でYes)及び記録メディア残容量が十分でない場合(ステップS195でNo)は、制御部240Cは動画ファイルをクローズして(ステップS197)、図18のステップS190(動画撮影終了か否かの判定)へ戻る。

 動画記録終了指示がなく(ステップS194でNo)、記録メディア残容量が十分である(ステップS195でYes)場合、制御部240Cは動画の記録を継続する。しかし、第2動画モードにおいては、第1動画モードの場合と異なり、方向検出部240Bがカメラ10の姿勢の変化(方向変化)を検出しない場合(ステップS196でNo)も、検出した場合(ステップS196でYes)も動画を分割しない。第2動画モードにおいてカメラ10の姿勢が変化しても動画を分割しないのは、第2動画モードは静止画の抽出を目的とした動画を撮影するモードではなく、第1動画モードのように動画を分割して特定のシーンを探しやすくしなくてもよいからである。

 <フォルダ構成の例>

 第1,第2動画モードを考慮する場合、制御部240Cは、記憶部260(記憶部)の撮影日ごとのフォルダ内に第1動画モードのフォルダと第2モードのフォルダを生成することができる。この場合、制御部240Cは、第1動画モードのフォルダ内に撮影番号ごとのフォルダを生成し、各撮影番号のフォルダ内に横動画用フォルダ(第1フォルダの例)と縦動画用フォルダ(第2フォルダの例)を設けて、それぞれ横動画(第1動画の例)、縦動画(第2動画の例)を保存する。一方、第2動画モードのフォルダについては、制御部240Cは、撮影日ごとのフォルダに、その撮影日に撮影された動画のファイルを記録する。また、制御部240Cは、撮影日のフォルダの下位に第1,第2動画モードのフォルダを設けるのではなく、第1,第2動画モードのフォルダを上位とし、その下位に撮影日のフォルダを設けてもよい。このようなフォルダ構成は、図7の場合と同様に、制御部240Cによりモニタ270に表示することができる。

 <静止画の抽出>

 以下の例で説明するように、カメラ10では動画を構成するフレームを静止画として抽出することができる。なお、カメラ10で記録した動画ファイルを用いて、パーソナルコンピュータ等の他の装置で静止画の抽出を行ってもよい。

 (例1)

 制御部240Cは横動画、縦動画、又は変化中動画(第1動画、第2動画、第3動画)の動画ファイルのうち、ユーザが選択したファイルをモニタ270に再生表示させる。連続的な再生ではなくコマ送りで再生(ユーザの操作に応じて1フレームずつ表示)してもよい。制御部240Cはユーザの操作により再生を停止し、停止した時点で表示されているフレームの選択をユーザの操作に応じて確定することで、静止画抽出部240Eがそのフレームを静止画として抽出する。

 (例2)

 動画ファイルにイベントの検出を示す情報が付与されている場合、制御部240Cは、その情報を参照してイベントが検出されたフレームを含む複数のフレームをモニタ270(図1参照)に表示してもよい。図20はそのような表示の例であり、フレーム1052を含む5つのフレーム1051~1055が表示されている。また、静止画が記録されたフレーム1052(静止画の記録はイベント発生の一例である)については、静止画抽出部240Eによりカメラ状のアイコン1060が付されている。これによって、ユーザは静止画が記録されたフレームであることを把握することができる。

 なお、表示する静止画抽出用フレームの範囲は、「記録した静止画ファイルに対応するフレーム」(図20の例ではフレーム1052)に対し時間的に前のフレーム(フレーム1051)及び後のフレーム(フレーム1053~1055)を含めてもよい。また、表示する静止画抽出用フレームの範囲は、「時間的に前のフレームだけを含める」態様あるいは「時間的に後のフレームだけを含める」態様でもよい。表示する静止画抽出用フレームの範囲はユーザの指定に応じて設定してもよいし、ユーザの指定によらずに設定してもよい。また、表示するフレームの範囲を時間で規定(例えば、静止画が記録されたフレームの前後1秒ずつ)してもよいし、フレーム数で規定(例えば、静止画が記録されたフレームの前後の10フレームずつ)してもよい。また、初期状態では静止画として記録されたフレームのみを一覧表示し、その中から選択されたフレームについて時間的に前及び/又は後ろのフレームを表示してもよい。

 <抽出するフレームの選択>

 ユーザは、表示された静止画抽出用フレームからフレームを選択することができる。図20の例では、ユーザは操作部250及び/又はモニタ270を介して所望のフレームに対するチェックボックス1070をチェックすることによりフレームを選択することができ、複数のフレームを選択することもできる。なお、ユーザによって指定された静止画が記録されたフレームが、必ずしもベストのタイミングで記録されたとは限らない。他の関連フレームを合わせて表示することで、ユーザが他のフレームを選択したいと思う場合もある。よって、静止画が記録されたフレームに加えてその前及び/又は後ろのフレームから選択できるように、モニタ270に表示することが好ましい。図20では、静止画が記録されたフレーム(アイコン1060が付されたフレーム1052)と異なるフレーム1053をユーザが選択した状態を示している。

 静止画抽出部240Eは、選択されたフレームを静止画として抽出する(静止画抽出ステップ)。なお、動画ファイルはMPEG形式等の動画用フォーマットで記憶されているので、静止画抽出部240Eは選択されたフレームのデータを静止画用のフォーマット(JPEG形式等)に変換する。ユーザは、動画(第1動画、第2動画、第3動画)から所望のタイミングにおける静止画を抽出することができる。

 <第2の実施形態>

 第1の実施形態では、デジタルカメラであるカメラ10について説明したが、撮像装置の構成はこれに限定されない。本発明のその他の撮像装置としては、例えば、内蔵型又は外付け型のPC用カメラ(PC:Personal Computer)、あるいは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。

 本発明の撮像装置の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。

 図21は本発明の撮像装置の一実施形態であるスマートフォン1(撮像装置)の外観を示す図であり、同図の(a)部分は正面図、(b)部分は背面図である。図21に示すスマートフォン1は平板状の筐体2を有し、筐体2の一方の面に表示部としての表示パネル21(表示装置)と、入力部としての操作パネル22(操作部)とが一体となった表示入力部20を備えている。また、筐体2は、スピーカ31と、マイクロフォン32、操作部40(操作部)と、カメラ部41,42(撮像装置、撮影部、イベント検出部、制御部、静止画抽出部、レンズ駆動制御部)、ストロボ43とを備えている。なお、筐体2の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用してもよいし、折り畳み構造やスライド機構を有する構成を採用してもよい。

 図22は、図21に示すスマートフォン1の構成を示すブロック図である。図22に示すように、スマートフォン1の主たる構成要素として、無線通信部11と、表示入力部20と、通話部30と、操作部40と、カメラ部41,42と、ストロボ43と、記憶部50と、外部入出力部60と、GPS受信部70(GPS:Global Positioning System)と、モーションセンサ部80と、電源部90と、主制御部101(撮影部、動画ファイル生成部、静止画ファイル生成部、イベント検出部、表示制御部、静止画抽出部、レンズ駆動制御部)とを備える。また、スマートフォン1の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。

 無線通信部11は、主制御部101の指示にしたがって、移動通信網に収容された基地局装置に対し無線通信を行う。斯かる無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。

 表示入力部20は、主制御部101の制御により、画像(静止画像及び/又は動画像)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル21と、操作パネル22とを備える。

 表示パネル21においては、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などが表示デバイスとして用いられる。操作パネル22は、表示パネル21の表示面上に表示される画像を視認可能に載置され、ユーザの指やペン等の導体によって操作される1又は複数の座標を検出するデバイスである。斯かるデバイスをユーザの指やペン等の導体によって操作すると、操作パネル22は、操作に起因して発生する検出信号を主制御部101に出力する。次いで、主制御部101は、受信した検出信号に基づいて、表示パネル21上の操作位置(座標)を検出する。

 図21に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン1の表示パネル21と操作パネル22とは一体となって表示入力部20を構成しているが、操作パネル22が表示パネル21を完全に覆う配置となっている。斯かる配置を採用した場合、操作パネル22は、表示パネル21外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル22は、表示パネル21に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル21に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

 通話部30は、スピーカ31やマイクロフォン32を備え、マイクロフォン32を通じて入力されたユーザの音声を主制御部101にて処理可能な音声データに変換して主制御部101に出力すること、無線通信部11あるいは外部入出力部60により受信された音声データを復号してスピーカ31から出力することができる。また、図21に示すように、例えばスピーカ31を表示入力部20が設けられた面と同じ面に搭載し、マイクロフォン32を筐体2の側面に搭載することができる。

 操作部40は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるデバイスである。例えば図21に示すように、操作部40は、スマートフォン1の筐体2の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

 記憶部50は、主制御部101の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部50は、スマートフォン内蔵の内部記憶部51と着脱自在な外部メモリスロットを有する外部記憶部52により構成される。なお、記憶部50を構成するそれぞれの内部記憶部51と外部記憶部52は、公知の格納媒体を用いて実現される。

 外部入出力部60は、スマートフォン1に連結される全ての外部機器とのインターフェースの役割を果たす。スマートフォン1は、外部入出力部60を介して他の外部機器に通信等により直接的又は間接的に接続される。通信等の手段としては、例えば、ユニバーサルシリアルバス(USB:Universal Serial Bus)、IEEE1394、ネットワーク(例えば、インターネット、無線LAN)を挙げることができる。この他、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wide Band)(登録商標)、ジグビー(ZigBee)(登録商標)なども通信等の手段として挙げることができる。

 スマートフォン1に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カードが挙げられる。また、オーディオ及びビデオI/O(Input/Output)端子を介して接続される外部オーディオ及びビデオ機器、無線接続される外部オーディオ及びビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるPDA、有線/無線接続されるパーソナルコンピュータ、イヤホンなどの外部機器も連結することができる。外部入出力部60は、このような外部機器から伝送を受けたデータをスマートフォン1の内部の各構成要素に伝達することや、スマートフォン1の内部のデータを外部機器に伝送することができる。

 モーションセンサ部80は、例えば、3軸の加速度センサや傾斜センサなどを備え、主制御部101の指示にしたがって、スマートフォン1の物理的な動きを検出する。スマートフォン1の物理的な動きを検出することにより、スマートフォン1の動く方向や加速度、姿勢が検出される。斯かる検出結果は、主制御部101に出力されるものである。電源部90は、主制御部101の指示にしたがって、スマートフォン1の各部に、バッテリ(不図示)に蓄えられる電力を供給する。

 主制御部101は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、カメラ部41を含むスマートフォン1の各部を統括して制御する。また、主制御部101は、無線通信部11を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。

 また、主制御部101は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部20に表示する等の画像処理機能を備える。画像処理機能とは、主制御部101が、画像データを復号し、斯かる復号結果に画像処理を施して、画像を表示入力部20に表示する機能のことをいう。

 カメラ部41,42は、CMOSやCCDなどの撮像素子を用いて電子撮影するデジタルカメラ(撮像装置)である。また、カメラ部41,42は、主制御部101の制御により、撮像によって得た画像データ(動画、静止画)を例えばMPEGやJPEGなどの圧縮した画像データに変換し、記憶部50に記録することや、外部入出力部60や無線通信部11を通じて出力することができる。また、カメラ部41は、主制御部101の制御により、動画の分割及び結合、高画質な静止画(RAW画像等)の取得、フレームの入れ替え及び加工、動画からの静止画の抽出を行うこともできる。図21,22に示すスマートフォン1において、カメラ部41,42の一方を用いて撮影することもできるし、カメラ部41,42を同時に使用して撮影することもできる。カメラ部42を用いる場合はストロボ43を使用することができる。

 また、カメラ部41,42はスマートフォン1の各種機能に利用することができる。例えば、スマートフォン1は、表示パネル21にカメラ部41,42で取得した画像を表示できる。また、スマートフォン1は、操作パネル22の操作入力のひとつとして、カメラ部41,42の画像を利用することができる。また、スマートフォン1は、GPS受信部70が位置を検出する際に、カメラ部41,42からの画像を参照して位置を検出することもできる。さらには、スマートフォン1は、カメラ部41,42からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン1のカメラ部41の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、スマートフォン1は、カメラ部41,42からの画像をアプリケーションソフトウェア内で利用することもできる。その他、スマートフォン1は、静止画又は動画の画像データにGPS受信部70により取得した位置情報、マイクロフォン32により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部80により取得した姿勢情報等を付加して記憶部50に記録することもできる。また、スマートフォン1は、これらの静止画又は動画の画像データを外部入出力部60や無線通信部11を通じて出力することもできる。

 <スマートフォンの姿勢>

 図23の(a)部分はスマートフォン1に対して規定される座標系の例を示す図であり、この例ではX軸周りの角度で姿勢を決める。(a)部分は角度0degの縦状態(スマートフォン1(撮像装置)が重力方向に沿っている第2状態)を示し、同図の(b)部分は角度90degの横状態(スマートフォン1(撮像装置)が水平方向に沿っている第1状態)を示す。また、図24はX軸周りの角度とスマートフォン1の姿勢(縦又は横)との関係の例を示す図である。なお、第1の実施形態に係るカメラ10の場合(図4を参照)と同様に、横状態(図23の(b)部分に示す状態)を基準(角度0deg)として姿勢及び状態(第1状態、第2状態、第3状態)を規定してもよい。

 上述した構成のスマートフォン1においても、第1の実施形態に係るカメラ10と同様に本発明に係る撮像方法の処理(動画の撮影、分割、及び記録、静止画の記録、静止画抽出等)を実行することができる。具体的には、第1の実施形態(態様1から態様6の処理を含む)において画像処理装置240(図2に示す各部)が実行する処理をスマートフォン1ではカメラ部41,42及び主制御部101が実行できる。その他、第1の実施形態における操作部250、記憶部260、モニタ270の機能は、スマートフォン1において操作部40、記憶部50及び操作パネル22、表示パネル21及び操作パネル22によりそれぞれ実現することができる。

 これにより、第2の実施形態に係るスマートフォン1においても、第1の実施形態に係るカメラ10と同様の効果(静止画として抽出したいフレームの選択や、動画ファイル、フォルダの整理を容易に行うことができること等)を得ることができる。

 以上で本発明の実施形態及び他の態様に関して説明してきたが、本発明は上述した実施形態及び態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。

1    スマートフォン

2    筐体

10   カメラ

11   無線通信部

20   表示入力部

21   表示パネル

22   操作パネル

30   通話部

31   スピーカ

32   マイクロフォン

40   操作部

41   カメラ部

42   カメラ部

43   ストロボ

50   記憶部

51   内部記憶部

52   外部記憶部

60   外部入出力部

70   GPS受信部

80   モーションセンサ部

90   電源部

100  交換レンズ

101  主制御部

110  ズームレンズ

120  フォーカスレンズ

130  絞り

140  レンズ駆動部

200  撮像装置本体

210  撮像素子

220  AFE

230  A/D変換器

240  画像処理装置

240A 画像取得部

240B 方向検出部

240C 制御部

240D イベント検出部

240E 静止画抽出部

240F レンズ駆動制御部

242  ROM

250  操作部

260  記憶部

270  モニタ

280  姿勢センサ

1051 フレーム

1052 フレーム

1053 フレーム

1054 フレーム

1055 フレーム

1060 アイコン

1070 チェックボックス

L    光軸

S100~S197 撮像方法の各ステップ

ST1 GPS衛星

STn GPS衛星

Claims (16)


  1.  撮像装置であって、

     重力方向に対する前記撮像装置の方向を検出する方向検出部と、

     動画を撮影する撮影部と、

     制御部と、

     を備え、

     前記制御部は、前記撮影部が撮影した動画の動画ファイルを生成し、前記動画ファイルから静止画を抽出可能な第1動画モードを有し、

     前記制御部は、前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたと判断した場合、動画を分割して第1動画と第2動画を生成し、

     前記制御部は、前記第1動画の第1動画ファイルを、記憶部の第1フォルダに保存し、

    前記第2動画の第2動画ファイルを前記記憶部の第2フォルダに保存する、撮像装置。

  2.  前記制御部は、時間において、前記第1動画と前記第2動画の間にある第3動画を生成し、

     前記第3動画は、前記方向変化が起きている第1期間の動画を含む、請求項1に記載の撮像装置。

  3.  時間において、前記第1動画は前記第2動画よりも前であり、

     前記方向検出部は、前記撮像装置が水平方向に沿っている第1状態、前記撮像装置が重力方向に沿っている第2状態、又は、前記撮像装置が前記第1状態と前記第2状態との間で変化している状態である第3状態のいずれかであるかを検出し、

     前記第1動画は、前記撮像装置が前記第3状態である期間の動画を含む、請求項1に記載の撮像装置。

  4.  前記制御部は、前記第3動画を前記記憶部に保存しない、請求項2に記載の撮像装置。

  5.  前記制御部は、前記第3動画を前記記憶部の前記第1フォルダに保存する、請求項2に記載の撮像装置。

  6.  前記第3動画は、前記方向変化が終了した後の第2期間の動画も含む、請求項2、4又は5のいずれか1項に記載の撮像装置。

  7.  前記第1動画は、前記方向変化が終了した後の第2期間の動画も含む、請求項1又は2に記載の撮像装置。

  8.  前記第2期間は、前記撮像装置が、動画の露出、動画のホワイトバランス、又は、動画中の被写体のフォーカスを調整している期間である、請求項6又は7に記載の撮像装置。

  9.  前記制御部は、前記第1動画ファイルと前記第2動画ファイルに、重力方向に対する前記撮像装置の方向に関する情報を付与する、請求項1ないし8のいずれか1項に記載の撮像装置。

  10.  前記制御部は、ユーザの指示を受け付ける受付部を有し、

     前記第2動画の終了タイミングは、前記受付部によるユーザの第2動画終了指示又は動画撮影終了指示の受付に対応する、請求項1ないし9のいずれか1項に記載の撮像装置。

  11.  前記制御部内にあるユーザの指示を受け付ける受付部、又は特定のイベントを検出するイベント検出部を備え、

     前記制御部は、前記受付部によるユーザの指示の受付中又は前記イベント検出部による特定のイベントの検出中に、前記方向検出部により前記方向変化を検出した場合、前記動画を分割しない、請求項10に記載の撮像装置。

  12.  前記制御部は、前記第1動画モードと撮影条件が異なる第2動画モードを有し、

     前記制御部は、前記第2動画モードにおいて、前記方向検出部が前記方向変化を検出した場合、動画を分割しない、請求項1ないし11のいずれか1項に記載の撮像装置。

  13.  前記第1動画モードは、前記第2動画モードに対してシャッタースピード、オートフォーカスの速度、自動露出の追従速度、ホワイトバランスの追従速度のうち少なくとも1つが高速に設定され、かつ/又は前記第2動画モードに対してフレームレートが高く設定される請求項12に記載の撮像装置。

  14.  前記第1動画ファイルと前記第2動画ファイルは、ファイル名の拡張子を除く少なくとも一部が共通している、請求項1ないし13のいずれか1項に記載の撮像装置。

  15.  重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置の撮像方法であって、

     前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断する判断ステップと、

     前記第1動画モードにおいて前記方向変化が起きたと判断された場合、前記制御部が動画を分割して第1動画と第2動画を生成する動画生成ステップと、

     前記制御部が前記第1動画の第1動画ファイルを記憶部の第1フォルダに保存し、前記第2動画の第2動画ファイルを前記記憶部の第2フォルダに保存する動画保存ステップと、

     を有する撮像方法。

  16.  重力方向に対する撮像装置の方向を検出する方向検出部と、動画を撮影する撮影部と、前記撮影部が撮影した動画のファイルから静止画を抽出可能な第1動画モードを有する制御部と、を備える撮像装置を動作させるプログラムであって、

     前記第1動画モードにおいて、前記方向検出部が撮像装置の重力方向に対する方向変化が起きたか否か判断させ、

     前記第1動画モードにおいて前記方向変化が起きたと判断された場合、前記制御部が動画を分割して第1動画と第2動画を生成させ、

     前記第1動画の第1動画ファイルを記憶部の第1フォルダに保存させ、前記第2動画の第2動画ファイルを前記記憶部の第2フォルダに保存させる、プログラム。
PCT/JP2019/044383 2018-11-28 2019-11-12 撮像装置、撮像方法、及びプログラム WO2020110710A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020558308A JP7191980B2 (ja) 2018-11-28 2019-11-12 撮像装置、撮像方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018222661 2018-11-28
JP2018-222661 2018-11-28

Publications (1)

Publication Number Publication Date
WO2020110710A1 true WO2020110710A1 (ja) 2020-06-04

Family

ID=70853147

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044383 WO2020110710A1 (ja) 2018-11-28 2019-11-12 撮像装置、撮像方法、及びプログラム

Country Status (2)

Country Link
JP (2) JP7191980B2 (ja)
WO (1) WO2020110710A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328279A (ja) * 2004-05-13 2005-11-24 Canon Inc 記録装置
JP2006093956A (ja) * 2004-09-22 2006-04-06 Canon Inc 撮像装置
WO2007063680A1 (ja) * 2005-12-01 2007-06-07 Matsushita Electric Industrial Co., Ltd. 撮像装置、表示制御装置、表示装置および画像表示システム
JP2017163611A (ja) * 2017-06-12 2017-09-14 パナソニックIpマネジメント株式会社 撮像装置
JP2018074417A (ja) * 2016-10-31 2018-05-10 オリンパス株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328279A (ja) * 2004-05-13 2005-11-24 Canon Inc 記録装置
JP2006093956A (ja) * 2004-09-22 2006-04-06 Canon Inc 撮像装置
WO2007063680A1 (ja) * 2005-12-01 2007-06-07 Matsushita Electric Industrial Co., Ltd. 撮像装置、表示制御装置、表示装置および画像表示システム
JP2018074417A (ja) * 2016-10-31 2018-05-10 オリンパス株式会社 撮像装置
JP2017163611A (ja) * 2017-06-12 2017-09-14 パナソニックIpマネジメント株式会社 撮像装置

Also Published As

Publication number Publication date
JP7191980B2 (ja) 2022-12-19
JP2023024521A (ja) 2023-02-16
JPWO2020110710A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
US8582012B2 (en) Imaging apparatus and display control method in imaging apparatus
US10165243B2 (en) Image processing device, imaging device, image processing method, and program
US11438521B2 (en) Image capturing device, image capturing method, and program
US11032483B2 (en) Imaging apparatus, imaging method, and program
JP7110406B2 (ja) 撮像装置、撮像方法、及びプログラム
JP4748442B2 (ja) 撮像装置及びそのプログラム
JP7060703B2 (ja) 撮影装置、撮影方法、及びプログラム
JP7191980B2 (ja) 撮像装置、撮像方法、及びプログラム
JP7150053B2 (ja) 撮像装置、撮像方法、及びプログラム
JP7003286B2 (ja) 撮影装置、撮影方法、及びプログラム
JP2008147924A (ja) 撮像装置
JP6941744B2 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
US10194082B2 (en) Image pickup apparatus that shoots moving image for predetermined time period at the time of shooting still image, control method for the image pickup apparatus, and storage medium
WO2020066316A1 (ja) 撮影装置、撮影方法、及びプログラム
WO2020003944A1 (ja) 撮像装置、撮像方法、及びプログラム
JPWO2020161969A1 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19889896

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020558308

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19889896

Country of ref document: EP

Kind code of ref document: A1