WO2017061095A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2017061095A1
WO2017061095A1 PCT/JP2016/004413 JP2016004413W WO2017061095A1 WO 2017061095 A1 WO2017061095 A1 WO 2017061095A1 JP 2016004413 W JP2016004413 W JP 2016004413W WO 2017061095 A1 WO2017061095 A1 WO 2017061095A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
focus
focus lens
moving
image data
Prior art date
Application number
PCT/JP2016/004413
Other languages
English (en)
French (fr)
Inventor
智洋 大神
充義 岡本
浩平 福川
剛治 澁野
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2017544182A priority Critical patent/JP6435527B2/ja
Publication of WO2017061095A1 publication Critical patent/WO2017061095A1/ja
Priority to US15/869,791 priority patent/US10277801B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions

Definitions

  • the present disclosure relates to an imaging apparatus capable of reducing the time required for a shooting operation in recording a moving image with a focus bracket shooting function.
  • the digital camera function there is a focus bracket function that performs continuous shooting while moving the focus position. According to this function, the user can select an image in a desired in-focus state after image capturing.
  • Patent Document 1 discloses a digital camera having a focus bracket function.
  • This digital camera has a calculation means and a control means.
  • the calculating means calculates a focus evaluation value representing a focus state of each of a plurality of images continuously shot by the focus bracket shooting function.
  • the control unit selects an image with a good focus state based on the focus evaluation value of each of the plurality of images calculated by the calculation unit, and records image data representing the selected image on a recording medium. Control the operation of the recording means. As a result, it is possible to select and record an image in good focus from a plurality of captured images.
  • This disclosure provides an imaging apparatus capable of shortening the time required for a shooting operation so that the user does not miss a shooting opportunity in recording a moving image with the focus bracket shooting function.
  • an imaging device in the first aspect of the present disclosure, includes an optical system including a focus lens, an imaging unit that captures a subject image input via the optical system and generates an image signal, and performs predetermined processing on the image signal generated by the imaging unit, An image processing unit that generates data, and a control unit that controls the imaging unit and the image processing unit.
  • the control unit performs a scan operation for detecting a focus position for each of the plurality of partial areas of the image data while moving the focus lens, and obtains information on the focus positions of the plurality of partial areas obtained as a result of the scan operation. Based on this, the focus lens is moved while switching the moving speed of the focus lens to record a moving image.
  • the plurality of partial areas are a plurality of areas obtained by dividing the image area of the image data.
  • FIG. 1 is a diagram illustrating a configuration of a digital camera according to the present disclosure.
  • FIG. 2 is a rear view of the digital camera.
  • FIG. 3A is a diagram illustrating the movement of the focus lens in the bracket operation.
  • FIG. 3B is a diagram illustrating designation of a focus area by a user in an image.
  • FIG. 4 is a diagram for explaining the clipping of a still image from moving image data.
  • FIG. 5 is a diagram for explaining a region of an image divided into a plurality.
  • FIG. 6A is a diagram illustrating the focusing information table.
  • FIG. 6B is a diagram illustrating a header of moving image data.
  • FIG. 7 is a flowchart showing the focus bracket operation.
  • FIG. 1 is a diagram illustrating a configuration of a digital camera according to the present disclosure.
  • FIG. 2 is a rear view of the digital camera.
  • FIG. 3A is a diagram illustrating the movement of the focus lens in the bracket operation.
  • FIG. 8 is a flowchart showing a moving image recording operation in focus bracket shooting.
  • FIG. 9 is a diagram for explaining the moving range of the focus lens in focus bracket shooting.
  • FIG. 10 is a diagram for explaining switching of the moving speed of the focus lens.
  • FIG. 11 is a flowchart showing still image generation processing from moving image data.
  • FIG. 12 is a diagram showing a screen displayed after recording moving image data.
  • FIG. 13A is a diagram illustrating an operation of designating a desired subject by the user.
  • FIG. 13B is a diagram illustrating an area corresponding to a subject specified by the user.
  • FIG. 14A is a diagram illustrating an operation of designating a desired subject by the user.
  • FIG. 14B is a diagram illustrating a display example of an image focused on the subject specified by the user.
  • FIG. 1 is a block diagram showing a configuration of the digital camera 100.
  • the digital camera 100 is an imaging device that captures an object image formed by an optical system 110 including one or a plurality of lenses with a CCD 140.
  • the image data generated by the CCD 140 is subjected to various processes by the image processing unit 160 and stored in the memory card 200.
  • the configuration of the digital camera 100 will be described in detail.
  • the optical system 110 includes a zoom lens and a focus lens 111.
  • the subject image can be enlarged or reduced by moving the zoom lens along the optical axis. Further, the focus (in-focus state) of the subject image can be adjusted by moving the focus lens 111 along the optical axis.
  • the lens driving unit 120 drives various lenses included in the optical system 110.
  • the lens driving unit 120 includes, for example, a zoom motor that drives the zoom lens and a focus motor that drives the focus lens 111.
  • the diaphragm unit 300 adjusts the amount of light transmitted through the opening by adjusting the size of the opening or automatically according to a user setting.
  • the shutter 130 is a means for shielding the light transmitted through the CCD 140.
  • the shutter 130 together with the optical system 110 and the diaphragm unit 300, constitutes an optical system unit that controls optical information indicating a subject image.
  • the optical system 110 and the diaphragm unit 300 are housed in a lens barrel (not shown).
  • the CCD 140 captures a subject image formed by the optical system 110 and generates image data.
  • the CCD 140 includes a color filter, a light receiving element, and an AGC (Auto Gain Controller).
  • the light receiving element converts the optical signal collected by the optical system 110 into an electrical signal, and generates image information.
  • the AGC amplifies the electric signal output from the light receiving element.
  • the CCD 140 further includes a drive circuit for performing various operations such as exposure, transfer, and electronic shutter. Details will be described later.
  • ADC A / D converter: analog-digital converter
  • the image processing unit 160 performs various processes on the digital image data generated and converted by the CCD 140 under the control of the controller 180.
  • the image processing unit 160 generates image data to be displayed on the display monitor 220 or generates image data to be stored in the memory card 200.
  • the image processing unit 160 performs various processes such as gamma correction, white balance correction, and flaw correction on the image data generated by the CCD 140.
  • the image processing unit 160 converts the image data generated by the CCD 140 into H.264. It compresses by the compression format etc. based on H.264 standard or MPEG2 standard.
  • the image processing unit 160 can be realized by a DSP (Digital Signal Processor), a microcomputer, or the like.
  • the image processing unit 160 can generate, for example, moving image data (4K moving image data) having about 4000 ⁇ 2000 pixels based on the image data generated by the CCD 140.
  • the image processing unit 160 can perform various processes described later on the generated 4K moving image data.
  • the controller 180 is a control means for controlling the entire digital camera 100.
  • the image processing unit 160 and the controller 180 can be realized by a semiconductor element or the like.
  • the image processing unit 160 and the controller 180 can be realized by a microcomputer, CPU, MPU, DSP (Digital Signal Processor), ASIC, FPGA, or the like.
  • the image processing unit 160 and the controller 180 may be configured only by hardware, or may be realized by combining hardware and software.
  • the buffer 170 functions as a work memory for the image processing unit 160 and the controller 180.
  • the buffer 170 can be realized by, for example, a DRAM (Dynamic Random Access Memory), a ferroelectric memory, or the like.
  • the card slot 190 is a means for attaching the memory card 200 to the digital camera 100.
  • the card slot 190 can mechanically and electrically connect the memory card 200 and the digital camera 100.
  • the memory card 200 includes a flash memory, a ferroelectric memory, and the like, and can store data such as an image file generated by the image processing unit 160.
  • the built-in memory 240 is composed of a flash memory or a ferroelectric memory.
  • the built-in memory 240 stores a control program and data for controlling the entire digital camera 100.
  • the operation member 210 is a generic term for a user interface that receives an operation from a user.
  • the operation member 210 includes a button, a lever, a dial, a touch panel, a switch, and the like that receive an operation from the user.
  • the operation member 210 includes a focus ring provided on the outer periphery of the lens barrel.
  • the focus ring is a member that is rotated by the user to move the focus lens 111.
  • the display monitor 220 can display an image (through image) indicated by image data generated by the CCD 140 and an image indicated by image data read from the memory card 200.
  • the display monitor 220 can also display various menu screens for performing various settings of the digital camera 100.
  • the display monitor 220 is composed of a liquid crystal display device or an organic EL display device.
  • FIG. 2 is a view showing the back of the digital camera 100.
  • a release button 211 As an example of the operation member 210, a release button 211, a selection button 213, a determination button 214, and a touch panel 222 are shown.
  • the operation member 210 receives an operation by the user, the operation member 210 transmits various instruction signals to the controller 180.
  • the release button 211 is a two-step push button.
  • the controller 180 executes autofocus control (AF control), auto exposure control (AE control), and the like.
  • AF control autofocus control
  • AE control auto exposure control
  • the controller 180 records image data captured at the timing of the pressing operation on the memory card 200 or the like as a recorded image. Further, after the release button 211 is pressed halfway by the user, the operation can be canceled by releasing the release button 211 without performing the full press operation.
  • the selection button 213 is a push-type button provided in the vertical and horizontal directions. The user can move the cursor or select various condition items displayed on the display monitor 220 by pressing one of the selection buttons 213 in the up / down / left / right directions.
  • the decision button 214 is a push button.
  • the controller 180 displays a menu screen on the display monitor 220.
  • the menu screen is a screen for setting various conditions for shooting / playback.
  • the controller 180 finalizes the setting of the selected item.
  • the touch panel 222 is arranged so as to overlap with the display screen of the display monitor 220, and detects a touch operation on the display screen by the user's finger. As a result, the user can perform operations such as designation of an area for the image displayed on the display monitor 220.
  • the digital camera 100 captures a moving image while changing the focus position, and selects and records one frame from a plurality of frames constituting the captured moving image.
  • Has a focus function also called a focus select function. With this function, the user can select the in-focus position after shooting.
  • the bracket focus function ON (valid) / OFF (invalid) can be set, for example, on a menu by a user operation.
  • bracket focus function a moving image is shot while changing the in-focus position, and one frame selected by the user is recorded from a plurality of frames constituting the shot moving image.
  • bracket focus function for example, a 4K moving image having about 4000 ⁇ 2000 pixels is recorded. In this manner, one frame image selected based on the user's designation is cut out from the moving image recorded at 4K to obtain a still image. Since the still image obtained in this way is cut out from the 4K moving image, it has high image quality.
  • bracket focus function moving the focus lens 111 from the closest end to the infinite end (or vice versa), that is, changing the focus position Take a picture.
  • the user 50 designates a subject 52 (that is, a region) to be focused on in the captured image.
  • the digital camera 100 selects one frame image from a plurality of frame images constituting a moving image based on a user's designation, and cuts out and records as a still image. As a result, a high-quality still image focused on the subject (area) designated by the user can be obtained.
  • the image area 400 is divided into a plurality of areas as shown in FIG. 5 (or a plurality of areas are set in the image area 400, and so on. ). Then, for each divided or set area 41 (also referred to as an AF area), a frame in which the area is in focus (hereinafter referred to as an “in-focus frame”) is obtained from a plurality of frames constituting the moving image. Information on the focus frame is recorded in the focus information table.
  • the digital camera 100 performs a pre-scan operation (also referred to as a focus search operation) before recording (shooting) a moving image in the bracket focus operation, detects a focus frame in each divided area, and creates a focus information table. Generate.
  • a plurality of areas obtained by dividing the image area 400 are also referred to as a plurality of partial areas.
  • FIG. 6A is a diagram showing a data structure of the focusing information table.
  • the focus information table 60 includes a focus lens position (Pnear) when the focus is closest to the closest end in the pre-scan operation, a focus lens position (Pfar) when the focus is closest to the infinite end, The frame number of the focused frame for each divided area is stored. Further, the focus information table 60 may store the position of the focus lens 111 corresponding to the frame number of the focus frame (the focus lens position at the time of focus is referred to as “focus position”). As shown in FIG. 6B, the focusing information table 60 is stored in the header section 63 of the moving image data 65 obtained by moving image shooting.
  • Bracket Focus Operation A bracket focus operation (also referred to as a focus select operation) of the digital camera 100 having the above configuration will be described below.
  • the moving image recording operation in the bracket focus operation of the digital camera 100 will be described with reference to the flowchart of FIG.
  • the focus bracketing operation includes a moving image recording operation (S01) and a still image generating operation (S02).
  • S01 moving image recording operation
  • S02 still image generating operation
  • a moving image is recorded (photographed) while moving the focus lens 111.
  • the still image generating operation a still image focused on a subject (area) designated by the user is generated from the moving image data recorded by the moving image recording operation. Details of each operation will be described below.
  • FIG. 8 is a flowchart illustrating the moving image recording operation (step S01).
  • the controller 180 performs a pre-scan operation for detecting a focus position for each of the divided areas in the image and creating a focus information table (S11).
  • the controller 180 detects the contrast value for each divided area of the image while moving the focus lens 111 from the closest end to the infinite end (or vice versa) (see FIG. 5). For example, the controller 180 obtains a contrast value for each area (AF area) 41 shown in FIG. 5 while moving the focus lens 111.
  • the controller 180 creates the focusing information table 60 based on the prescan result. Specifically, when the focus lens 111 is moved from the closest end to the infinite end, the controller 180 obtains, for each region, a frame having a maximum contrast value as a focused frame in a plurality of obtained frame images. . Then, the controller 180 records the frame number indicating the focused frame in the focused information table 60. For example, for a region (AF region) 41 shown in FIG. 5, when a peak of the contrast value is detected at the focus lens position P, a frame shot at the focus lens position P is used as a focused frame (in this example, (50th frame).
  • a region (AF region) 41 shown in FIG. 5 when a peak of the contrast value is detected at the focus lens position P, a frame shot at the focus lens position P is used as a focused frame (in this example, (50th frame).
  • the focusing information table 60 is stored in the header portion of moving image data obtained by moving image shooting, for example.
  • the in-focus frame that is, the in-focus position
  • the in-focus information table 60 stores in-focus information. A predetermined value indicating that the focal position is unknown is recorded.
  • the controller 180 further adjusts the focus position (Pnear) of the focus lens 111 closest to the closest end when the focus lens 111 is moved from the closest end to the infinite end, and the alignment of the focus lens 111 closest to the infinite end.
  • the focal position (Pfar) is obtained.
  • the controller 180 records these values in the focusing information table 60.
  • the focus position Pnear is a focus position corresponding to the closest focus frame
  • the focus position Pfar is a focus position corresponding to the most infinite focus frame.
  • the controller 180 After completion of the pre-scan operation, the controller 180 returns the focus lens 111 to the closest end, and performs moving image recording while moving the focus lens 111 within a predetermined range (S12).
  • the predetermined range is from the focus position (Pnear) of the focus lens 111 closest to the end to the focus position (Pfar) of the focus lens 111 closest to the end. Range.
  • moving image recording is not performed in a range where focusing cannot be obtained, and the time for moving image recording can be reduced.
  • a moving image is recorded according to a predetermined format for moving image data. For example, a moving image is recorded in accordance with the MP4 standard (H.264 / MPEG-4 AVC format).
  • the moving image data 65 in which the focusing information table 60 is recorded in the header section 63 is recorded in the memory card 200 (S13), and the moving image recording operation is completed.
  • FIG. 10 shows the operation of the focus lens 111 during the focus bracket operation, that is, the time change of the focus lens position.
  • the vertical axis represents the focus lens position
  • the horizontal axis represents time.
  • the focus position in each region is detected unless the focus position is unknown.
  • FIG. 10 shows a case where seven in-focus positions are detected as an example. That is, FIG. 10 shows a case where there are seven focus lens positions (focus positions) that are in focus in any one of a plurality of areas divided or set in the image area 400.
  • the detected in-focus positions are arranged in order from the closest end to the infinite end, and are indicated by black circles 1 to 7 in FIG.
  • the focus position (first focus position) represented by the black circle 1 is the focus position (Pnear) of the focus lens 111 closest to the end.
  • the focus position (seventh focus position) represented by the black circle 7 is the focus position (Pfar) of the focus lens 111 closest to the infinite end.
  • the focus lens 111 is moved in the range from the focus position (Pnear) of the focus lens 111 closest to the end to the focus position (Pfar) of the focus lens 111 closest to the infinite end.
  • the predetermined distance when moving the focus lens 111 during the moving image recording operation
  • the focus lens 111 is moved at the first speed between the in-focus positions that are apart from each other. If the distance between adjacent in-focus positions is less than the predetermined distance, the focus lens 111 is moved between the adjacent in-focus positions at a second speed that is slower than the first speed.
  • the first focus position is determined.
  • the focus lens 111 is moved at the second speed between the focus position and the fourth focus position, and between the fifth focus position and the seventh focus position, and the fourth focus is achieved.
  • the focus lens 111 is moved at a first speed higher than the second speed between the position and the fifth in-focus position.
  • the first speed is determined in consideration of reducing the operation time of the focus lens 111 during the moving image recording operation as much as possible.
  • a maximum speed that the lens actuator can output may be designated.
  • the second speed is determined in consideration of the point that importance is attached to the image quality of a still image generated from the recorded moving image data.
  • the second speed may be designated as a minimum speed that the lens actuator can produce, or a speed at which movement per frame is within the depth of field. If the moving speed of the focus lens 111 in the pre-scan operation is the third speed, the third speed is faster than the second speed and slower than the first speed.
  • the predetermined distance is determined in consideration of the movement amount per frame when the second speed is designated. If there is a possibility that n frames before and after the in-focus position are generated as still images, the predetermined distance is larger than 2n times the moving amount per frame when the second speed is designated. A value smaller than (n + 1) times may be specified. If the predetermined distance is selected as described above, the time required for moving image recording can be shortened.
  • step S02 a still image focused on a subject (area) designated by the user is generated from the moving image shot by the moving image recording operation.
  • the controller 180 displays the movie recorded immediately before on the display monitor 220 (S21). For example, as shown in FIG. 12, the movie recorded immediately before is displayed on the display monitor 220. At this time, one (still image) of a plurality of frame images constituting the recorded moving image may be displayed.
  • the user operates the touch panel 222 provided on the back side of the camera and designates a subject (that is, a region) to be focused on the displayed image. For example, as shown in FIG. 13A, the user 50 touches the subject 52 to designate the subject 52 as a target (area) to be focused.
  • the controller 180 refers to the focus information table 60 and specifies the focus frame for the region specified by the user (S23). For example, as shown in FIG. 13A, when the subject 52 is designated by the user, as shown in FIG. 13B, the controller 180 specifies the area 42 corresponding to the subject 52, and refers to the focusing information table 60. The frame number of the focused frame for the area 42 is acquired.
  • the controller 180 displays the frame image of the specified frame number on the display monitor 220 (S24). For example, when the subject 52 is designated by the user 50 in the image shown in FIG. 14A, an image focused on the designated subject 52 is displayed as shown in FIG. 14B.
  • the user can determine the image as a still image to be recorded by pressing the enter button 214.
  • the user can switch the image displayed on the display monitor 220 to the image of the previous and subsequent frames by operating the selection button 213.
  • the controller 180 switches the image displayed on the display monitor 220 according to the operation (S28).
  • the user can display a desired image on the display monitor 220 by appropriately performing the switching operation.
  • the displayed image is cut out as a still image and recorded in the memory card 200 (S26).
  • a confirmation message for the user may be displayed on the display monitor 220.
  • the controller 180 extracts the frame image data being displayed from the moving image data and records it as a still image in the memory card 200. May be.
  • the still image data may be recorded in the built-in memory 240 or another recording medium instead of or in addition to the memory card 200.
  • the moving image data is recorded by a moving image codec (H.264, H.265, etc.), and inter-frame compression is performed. For this reason, when a frame of moving image data is cut out and cut out as a still image, the controller 180 converts the frame image data into a still image format (for example, JPEG) and records it.
  • a moving image codec H.264, H.265, etc.
  • still image data focused on the area specified by the user can be cut out from the moving image data. That is, the user can obtain an image focused on a desired subject.
  • the digital camera 100 includes an optical system 110 including a focus lens 111, a CCD 140 (an example of an imaging unit) that captures a subject image input via the optical system 110, and generates an image signal.
  • An image processing unit 160 that performs predetermined processing on the image signal generated by the CCD 140 to generate image data
  • a controller 180 (an example of a control unit) that controls the CCD 140 and the image processing unit 160 are provided.
  • the controller 180 performs a scan operation for detecting the focus position for each of the plurality of partial areas of the image data while moving the focus lens 111, and information on the focus positions of the plurality of partial areas obtained as a result of the scan operation. Based on the above, the focus lens is moved while switching the moving speed of the focus lens to record a moving image.
  • the plurality of partial areas are a plurality of areas obtained by dividing the image area of the image data.
  • the controller 180 moves the focus lens 111 between the in-focus position closest to the closest end and the in-focus position closest to the infinite end.
  • the moving image is recorded by moving the focus lens 111 at a higher speed than in the case where the distance between the in-focus positions is less than the predetermined distance.
  • an operation member 210 that is operated by the user is further provided, and the operation member 210 accepts designation of an area on the image by the user.
  • the controller 180 extracts a frame image (focused frame) focused on an area specified by the user from a plurality of frame images constituting the recorded moving image data, and generates a still image.
  • the controller 180 records a still image on the memory card 200 (an example of a predetermined recording medium).
  • the digital camera 100 extracts a frame image (focused frame) focused on an area designated by the user from moving image data captured while changing the focus position, and a still image Record as. Therefore, the user can easily obtain a still image focused on a desired image region (subject) by designating the region of the image by touch.
  • a still image is generated from a moving image captured while continuously changing the focus position, it is possible to obtain an image that is in focus with respect to an arbitrary subject included within the angle of view at the time of moving image capturing.
  • the first embodiment has been described as an example of the technique disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed.
  • the pre-scan operation is performed before moving image recording to create the focusing information table 60. Since the in-focus position at which the in-focus is obtained by the pre-scan operation can be recognized, an effective range for moving the focus lens can be set during moving image recording, and there is an advantage that moving image recording can be performed efficiently.
  • the pre-scan operation is not essential, and the focusing information table 60 may be created at the same time as moving image recording. This method has the advantage that the angle of view does not change when recording a moving image and when generating focus information.
  • the focus information table 60 stores the closest focus position (Pnear) and the most infinite focus position (Pfar).
  • these in-focus positions (Pnear, Pfar) are not necessarily stored in the in-focus information table 60, and may be held independently of the in-focus information table 60.
  • the focus information table 60 stores information (frame number) indicating a frame (focused frame) focused on each area of the image.
  • the focus information table may store the position of the focus lens 111 when each area is in focus for each area of the image.
  • a second table indicating the relationship between the focus lens position and each frame may be created at the time of moving image recording.
  • contrast AF is used as the autofocus method, but phase difference AF may be used.
  • the focus bracket function disclosed in the above embodiment can be applied to both types of digital cameras such as a lens-interchangeable camera and a lens-integrated camera.
  • the imaging apparatus is not limited to this.
  • the idea of the present disclosure can be applied to various imaging devices capable of shooting moving images, such as a digital video camera, a smartphone, and a wearable camera.
  • the image sensor is constituted by a CCD, but the image sensor is not limited to this.
  • the imaging device may be configured with an NMOS image sensor or a CMOS image sensor.
  • the present disclosure can be applied to an imaging apparatus that can capture a moving image.
  • the present invention can be applied to various imaging devices that can shoot moving images, such as digital video cameras, smartphones, and wearable cameras.
  • Imaging device Digital camera (imaging device) DESCRIPTION OF SYMBOLS 110 Optical system 111 Focus lens 120 Lens drive part 130 Shutter 140 CCD (imaging part) 150 A / D converter 160 Image processing unit 170 Buffer 180 Controller (control unit) 190 Card slot 200 Memory card 210 Operation member (operation unit) 220 Display monitor 240 Built-in memory 300 Diaphragm part

Abstract

フォーカスレンズ(111)を含む光学系(110)と、光学系(110)を介して入力した被写体像を撮像して画像信号を生成するCCD(140)と、CCD(140)により生成された画像信号に所定の処理を行い、画像データを生成する画像処理部(160)と、コントローラ(180)と、を備える。コントローラ(180)は、フォーカスレンズ(111)を移動しながら画像データの複数の部分領域の各々に対する合焦位置を検出するスキャン動作を行い、スキャン動作の結果得られた、複数の部分領域の合焦位置の情報に基づいて、フォーカスレンズ(111)の移動速度を切り換えながらフォーカスレンズ(111)を移動し、動画の記録を行う。複数の部分領域は、画像データの画像領域を分割して得られる複数の領域である。

Description

撮像装置
 本開示は、フォーカスブラケット撮影機能での動画の記録において、撮影動作にかかる時間を短縮することができる撮像装置に関する。
 デジタルカメラの機能において、焦点位置を移動させながら連続撮影を行うフォーカスブラケット機能がある。この機能によれば、ユーザは画像撮影後に所望の合焦状態の画像を選択することができる。
 特許文献1は、フォーカスブラケット機能を有するデジタルカメラを開示する。このデジタルカメラは、算出手段と、制御手段と、を有する。算出手段は、フォーカスブラケット撮影機能による撮影で連続撮影された複数の画像各々の合焦状態を表す合焦評価値を算出する。制御手段は、算出手段により算出された複数の画像各々の合焦評価値に基づいて、合焦状態が良好な画像を選択し、当該選択した画像を表す画像データを記録媒体に記録するように記録手段の動作を制御する。これにより、撮影された複数の画像から合焦状態が良好な画像を選択して記録することを可能にしている。
特開2004-135029号公報
 本開示は、フォーカスブラケット撮影機能での動画の記録において、ユーザが撮影機会を逃さないように、撮影動作にかかる時間を短縮することができる撮像装置を提供する。
 本開示の第一の態様において撮像装置が提供される。撮像装置は、フォーカスレンズを含む光学系と、光学系を介して入力した被写体像を撮像して画像信号を生成する撮像部と、撮像部により生成された画像信号に所定の処理を行い、画像データを生成する画像処理部と、撮像部および画像処理部を制御する制御部と、を備える。制御部は、フォーカスレンズを移動しながら画像データの複数の部分領域の各々に対する合焦位置を検出するスキャン動作を行い、スキャン動作の結果得られた、複数の部分領域の合焦位置の情報に基づいて、フォーカスレンズの移動速度を切り換えながらフォーカスレンズを移動し、動画の記録を行う。複数の部分領域は、画像データの画像領域を分割して得られる複数の領域である。
図1は、本開示に係るデジタルカメラの構成を示す図である。 図2は、デジタルカメラの背面図である。 図3Aは、ブラケット動作におけるフォーカスレンズの移動を説明した図である。 図3Bは、画像においてユーザによる合焦領域の指定を説明した図である。 図4は、動画データからの静止画の切り出しを説明した図である。 図5は、複数に分割された画像の領域を説明した図である。 図6Aは、合焦情報テーブルを説明した図である。 図6Bは、動画データのヘッダを説明した図である。 図7は、フォーカスブラケット動作を示すフローチャートである。 図8は、フォーカスブラケット撮影における動画記録動作を示すフローチャートである。 図9は、フォーカスブラケット撮影におけるフォーカスレンズの移動範囲を説明した図である。 図10は、フォーカスレンズの移動速度の切り換えを説明するための図である。 図11は、動画データからの静止画生成処理を示すフローチャートである。 図12は、動画データの記録後に表示される画面を示す図である。 図13Aは、ユーザによる所望の被写体を指定する操作を説明した図である。 図13Bは、ユーザにより指定された被写体に対応する領域を示す図である。 図14Aは、ユーザによる所望の被写体を指定する操作を説明した図である。 図14Bは、ユーザにより指定された被写体に合焦した画像の表示例を示す図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 以下、図面を用いて本開示に係る撮像装置の実施の形態を説明する。
 (第1の実施の形態)
 1.デジタルカメラの構成
 第1の実施の形態に係るデジタルカメラの電気的構成例について図1を用いて説明する。図1は、デジタルカメラ100の構成を示すブロック図である。デジタルカメラ100は、1又は複数のレンズからなる光学系110により形成された被写体像をCCD140で撮像する撮像装置である。CCD140で生成された画像データは、画像処理部160で各種処理が施され、メモリカード200に格納される。以下、デジタルカメラ100の構成を詳細に説明する。
 光学系110は、ズームレンズやフォーカスレンズ111を含む。ズームレンズを光軸に沿って移動させることにより、被写体像の拡大、又は縮小をすることができる。また、フォーカスレンズ111を光軸に沿って移動させることにより、被写体像のピント(合焦状態)を調整することができる。
 レンズ駆動部120は、光学系110に含まれる各種レンズを駆動させる。レンズ駆動部120は、例えばズームレンズを駆動するズームモータや、フォーカスレンズ111を駆動するフォーカスモータを含む。
 絞り部300は、ユーザの設定に応じて又は自動で開口部の大きさを調整し、開口部を透過する光の量を調整する。
 シャッタ130は、CCD140に透過させる光を遮光するための手段である。シャッタ130は、光学系110および絞り部300とともに、被写体像を示す光学情報を制御する光学系部を構成する。また、光学系110および絞り部300はレンズ鏡筒(図示せず)内に収納される。
 CCD140は、光学系110で形成された被写体像を撮像して、画像データを生成する。CCD140は、カラーフィルタと、受光素子と、AGC(Auto Gain Controller)とを含む。受光素子は、光学系110によって集光された光学的信号を電気信号に変換し、画像情報を生成する。AGCは、受光素子から出力された電気信号を増幅する。CCD140はさらに、露光、転送、電子シャッタなどの各種動作を行うための駆動回路等を含む。詳細については、後述する。
 ADC(A/Dコンバータ:アナログ-デジタル変換器)150は、CCD140で生成されたアナログ画像データをデジタル画像データに変換する。
 画像処理部160は、CCD140で生成され、変換されたデジタル画像データに対して、コントローラ180の制御を受け、各種処理を施す。画像処理部160は、表示モニタ220に表示するための画像データを生成したり、メモリカード200に格納するための画像データを生成したりする。例えば、画像処理部160は、CCD140で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部160は、CCD140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。画像処理部160は、DSP(Digital Signal Processor)やマイコンなどで実現可能である。また、画像処理部160は、CCD140で生成された画像データに基づいて、例えば、画素数4000×2000前後の動画の画像データ(4K動画データ)を生成することができる。画像処理部160は、生成した4K動画データに対して後述する種々の処理を行うことができる。
 コントローラ180は、デジタルカメラ100の全体を制御する制御手段である。画像処理部160やコントローラ180は、半導体素子などで実現可能である。例えば、画像処理部160やコントローラ180は、マイコン、CPU、MPU、DSP(Digital Signal Processor)、ASIC、FPGAなどで実現できる。また、画像処理部160やコントローラ180は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
 バッファ170は、画像処理部160およびコントローラ180のワークメモリとして機能する。バッファ170は、例えば、DRAM(Dynamic Random Access Memory)、強誘電体メモリなどで実現できる。
 カードスロット190は、メモリカード200をデジタルカメラ100に装着するための手段である。カードスロット190は、機械的および電気的にメモリカード200とデジタルカメラ100を接続可能である。
 メモリカード200は、フラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部160で生成された画像ファイル等のデータを格納可能である。
 内蔵メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内蔵メモリ240は、デジタルカメラ100全体を制御するための制御プログラムやデータ等を記憶している。
 操作部材210は、ユーザからの操作を受け付けるユーザーインターフェースの総称である。操作部材210は、ユーザからの操作を受け付けるボタン、レバー、ダイヤル、タッチパネル、スイッチ等を含む。また、操作部材210は、レンズ鏡筒の外周に設けられたフォーカスリングを含む。フォーカスリングは、フォーカスレンズ111を移動させるためにユーザにより回転操作される部材である。
 表示モニタ220は、CCD140で生成した画像データが示す画像(スルー画像)や、メモリカード200から読み出した画像データが示す画像を表示可能である。また、表示モニタ220は、デジタルカメラ100の各種設定を行うための各種メニュー画面等も表示可能である。表示モニタ220は、液晶表示デバイスや有機EL表示デバイスで構成される。
 図2は、デジタルカメラ100の背面を示した図である。図2では、操作部材210の例として、レリーズボタン211、選択ボタン213、決定ボタン214、タッチパネル222が示されている。操作部材210は、ユーザによる操作を受け付けると、コントローラ180に種々の指示信号を送信する。
 レリーズボタン211は、二段押下式の押下式ボタンである。レリーズボタン211がユーザにより半押し操作されると、コントローラ180はオートフォーカス制御(AF制御)やオート露出制御(AE制御)などを実行する。また、レリーズボタン211がユーザにより全押し操作されると、コントローラ180は、押下操作のタイミングに撮像された画像データを記録画像としてメモリカード200等に記録する。また、レリーズボタン211がユーザにより半押し操作された後、全押し操作を行わず、レリーズボタン211の押下を解除することで、操作を取りやめることも出来る。
 選択ボタン213は、上下左右方向に設けられた押下式ボタンである。ユーザは、上下左右方向のいずれかの選択ボタン213を押下することにより、カーソルを移動したり、表示モニタ220に表示される各種条件項目を選択したりすることができる。
 決定ボタン214は、押下式ボタンである。デジタルカメラ100が撮影モードあるいは再生モードにあるときに、決定ボタン214がユーザにより押下されると、コントローラ180は表示モニタ220にメニュー画面を表示する。メニュー画面は、撮影/再生のための各種条件を設定するための画面である。決定ボタン214が各種条件の設定項目が選択されているときに押下されると、コントローラ180は、選択された項目の設定を確定する。
 タッチパネル222は、表示モニタ220の表示画面と重畳して配置され、ユーザの指による表示画面上へのタッチ操作を検出する。これにより、ユーザは、表示モニタ220に表示された画像に対する領域の指定等の操作を行える。
 1.1 ブラケットフォーカス機能
 本実施形態のデジタルカメラ100は、合焦位置を変化させながら動画を撮影し、撮影した動画を構成する複数フレームの画像の中から1つのフレームを選択して記録するブラケットフォーカス機能(フォーカスセレクト機能ともいう)を有する。この機能により、ユーザが撮影後に合焦位置を選択することができる。ブラケットフォーカス機能のON(有効)/OFF(無効)はユーザ操作により、例えばメニュー上で設定できるようになっている。
 ブラケットフォーカス機能では、合焦位置を変化させながら動画を撮影し、撮影した動画を構成する複数フレームの画像の中から、ユーザが選択した1つのフレームを記録する。ブラケットフォーカス機能では、例えば、画素数4000×2000前後の4K動画が記録される。このように4Kで記録された動画から、ユーザの指定に基づき選択された1つのフレーム画像を切り出して静止画を得る。このようにして得られた静止画は4K動画から切り出されるため、高い画質を有している。
 具体的には、ブラケットフォーカス機能では、図3Aに示すように至近端側から無限端側(またはその逆)に向かってフォーカスレンズ111を移動させながら、すなわち、合焦位置を変化させながら動画撮影を行う。その後、図3Bに示すように、ユーザ50は、撮影された画像においてピントを合わせたい被写体52(すなわち領域)を指定する。デジタルカメラ100は、図4に示すように、動画を構成する複数フレーム画像の中から、ユーザの指定に基づき1つのフレーム画像を選択して、静止画として切り出して記録する。これにより、ユーザが指定した被写体(領域)に合焦した高画質の静止画を得ることができる。
 以上のようなブラケットフォーカスのために、本実施形態のデジタルカメラ100では、画像領域400を図5に示すような複数の領域に分割する(または画像領域400において複数の領域を設定する、以下同様)。そして、分割または設定した領域41(AF領域ともいう)毎に、動画を構成する複数フレームの中から、その領域にピントが合っているフレーム(以下「合焦フレーム」という)を求め、求めた合焦フレームに関する情報を合焦情報テーブルに記録する。なお、デジタルカメラ100は、ブラケットフォーカス動作において動画を記録(撮影)する前にプリスキャン動作(フォーカスサーチ動作ともいう)を行い、分割した各領域の合焦フレームを検出して合焦情報テーブルを生成する。画像領域400を分割して得られる複数の領域を複数の部分領域ともいう。
 図6Aは、合焦情報テーブルのデータ構造を示した図である。合焦情報テーブル60は、プリスキャン動作において最も至近端側でピントがあったときのフォーカスレンズ位置(Pnear)と、最も無限端側でピントがあったときのフォーカスレンズ位置(Pfar)と、分割した各領域に対する合焦フレームのフレーム番号とを格納する。また、合焦情報テーブル60には、合焦フレームのフレーム番号に対応するフォーカスレンズ111の位置を格納してもよい(ピントがあったときのフォーカスレンズ位置を「合焦位置」という)。合焦情報テーブル60は、図6Bに示すように、動画撮影により得られた動画データ65のヘッダ部63に格納される。
 2.ブラケットフォーカス動作
 以上のような構成を有するデジタルカメラ100のブラケットフォーカス動作(フォーカスセレクト動作ともいう)を以下に説明する。
 図7のフローチャートを参照して、デジタルカメラ100のブラケットフォーカス動作における動画記録動作を説明する。デジタルカメラ100において予めフォーカスブラケット機能が有効に設定された状態で、ユーザによりレリーズボタン211が全押しされると、フォーカスブラケット動作が開始される。フォーカスブラケット動作は、動画記録動作(S01)と、静止画生成動作(S02)とを含む。動画記録動作では、フォーカスレンズ111を移動させながら動画を記録(撮影)する。静止画生成動作では、動画記録動作にて記録した動画データから、ユーザが指定する被写体(領域)に合焦された静止画を生成する。以下、それぞれの動作について詳細を説明する。
 2.1 動画記録動作
 図8は、動画記録動作(ステップS01)を説明したフローチャートである。コントローラ180はまず、画像における分割した領域のそれぞれについて合焦位置を検出して合焦情報テーブルを作成するためのプリスキャン動作を行う(S11)。
 プリスキャン動作では、コントローラ180は、フォーカスレンズ111を至近端から無限端に(またはその逆に)移動させながら、画像の分割した領域毎にコントラスト値を検出する(図5参照)。例えば、コントローラ180は、フォーカスレンズ111を移動させながら図5に示す領域(AF領域)41毎にコントラスト値を求める。
 そして、コントローラ180は、プリスキャンの結果に基づき合焦情報テーブル60を作成する。具体的には、コントローラ180は、フォーカスレンズ111を至近端から無限端に移動させたときに、領域毎に、得られる複数のフレーム画像においてコントラスト値が最大となるフレームを合焦フレームとして求める。そして、コントローラ180は、その合焦フレームを示すフレーム番号を合焦情報テーブル60に記録する。例えば、図5に示す領域(AF領域)41について、フォーカスレンズ位置Pにおいてコントラスト値のピークが検出された場合、そのフォーカスレンズ位置Pのときに撮影されたフレームを合焦フレーム(この例では、第50フレーム)とする。そして、合焦フレームのフレーム番号(この例では、50)を合焦情報テーブル60に記録する(この例では、図6Aの領域30の合焦フレームのフレーム番号「50」)。また、フォーカスレンズ111の位置(この例では、P)を合焦情報テーブル60に記録してもよい(図6Aの「P」、この例ではP=100である)。合焦情報テーブル60は、例えば動画撮影により得られた動画データのヘッダ部に格納される。なお、一の領域について、いずれのフレームのコントラスト値も所定の閾値よりも低い場合、当該領域については、合焦フレーム(すなわち合焦位置)が定まらないとし、合焦情報テーブル60には、合焦位置が不明であることを示す所定の値を記録する。
 コントローラ180はさらに、フォーカスレンズ111を至近端から無限端に移動させたときの、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)と、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)とを求める。そして、コントローラ180は、それらの値を合焦情報テーブル60に記録する。ここで、合焦位置Pnearは、最も至近端側の合焦フレームに対応する合焦位置であり、合焦位置Pfarは、最も無限端側の合焦フレームに対応する合焦位置である。
 プリスキャン動作終了後、コントローラ180は、フォーカスレンズ111を至近端側に戻し、フォーカスレンズ111を所定の範囲内を移動させながら動画記録を行う(S12)。ここで、所定の範囲とは、図9に示すように、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)から、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)までの範囲である。フォーカスレンズ111の移動範囲をこのような範囲に制限することにより、合焦が得られない範囲においての動画記録が行われなくなり、動画記録の時間を低減できる。なお、動画記録は、動画データ用の所定のフォーマットに従い動画が記録される。例えば、MP4規格(H.264/MPEG-4 AVC方式)に従い動画が記録される。
 動画記録が終了すると、ヘッダ部63に合焦情報テーブル60を記録した動画データ65をメモリカード200に記録して(S13)、動画記録動作を終了する。
 図10に、フォーカスブラケット動作中のフォーカスレンズ111の動作、すなわちフォーカスレンズ位置の時間変化を示す。図10において、縦軸はフォーカスレンズ位置、横軸は時間である。プリスキャン動作を行うことで、合焦位置が不明な場合を除き、各領域での合焦位置が検出される。図10は、一例として、合焦位置が7つ検出された場合を示す。すなわち、図10は、画像領域400において分割または設定した複数の領域のうち、いずれかの領域でピントがあったフォーカスレンズ位置(合焦位置)が7つあった場合を示している。図10において、検出された合焦位置を至近端から無限端へ順番に並べて、図10中に黒丸1~7で示している。黒丸1で表される合焦位置(1番目の合焦位置)は、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)である。黒丸7で表される合焦位置(7番目の合焦位置)は、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)である。
 動画記録動作中は、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)から、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)までの範囲においてフォーカスレンズ111を移動させる。隣り合う合焦位置の間の距離(すなわち、次の合焦位置までの距離)が所定距離以上離れていると判断した場合、動画記録動作中にフォーカスレンズ111を移動させる際に、その所定距離以上離れて隣り合う合焦位置の間では、フォーカスレンズ111を第1の速度で移動させる。隣り合う合焦位置の間の距離が所定距離未満であれば、その隣り合う合焦位置の間では、第1の速度よりも遅い第2の速度でフォーカスレンズ111を移動させる。図10を参照すれば、隣り合う合焦位置のうち、4番目の合焦位置と5番目の合焦位置の間の距離だけが所定距離以上離れていると判断した場合は、1番目の合焦位置と4番目の合焦位置との間、および、5番目の合焦位置と7番目の合焦位置との間では、第2の速度でフォーカスレンズ111を移動させ、4番目の合焦位置と5番目の合焦位置との間では、第2の速度より速い第1の速度でフォーカスレンズ111を移動させている。
 第1の速度は、動画記録動作中のフォーカスレンズ111の動作時間をできるだけ短縮するという点を考慮して決められる。第1の速度として、レンズのアクチュエーターが出せる最高速度を指定しても良い。第2の速度は、記録した動画データから静止画を生成した画像の画質を重視した点を考慮して決められる。第2の速度は、レンズのアクチュエーターが出せる最低速度、または、1フレームあたりの移動が被写界深度以内に収まるような速度を指定しても良い。なお、プリスキャン動作でのフォーカスレンズ111の移動速度を第3の速度とすると、第3の速度は第2の速度よりも速く、第1の速度よりも遅い。
 また、前述の所定距離については、第2の速度を指定した場合の1フレームあたりの移動量を考慮して決められる。合焦位置に対して前後のnフレームを静止画として生成される可能性がある場合、所定距離として、第2の速度を指定した場合の1フレームあたりの移動量の2n倍よりも大きく、2(n+1)倍よりも小さい値を指定しても良い。前記のように所定距離を選べば、動画記録に要する時間を短縮することができる。
 2.2 動画データからの静止画生成
 図11のフローチャートを用いて、静止画生成動作(ステップS02)について説明する。静止画生成動作では、動画記録動作にて撮影した動画から、ユーザが指定する被写体(領域)に合焦された静止画が生成される。
 コントローラ180は、直前に記録した動画を表示モニタ220に表示する(S21)。例えば、図12に示すように、直前に記録した動画が表示モニタ220に表示される。このとき、記録した動画を構成する複数のフレーム画像の中の1つ(静止画)を表示してもよい。
 ユーザは、カメラ背面に設けられたタッチパネル222を操作して、表示されている画像上で、ピントを合わせたい被写体(すなわち領域)を指定する。例えば、図13Aに示すように、ユーザ50は被写体52をタッチすることで、合焦させたい対象(領域)として被写体52を指定する。
 ユーザにより被写体(すなわち領域)が指定されると(S22でYES)、コントローラ180は、合焦情報テーブル60を参照して、ユーザにより指定された領域に対する合焦フレームを特定する(S23)。例えば、図13Aに示すように、被写体52がユーザにより指定された場合、図13Bに示すように、コントローラ180は被写体52に対応する領域42を特定し、合焦情報テーブル60を参照して、その領域42に対する合焦フレームのフレーム番号を取得する。
 そして、コントローラ180は、特定したフレーム番号のフレーム画像を表示モニタ220に表示する(S24)。例えば、図14Aに示す画像において被写体52がユーザ50により指定されると、図14Bに示すように、指定された被写体52に合焦した画像が表示される。
 ユーザは、表示モニタ220に表示された画像が所望のものである場合、決定ボタン214の押下により、その画像を記録すべき静止画として確定することができる。一方、ユーザは表示モニタ220に表示された画像が所望のものでない場合、選択ボタン213の操作により、表示モニタ220に表示させる画像を時間的に前後のフレームの画像に切り替えることができる。
 ユーザによる画像を切り替える操作がなされると(S27)、コントローラ180は、表示モニタ220に表示される画像を操作に応じて切り替える(S28)。ユーザは、切り替え操作を適宜行うことで所望の画像を表示モニタ220に表示させることができる。
 ユーザにより決定ボタン214が押下されると(S25)、表示中の画像(フレーム画像)が静止画として切り出されて、メモリカード200に記録される(S26)。例えば、決定ボタン214が押下されると、表示モニタ220にユーザに対する確認メッセージが表示されるようにしてもよい。そして、確認メッセージに対してユーザの指示(「はい」)が入力されると、コントローラ180は、動画データから表示中のフレーム画像のデータを抽出し、静止画としてメモリカード200に記録するようにしてもよい。なお、静止画データは、メモリカード200に代えて又はそれに加えて、内蔵メモリ240や他の記録媒体に記録されてもよい。
 動画データは動画用コーデック(H.264やH.265など)により記録されており、フレーム間圧縮が行われている。このため、動画データのフレームを切り出して静止画として切り出す際に、コントローラ180は、フレーム画像のデータを静止画用のフォーマット(例えば、JPEG)に変換して記録する。
 以上のようにして、ユーザが指定した領域にピントが合った静止画データを動画データから切り出すことができる。すなわち、ユーザは所望の被写体に合焦した画像を得ることができる。
 3.効果、等
 本実施形態のデジタルカメラ100は、フォーカスレンズ111を含む光学系110と、光学系110を介して入力した被写体像を撮像して画像信号を生成するCCD140(撮像部の一例)と、CCD140により生成された画像信号に所定の処理を行い、画像データを生成する画像処理部160と、CCD140および画像処理部160を制御するコントローラ180(制御部の一例)と、を備える。コントローラ180は、フォーカスレンズ111を移動しながら画像データの複数の部分領域の各々に対する合焦位置を検出するスキャン動作を行い、スキャン動作の結果得られた、複数の部分領域の合焦位置の情報に基づいて、フォーカスレンズの移動速度を切り換えながらフォーカスレンズを移動し、動画の記録を行う。複数の部分領域は、画像データの画像領域を分割して得られる複数の領域である。
 また、コントローラ180は、至近端に最も近い合焦位置と無限端に最も近い合焦位置との間でフォーカスレンズ111を移動させ、所定距離以上離れて隣り合う合焦位置の間では、隣り合う合焦位置の間の距離が前記所定距離未満の場合に比べて、フォーカスレンズ111を速い速度で移動させて、動画の記録を行う。また、ユーザが操作を行う操作部材210をさらに備え、操作部材210は、ユーザによる画像上の領域の指定を受け付ける。コントローラ180は、記録した動画データを構成する複数のフレーム画像の中から、ユーザにより指定された領域にピントが合ったフレーム画像(合焦フレーム)を抽出し、静止画を生成する。また、コントローラ180は、静止画をメモリカード200(所定の記録媒体の一例)に記録する。
 以上のように、本実施形態のデジタルカメラ100は、フォーカス位置を変更しながら撮像した動画データから、ユーザにより指定された領域にピントが合ったフレーム画像(合焦フレーム)を抽出し、静止画として記録する。よって、ユーザは、画像の領域をタッチにより指定することで、所望の画像領域(被写体)にピントが合った静止画を容易に得ることができる。また、連続的にフォーカス位置を変化させながら撮影した動画から静止画を生成するため、動画撮影時の画角内に含まれる任意の被写体に対してピントがあった画像を得ることが出来る。また、フォーカスレンズの移動速度を切り換えながらフォーカスレンズを移動し、動画の記録を行うことで、ユーザが撮影機会を逃さないように、撮影動作にかかる時間を短縮する撮像装置を提供することができる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、第1の実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記第1の実施の形態で説明した構成要素と他の要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 (1)上記の実施形態では、フォーカスブラケット動作において、動画記録の前にプリスキャン動作を行って合焦情報テーブル60を作成した。プリスキャン動作により合焦が得られる境界の合焦位置を認識できるため、動画記録時にフォーカスレンズを移動させる有効な範囲を設定できるので、効率良く動画記録ができるというメリットがある。しかし、プリスキャン動作は必須ではなく、動画記録時に同時に合焦情報テーブル60を作成してもよい。この方法の場合、動画記録時と合焦情報生成時の画角が変化しないというメリットがある。
 (2)上記の実施形態では、合焦情報テーブル60は、最も至近端側の合焦位置(Pnear)と最も無限端側の合焦位置(Pfar)とを格納した。しかし、これらの合焦位置(Pnear、Pfar)は、必ずしも合焦情報テーブル60に格納される必要はなく、合焦情報テーブル60とは独立して保持されてもよい。
 (3)上記の実施形態では、合焦情報テーブル60は、画像の領域毎に、その領域に合焦したフレーム(合焦フレーム)を示す情報(フレーム番号)を格納した。しかし、合焦情報テーブル60の構成はこれに限定されない。合焦情報テーブルは、画像の領域毎に、各領域にピントがあったときのフォーカスレンズ111の位置を格納してもよい。この場合は、さらに、動画記録時にフォーカスレンズ位置と、各フレームとの関係を示す第2のテーブルを作成すればよい。静止画切り出し時には、合焦情報テーブルと第2のテーブルとを参照することで、動画から切り出すフレーム画像を特定できる。
 (4)上記の実施形態では、オートフォーカス方式としてコントラストAFを用いたが、位相差AFを用いてもよい。
 (5)上記の実施形態に開示したフォーカスブラケット機能は、レンズ交換式カメラおよびレンズ一体型カメラの双方の種類のデジタルカメラに対して適用できる。
 (6)上記の実施形態では、撮像装置の一例としてデジタルカメラを用いて説明したが、撮像装置はこれに限定されない。本開示の思想は、デジタルビデオカメラ、スマートフォン、ウェアラブルカメラ等の動画が撮影できる種々の撮像装置に対して適用することができる。
 (7)上記の実施形態では、撮像素子をCCDで構成したが、撮像素子はこれに限定されない。撮像素子はNMOSイメージセンサやCMOSイメージセンサで構成してもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、動画を撮影できる撮像装置に対して適用可能である。具体的には、デジタルビデオカメラ、スマートフォン、ウェアラブルカメラ等の動画が撮影できる種々の撮像装置に対して適用することができる。
 100 デジタルカメラ(撮像装置)
 110 光学系
 111 フォーカスレンズ
 120 レンズ駆動部
 130 シャッタ
 140 CCD(撮像部)
 150 A/Dコンバータ
 160 画像処理部
 170 バッファ
 180 コントローラ(制御部)
 190 カードスロット
 200 メモリカード
 210 操作部材(操作部)
 220 表示モニタ
 240 内蔵メモリ
 300 絞り部

Claims (4)

  1.  フォーカスレンズを含む光学系と、
     前記光学系を介して入力した被写体像を撮像して画像信号を生成する撮像部と、
     前記撮像部により生成された画像信号に所定の処理を行い、画像データを生成する画像処理部と、
     前記撮像部および前記画像処理部を制御する制御部と、を備え、
     前記制御部は、前記フォーカスレンズを移動しながら前記画像データの複数の部分領域の各々に対する合焦位置を検出するスキャン動作を行い、前記スキャン動作の結果得られた、前記複数の部分領域の合焦位置の情報に基づいて、前記フォーカスレンズの移動速度を切り換えながら前記フォーカスレンズを移動し、動画の記録を行い、
     前記複数の部分領域は、前記画像データの画像領域を分割して得られる複数の領域である、
    撮像装置。
  2.  前記制御部は、至近端に最も近い合焦位置と無限端に最も近い合焦位置との間で前記フォーカスレンズを移動させ、所定距離以上離れて隣り合う合焦位置の間では、隣り合う合焦位置の間の距離が前記所定距離未満の場合に比べて、前記フォーカスレンズを速い速度で移動させて、動画の記録を行う、
    請求項1記載の撮像装置。
  3.  ユーザが操作を行う操作部をさらに備え、
     前記操作部は、ユーザによる画像上の領域の指定を受け付け、
     前記制御部は、記録した動画データを構成する複数のフレーム画像の中から、ユーザにより指定された領域にピントが合ったフレーム画像を抽出し、静止画を生成する、
    請求項1または2記載の撮像装置。
  4.  前記制御部は、前記静止画を所定の記録媒体に記録する、
    請求項3記載の撮像装置。
PCT/JP2016/004413 2015-10-06 2016-09-30 撮像装置 WO2017061095A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017544182A JP6435527B2 (ja) 2015-10-06 2016-09-30 撮像装置
US15/869,791 US10277801B2 (en) 2015-10-06 2018-01-12 Image capture device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-198146 2015-10-06
JP2015198146 2015-10-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/869,791 Continuation US10277801B2 (en) 2015-10-06 2018-01-12 Image capture device

Publications (1)

Publication Number Publication Date
WO2017061095A1 true WO2017061095A1 (ja) 2017-04-13

Family

ID=58488313

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/004413 WO2017061095A1 (ja) 2015-10-06 2016-09-30 撮像装置

Country Status (3)

Country Link
US (1) US10277801B2 (ja)
JP (1) JP6435527B2 (ja)
WO (1) WO2017061095A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032370A (ja) * 2017-08-04 2019-02-28 キヤノン株式会社 撮像装置、及びその制御方法
WO2023157056A1 (ja) * 2022-02-15 2023-08-24 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333542A (ja) * 2004-05-21 2005-12-02 Nikon Corp 電子カメラおよび画像処理システム
JP2009027212A (ja) * 2007-06-20 2009-02-05 Ricoh Co Ltd 撮像装置
JP2010286752A (ja) * 2009-06-15 2010-12-24 Olympus Imaging Corp 撮影装置および撮影方法
JP2011101345A (ja) * 2009-10-09 2011-05-19 Nikon Corp 撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654366B2 (ja) * 1985-05-20 1994-07-20 ウエスト電気株式会社 ズ−ミング方法およびズ−ミング装置
JP2004135029A (ja) 2002-10-10 2004-04-30 Fuji Photo Film Co Ltd デジタルカメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333542A (ja) * 2004-05-21 2005-12-02 Nikon Corp 電子カメラおよび画像処理システム
JP2009027212A (ja) * 2007-06-20 2009-02-05 Ricoh Co Ltd 撮像装置
JP2010286752A (ja) * 2009-06-15 2010-12-24 Olympus Imaging Corp 撮影装置および撮影方法
JP2011101345A (ja) * 2009-10-09 2011-05-19 Nikon Corp 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032370A (ja) * 2017-08-04 2019-02-28 キヤノン株式会社 撮像装置、及びその制御方法
WO2023157056A1 (ja) * 2022-02-15 2023-08-24 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
JP6435527B2 (ja) 2018-12-12
US10277801B2 (en) 2019-04-30
JPWO2017061095A1 (ja) 2018-04-05
US20180139380A1 (en) 2018-05-17

Similar Documents

Publication Publication Date Title
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US10234653B2 (en) Imaging device with focus lens stopped at each of focus positions during video capturing
JP2019054461A (ja) 撮像装置および撮像方法
JP6598028B2 (ja) 撮像装置
JP2011030008A (ja) 撮像装置
US10412321B2 (en) Imaging apparatus and image synthesis method
JP6300076B2 (ja) 撮像装置、撮像方法及びプログラム
JP6435527B2 (ja) 撮像装置
US20170264819A1 (en) Imaging device
JP6621027B2 (ja) 撮像装置
JP4788172B2 (ja) 撮像装置及びプログラム
JP6445831B2 (ja) 撮像装置及びその制御方法ならびにプログラム
JP6865395B2 (ja) 撮像装置
US10425577B2 (en) Image processing apparatus and imaging apparatus
JP6603892B2 (ja) 撮像装置
JP6347056B2 (ja) 撮像装置および静止画像生成方法
JP2016218106A (ja) 撮像装置
JP4985716B2 (ja) 撮像装置、合焦評価領域の設定方法、及び、プログラム
JP2018098764A (ja) 撮像装置および画像合成方法
JP2017167518A (ja) 撮像装置
JP2017152759A (ja) 撮像装置
JP2018046542A (ja) 画像処理装置及び撮像装置
JP2013186274A (ja) 撮像装置
JP2018160881A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853252

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544182

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16853252

Country of ref document: EP

Kind code of ref document: A1