WO2017006538A1 - 撮像装置および静止画像生成方法 - Google Patents

撮像装置および静止画像生成方法 Download PDF

Info

Publication number
WO2017006538A1
WO2017006538A1 PCT/JP2016/003096 JP2016003096W WO2017006538A1 WO 2017006538 A1 WO2017006538 A1 WO 2017006538A1 JP 2016003096 W JP2016003096 W JP 2016003096W WO 2017006538 A1 WO2017006538 A1 WO 2017006538A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
focus
frame
area
moving
Prior art date
Application number
PCT/JP2016/003096
Other languages
English (en)
French (fr)
Inventor
西山 明雄
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2016567699A priority Critical patent/JP6347056B2/ja
Priority to EP16788002.0A priority patent/EP3145172B1/en
Priority to US15/337,032 priority patent/US10038835B2/en
Publication of WO2017006538A1 publication Critical patent/WO2017006538A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present disclosure relates to an imaging device capable of recording an image focused on an image area designated by a user, and a still image generation method.
  • focus bracket function that performs continuous shooting while moving the focus position. According to this function, the user can select a desired in-focus image after capturing an image.
  • Patent Document 1 discloses a digital camera having a focus bracket function.
  • This digital camera has calculation means and control means.
  • the calculation means calculates an in-focus evaluation value representing the in-focus state of each of a plurality of images continuously photographed in photographing by the focus bracket photographing function.
  • the control means selects an image having a good in-focus state based on the in-focus evaluation value of each of the plurality of images calculated by the calculation means, and records the image data representing the selected image on the recording medium. Control the operation of the recording means. This makes it possible to select and record an image in which the in-focus state is good from among a plurality of photographed images.
  • the present disclosure provides an imaging device and a still image generation method that allow a user to easily acquire a still image in which a desired image area (subject) is in focus.
  • the imaging device includes an optical system, an imaging element, an image processing unit, an input unit, and a control unit.
  • the optical system includes a focus lens.
  • the imaging device generates an image signal from optical information input through the optical system.
  • the image processing unit performs predetermined processing on the image signal generated by the imaging device to generate moving image data including a plurality of frame images.
  • the input unit receives an input of a designated area on the image by the user.
  • the control unit causes the image processing unit to generate moving image data while moving the focus position of the optical system, and extracts a still image focused on a designated area from among a plurality of frame images included in the moving image data.
  • a method of generating a still image in an imaging device includes the steps of generating moving image data including a plurality of frame images while moving the focus position, receiving an input of a designated area on the image by the user, and a plurality of frame images included in the moving image data. And D. extracting a still image in focus on the designated area.
  • FIG. 1 is a diagram showing a configuration of a digital camera according to the present disclosure.
  • FIG. 2 is a rear view of the digital camera.
  • FIG. 3A is a view for explaining the movement of the focus lens in the bracket operation.
  • FIG. 3B is a diagram for explaining the designation of the in-focus area by the user in the image.
  • FIG. 4 is a diagram for explaining clipping of a still image from moving image data.
  • FIG. 5 is a diagram for explaining an area of an image divided into a plurality of parts.
  • FIG. 6A is a diagram for explaining the focusing information table.
  • FIG. 6B is a diagram for explaining the header of moving image data.
  • FIG. 7 is a flowchart showing the focus bracket operation.
  • FIG. 1 is a diagram showing a configuration of a digital camera according to the present disclosure.
  • FIG. 2 is a rear view of the digital camera.
  • FIG. 3A is a view for explaining the movement of the focus lens in the bracket operation.
  • FIG. 8 is a flowchart showing a moving image recording operation in focus bracket shooting.
  • FIG. 9 is a view for explaining the movement range of the focus lens in focus bracket photographing.
  • FIG. 10 is a flowchart showing still image generation processing from moving image data.
  • FIG. 11 is a diagram showing a screen displayed after recording of moving image data.
  • FIG. 12A is a diagram for explaining an operation of designating a desired in-focus area by the user.
  • FIG. 12B is a diagram for explaining an operation of designating a desired in-focus area by the user.
  • FIG. 13 is a view showing a display example of an image focused on the area designated by the user.
  • FIG. 14 is a diagram for explaining the switching principle of images by frame advance / frame return.
  • FIG. 15 is a flowchart showing an image switching (frame forwarding) process by frame forwarding / frame returning.
  • FIG. 16 is a flowchart showing a process of determining the in-focus frame with respect to a divided area where the in-focus frame (in-focus position) is not clear.
  • FIG. 17 is a diagram for explaining a method of determining the in-focus frame with respect to a divided area in which the in-focus frame (in-focus position) is not clear.
  • FIG. 1 is a block diagram showing the configuration of the digital camera 100.
  • the digital camera 100 is an imaging device for capturing an object image formed by an optical system 110 including one or a plurality of lenses by the CCD 140.
  • the image data generated by the CCD 140 is subjected to various processes by the image processing unit 160 and stored in the memory card 200.
  • the configuration of the digital camera 100 will be described in detail below.
  • the optical system 110 includes a zoom lens and a focus lens 111.
  • the zoom lens By moving the zoom lens along the optical axis, the subject image can be enlarged or reduced. Further, by moving the focus lens 111 along the optical axis, it is possible to adjust the focus (in-focus state) of the subject image.
  • the lens drive unit 120 drives various lenses included in the optical system 110.
  • the lens drive unit 120 includes, for example, a zoom motor that drives a zoom lens, and a focus motor that drives a focus lens 111.
  • the diaphragm unit 300 adjusts the size of the opening according to the setting of the user or automatically, and adjusts the amount of light transmitted through the opening.
  • the shutter 130 is a means for blocking the light transmitted to the CCD 140.
  • the shutter 130 together with the optical system 110 and the diaphragm unit 300, constitutes an optical system unit that controls optical information indicating an object image. Further, the optical system 110 and the diaphragm unit 300 are housed in a lens barrel (not shown).
  • the CCD 140 captures an image of an object formed by the optical system 110 to generate image data.
  • the CCD 140 includes a color filter, a light receiving element, and an AGC (Auto Gain Controller).
  • the light receiving element converts the optical signal collected by the optical system 110 into an electrical signal to generate image information.
  • the AGC amplifies the electrical signal output from the light receiving element.
  • the CCD 140 further includes drive circuits and the like for performing various operations such as exposure, transfer, and electronic shutter. Details will be described later.
  • An ADC (A / D converter: analog-digital converter) 150 converts analog image data generated by the CCD 140 into digital image data.
  • the image processing unit 160 performs various processes on the digital image data generated and converted by the CCD 140 under the control of the controller 180.
  • the image processing unit 160 generates image data to be displayed on the display monitor 220, and generates image data to be stored in the memory card 200.
  • the image processing unit 160 performs various processes such as gamma correction, white balance correction, and scratch correction on the image data generated by the CCD 140.
  • the image processing unit 160 may be configured to convert the image data generated by the CCD 140 into H. It is compressed by a compression format or the like conforming to the H.264 standard or the MPEG2 standard.
  • the image processing unit 160 can be realized by a DSP (Digital Signal Processor) or a microcomputer.
  • the image processing unit 160 can generate, for example, image data (4K moving image data) of a moving image having a pixel count of around 4000 ⁇ 2000 based on the image data generated by the CCD 140.
  • the image processing unit 160 can perform various processes to be described later on the generated 4K moving image data.
  • the controller 180 is a control unit that controls the entire digital camera 100.
  • the image processing unit 160 and the controller 180 can be realized by a semiconductor element or the like.
  • the controller 180 may be configured only by hardware, or may be realized by combining hardware and software.
  • the image processing unit 160 and the controller 180 can be realized by a microcomputer, a CPU, an MPU, a DSP, an ASIC, an FPGA, or the like.
  • the buffer 170 functions as a work memory of the image processing unit 160 and the controller 180.
  • the buffer 170 can be realized by, for example, a dynamic random access memory (DRAM), a ferroelectric memory, or the like.
  • DRAM dynamic random access memory
  • ferroelectric memory ferroelectric memory
  • the card slot 190 is a means for attaching the memory card 200 to the digital camera 100.
  • the card slot 190 can connect the memory card 200 and the digital camera 100 mechanically and electrically.
  • the memory card 200 internally includes a flash memory, a ferroelectric memory, and the like, and can store data such as an image file generated by the image processing unit 160.
  • the built-in memory 240 is configured by a flash memory, a ferroelectric memory, or the like.
  • the built-in memory 240 stores control programs and data for controlling the entire digital camera 100.
  • the operation member 210 is a generic name of a user interface that receives an operation from a user.
  • the operation member 210 includes a button, a lever, a dial, a touch panel, a switch, and the like that receive an operation from the user.
  • the operation member 210 also includes a focus ring provided on the outer periphery of the lens barrel.
  • the focus ring is a member that is rotated by the user to move the focus lens 111.
  • the display monitor 220 can display an image (through image) indicated by the image data generated by the CCD 140 and an image indicated by the image data read from the memory card 200.
  • the display monitor 220 can also display various menu screens and the like for performing various settings of the digital camera 100.
  • the display monitor 220 is configured of a liquid crystal display device or an organic EL display device.
  • FIG. 2 is a view showing the back of the digital camera 100. As shown in FIG. In FIG. 2, as an example of the operation member 210, a release button 211, a selection button 213, a determination button 214, and a touch panel 222 are shown. When the operation member 210 receives an operation by the user, the operation member 210 transmits various instruction signals to the controller 180.
  • the input of the designated area on the image by the user can be received using the operation member 210 such as the touch panel 222 or the like. It should be noted that the input of the designated area on the image by the user is received from the outside of digital camera 100 using the wireless communication function of a wireless communication unit such as Wi-Fi (not shown) instead of receiving using operation member 210. May be In this case, the reception unit of the wireless communication unit receives the input of the designated area on the image.
  • the operation member 210 such as the touch panel 222 and the wireless communication unit such as Wi-Fi are generically called an input unit for receiving an input of a designated area on the image by the user.
  • the release button 211 is a two-stage pressing type pressing button.
  • the controller 180 executes auto focus control (AF control), auto exposure control (AE control), and the like. Further, when the release button 211 is full-pressed by the user, the controller 180 records the image data captured at the timing of the pressing operation as a recorded image in the memory card 200 or the like. In addition, after the release button 211 is half-pressed by the user, the operation can be canceled by canceling the pressing of the release button 211 without performing the full-press operation.
  • the selection button 213 is a press-type button provided in the up, down, left, and right directions. The user can move the cursor or select various condition items displayed on the display monitor 220 by pressing one of the selection buttons 213 in the up, down, left, and right directions.
  • the determination button 214 is a push button.
  • the controller 180 causes the display monitor 220 to display a menu screen.
  • the menu screen is a screen for setting various conditions for shooting / reproduction.
  • the controller 180 fixes the setting of the selected item.
  • the touch panel 222 is disposed to overlap with the display screen of the display monitor 220, and detects a touch operation on the display screen by the finger of the user. As a result, the user can perform an operation such as designating an area on the image displayed on the display monitor 220.
  • the digital camera 100 shoots a moving image while changing the in-focus position, and selects and records one frame from images of a plurality of frames constituting the captured moving image. It has a focus function.
  • the bracket focus function for example, a 4K moving image with about 4000 ⁇ 2000 pixels is recorded.
  • one frame image selected based on the user's specification is cut out to obtain a still image.
  • the bracket focus function As shown in FIG. 3A, while moving the focus lens 111 from the near end side to the infinite end side (or vice versa), that is, moving images while changing the in-focus position Take a picture. Thereafter, as shown in FIG. 3B, the user 50 designates a subject 52 (that is, an area) to be focused on in the photographed image. As shown in FIG. 4, the digital camera 100 selects one frame image from a plurality of frame images constituting a moving image based on the user's designation, and cuts out and records it as a still image. As a result, it is possible to obtain a high-quality still image focused on the subject (area) specified by the user.
  • the image area 400 is divided into a plurality of areas as shown in FIG. 5 for the bracket focus as described above. Then, for each of the divided areas, a frame (hereinafter referred to as a “focused frame”) in which the area is in focus is obtained from a plurality of frames constituting the moving image, and information on the obtained in-focus frame is used as focusing information Record on the table.
  • the digital camera 100 performs a pre-scan operation before recording (photographing) a moving image in the bracket focus operation, detects a focus frame of each divided area, and generates a focus information table.
  • FIG. 6A is a diagram showing the data structure of the focusing information table.
  • the focusing information table 60 includes a focus lens position (Pnear) when the focus is on the closest end side in the pre-scan operation, and a focus lens position (Pfar) when the focus is on the infinity end side.
  • the frame number of the in-focus frame for each divided area is stored.
  • the focusing information table 60 is stored in the header portion 63 of moving image data 65 obtained by moving image shooting, as shown in FIG. 6B.
  • Bracket Focusing Operation The bracket focusing operation of the digital camera 100 having the above configuration is described below.
  • the focus bracketing operation includes a moving image recording operation (S01) and a still image generating operation (S02).
  • S01 moving image recording operation
  • S02 still image generating operation
  • a moving image is recorded (photographed) while moving the focus lens 111.
  • the still image generation operation a still image focused on a subject (area) designated by the user is generated from the moving image data recorded in the moving image recording operation.
  • FIG. 8 is a flowchart illustrating the moving image recording operation (step S01).
  • the controller 180 first performs a pre-scan operation to detect the in-focus position for each of the divided areas in the image and create an in-focus information table (S11).
  • the controller 180 detects the contrast value for each divided area of the image while moving the focus lens 111 from the near end to the infinite end (or vice versa) (see FIG. 5).
  • the controller 180 creates the focusing information table 60 based on the result of the pre-scan. Specifically, when the focus lens 111 is moved from the near end to the infinite end, the controller 180 obtains a frame having a maximum contrast value in a plurality of obtained frame images as a focused frame for each area. . Then, the controller 180 records the frame number indicating the in-focus frame in the in-focus information table 60. When the contrast value of any frame in one area is lower than a predetermined threshold value, it is assumed that the in-focus frame (that is, the in-focus position) is not determined for that area. A predetermined value indicating that the in-focus position is unknown is recorded.
  • the controller 180 further combines the focusing position (Pnear) of the focusing lens 111 on the closest end side with the focusing lens 111 on the infinity end side when the focusing lens 111 is moved from the near end to the infinite end. Find the in-focus position (Pfar). Then, the controller 180 records those values in the focusing information table 60.
  • the controller 180 After completion of the pre-scan operation, the controller 180 returns the focus lens 111 to the near end side, and performs moving image recording while moving the focus lens 111 within a predetermined range (S12).
  • the predetermined range is from the focusing position (Pnear) of the focusing lens 111 on the closest end side to the focusing position (Pfar) of the focusing lens 111 on the infinity end side. Range.
  • moving image recording in a range in which focusing can not be obtained is not performed, and the time of moving image recording can be reduced.
  • moving picture recording a moving picture is recorded according to a predetermined format for moving picture data. For example, moving pictures are recorded according to the MP4 standard (H.264 / MPEG-4 AVC method).
  • the moving image data 65 in which the focusing information table 60 is recorded in the header portion 63 is recorded in the memory card 200 (S13), and the moving image recording operation is ended.
  • step S02 Still Image Generation from Moving Image Data
  • a still image focused on a subject (area) designated by the user is generated from the moving image captured by the moving image recording operation.
  • the controller 180 displays the moving image recorded immediately before on the display monitor 220 (S21). For example, as shown in FIG. 11, a moving image recorded immediately before is displayed on the display monitor 220. At this time, one (still image) of a plurality of frame images constituting the recorded moving image may be displayed.
  • the user operates the touch panel 222 provided on the back of the camera to designate an object (that is, an area) to be focused on the displayed image.
  • an object that is, an area
  • the user 50 touches the subject 52 to designate the subject 52 as a target (region) to be focused.
  • the controller 180 refers to the focusing information table 60 to specify a focusing frame for the area designated by the user (S23). For example, as shown in FIG. 12A, when the subject 52 is designated by the user, as shown in FIG. 12B, the controller 180 identifies the area 42 corresponding to the subject 52, and refers to the focusing information table 60. The frame number of the in-focus frame for the area 42 is obtained.
  • the controller 180 displays the frame image of the specified frame number on the display monitor 220 (S24). For example, when the subject 52 is designated by the user 50 in the image shown in FIG. 13A, an image focused on the designated subject 52 is displayed as shown in FIG. 13B.
  • the user can confirm the image as a still image to be recorded by pressing the decision button 214.
  • the user can switch the image to be displayed on the display monitor 220 by operating the selection button 213 or the focus ring.
  • the controller 180 switches the image displayed on the display monitor 220 according to the operation (S28).
  • the user can display a desired image on the display monitor 220 by appropriately performing the switching operation. Details of this display image switching operation will be described later.
  • the image (frame image) being displayed is cut out as a still image and recorded in the memory card 200 (S26).
  • a confirmation message for the user may be displayed on the display monitor 220.
  • the controller 180 extracts the data of the frame image being displayed from the moving image data, and records the data as a still image on the memory card 200. May be Still image data may be recorded on the built-in memory 240 or another recording medium instead of or in addition to the memory card 200.
  • Still image data may be recorded outside the digital camera 100 using a wireless communication function of a wireless communication unit such as Wi-Fi (not shown) instead of or in addition to the recording of the recording medium such as the memory card 200. May be sent to In this case, the still image data is transmitted from the transmission unit of the wireless communication unit to the outside of the digital camera 100.
  • a wireless communication unit such as Wi-Fi
  • Moving picture data is recorded by a moving picture codec (such as H.264 or H.265), and inter-frame compression is performed. Therefore, when cutting out a frame of moving image data and cutting it out as a still image, the controller 180 converts the data of the frame image into a format for still image (for example, JPEG) and records it.
  • a moving picture codec such as H.264 or H.265
  • still image data in which an area designated by the user is in focus can be cut out from moving image data. That is, the user can obtain an image focused on a desired subject.
  • the user can switch the image displayed on the display monitor 220 by operating the selection button 213 or the focus ring. (S27 to S28). For example, by rotating the focus ring clockwise, the display image can be temporally switched to an image of a frame before or after, that is, frame-by-frame advance.
  • Such frame advance control is performed because, in the case where the image to be displayed next is a P picture (Predictive Picture), the processing time is significantly different between forward frame forward and reverse frame forward. is there. That is, when the image to be displayed next is a P picture, frame forwarding in the forward direction can be generated by adding the image information of the frame immediately after the current frame to the image information of the current frame. .
  • frame-forwarding in the reverse direction the image to be displayed next needs to be generated by integrating image information from the I picture before the current frame to the frame immediately before the current frame. It takes processing time. For this reason, in the case of frame-forwarding in the reverse direction, the process returns to the immediately preceding I picture, and the processing time required for display is shortened.
  • FIG. 15 is a flowchart showing a switching operation (frame advance) of a display image.
  • the controller 180 selects one frame of the current frame.
  • the subsequent frame image is displayed (S52).
  • the controller 180 displays an image of the I picture closest to the current frame among the I pictures prior to the current frame (S54).
  • a display may be displayed on the display monitor 220 to notify the user that the frame has been switched to a frame other than the immediately preceding frame.
  • a jog dial may be used as an operation member for advancing a frame.
  • the frame advance button may be displayed on the display monitor 220. The user can move the displayed image back and forth in time by operating the frame advance button.
  • GOP Group Of Picture
  • P picture Bidirectionally Predictive Picture
  • FIG. 16 is a flowchart showing the process of determining the in-focus frame with respect to the area where the in-focus position is unknown. If the in-focus position for the area of the subject specified by the user is unknown (S71), the controller 180 detects an area around the area and the in-focus position is unknown (S72) . For example, as shown in FIG. 17, the controller 180 detects another area group 46 whose focus position is unknown around the area 45 whose focus position is unknown.
  • the controller 180 detects the area group 47 which is around the area groups 45 and 46 whose focus positions are unknown and whose focus position (that is, the focus frame) is clear (S73).
  • the controller 180 sets the highest number of in-focus frames in the in-focus frame for each of the areas 47 in which the detected in-focus position (ie, in-focus frame) is clear, the in-focus frame for the in-focus area 45 (S74).
  • the in-focus frame can be determined for the region where the in-focus position is unknown.
  • Digital camera 100 of the present embodiment includes optical system 110, CCD 140 (an example of an imaging device), image processing unit 160, operation member 210 (an example of an input unit), and controller 180.
  • the optical system 110 includes a focus lens 111.
  • the CCD 140 generates an image signal from the optical information input through the optical system 110.
  • the image processing unit 160 performs predetermined processing on the image signal generated by the CCD 140 to generate moving image data including a plurality of frame images.
  • the operation member 210 receives an input of a designated area on the image by the user.
  • the controller 180 causes the image processing unit 160 to generate moving image data while moving the focus position of the optical system 110, and extracts a still image focused on a designated area from among a plurality of frame images included in the moving image data.
  • the controller 180 may record the extracted still image on the memory card 200 (an example of a predetermined recording medium).
  • the digital camera 100 extracts a still image (frame image or in-focus frame) focused on the area designated by the user from the moving image data captured while changing the focus position. . Therefore, the user can easily obtain a still image focused on a desired image area (subject) by specifying the area of the image by touch.
  • a still image is generated from a moving image captured while continuously changing the focus position, an image in focus on an arbitrary subject included in the angle of view at the time of moving image capturing can be obtained.
  • the digital camera 100 associates and manages each of a plurality of areas obtained by dividing an image area of image data with information indicating a frame image in which each area is in focus. Example) may be stored.
  • the controller 180 can identify the frame image in focus in the area designated by the user with reference to the focusing information table 60.
  • controller 180 may perform a pre-scan operation of detecting the in-focus state with respect to each area and generating the in-focus information table 60 while moving the focus lens prior to the moving image recording operation.
  • the controller 180 moves the focusing lens between the in-focus position (Pnear) closest to the near end and the in-focus position (Pfar) closest to the infinite end obtained as a result of the pre-scan operation. You may record video. As a result, since moving image recording is not performed in the range of the focus lens position where focusing is not performed, it is possible to record moving images efficiently.
  • the controller 180 When the controller 180 can not obtain a focused frame image for one region, it obtains a frame image that is a region group around the one region and in which each region is in focus. A frame image in which one region is in focus may be obtained from frame images for a certain region group. As a result, even when an area in which the in-focus state can not be obtained is selected, an image in focus in the area near the area is recorded as a still image.
  • the digital camera 100 may further include a display monitor 220 (an example of a display unit) that displays a frame image for the user to specify an area.
  • the moving image data includes an I picture (an example of a first image) generated without referring to information of another frame image, and a P picture (an example of a second image) generated with reference to the I picture. including.
  • the controller 180 displays a frame image one frame later in time from the frame image currently displayed. You may make it
  • the controller 180 causes the frame image I currently displayed to be temporally before I.
  • the I picture closest to the frame image currently displayed may be displayed. As a result, it is possible to quickly switch the display of images, and user convenience can be secured.
  • the first embodiment has been described as an example of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and is also applicable to embodiments in which changes, replacements, additions, omissions, and the like are appropriately made.
  • the pre-scanning operation is performed before moving image recording to create the focusing information table 60. Since the in-focus position of the boundary where the in-focus can be obtained can be recognized by the pre-scan operation, an effective range in which the focus lens is moved can be set at the time of moving image recording. However, the pre-scan operation is not essential, and the focusing information table 60 may be created simultaneously with moving image recording. This method has an advantage that the angle of view does not change at the time of moving image recording and at the time of focusing information generation.
  • the focusing information table 60 stores the focusing position (Pnear) on the closest end side and the focusing position (Pfar) on the infinite end side.
  • these in-focus positions (Pnear, Pfar) do not necessarily have to be stored in the in-focus information table 60, and may be held independently of the in-focus information table 60.
  • the focusing information table 60 stores, for each area of the image, information (frame number) indicating a frame (focusing frame) in which the area is focused.
  • the focusing information table may store, for each area of an image, the position of the focus lens 111 when each area is in focus.
  • a second table indicating the relationship between the focus lens position and each frame may be created at the time of moving image recording. At the time of still image clipping, a frame image clipped out of a moving image can be specified by referring to the focusing information table and the second table.
  • the contrast AF is used as the autofocus method, but the phase difference AF may be used.
  • the focus bracket function disclosed in the above embodiments can be applied to digital cameras of both types of interchangeable-lens camera and lens-integrated camera.
  • the imaging apparatus is not limited to this.
  • the concept of the present disclosure can be applied to various imaging devices capable of capturing moving images, such as digital video cameras, smart phones, wearable cameras and the like.
  • an image sensor was constituted by CCD, an image sensor is not limited to this.
  • the imaging device may be configured by an NMOS image sensor or a CMOS image sensor.
  • the present disclosure is applicable to an imaging device and a still image generation method capable of capturing a moving image.
  • the present invention can be applied to various imaging devices and still image generation methods capable of capturing moving images such as digital video cameras, smart phones, wearable cameras and the like.

Abstract

撮像装置(100)は、撮像装置(100)は、光学系(110)と、撮像素子(140)と、画像処理部(160)と、入力部(210)と、制御部(180)と、を備える。光学系(110)は、フォーカスレンズを含む。撮像素子(140)は、光学系(110)を介して入力した光学情報から画像信号を生成する。画像処理部(160)は、撮像素子(140)により生成された画像信号に所定の処理を行い、複数のフレーム画像を含む動画データを生成する。入力部(210)は、ユーザによる画像上の指定領域の入力を受け付ける。制御部(180)は、光学系(110)のフォーカス位置を移動させながら画像処理部(160)に動画データを生成させ、動画データに含まれる複数のフレーム画像の中から指定領域にピントが合った静止画像を抽出する。

Description

撮像装置および静止画像生成方法
 本開示は、ユーザが指定した画像領域に合焦した画像を記録可能な撮像装置および静止画像生成方法に関する。
 デジタルカメラの機能において、焦点位置を移動させながら連続撮影を行うフォーカスブラケット機能がある。この機能によれば、ユーザは画像撮影後に所望の合焦状態の画像を選択することができる。
 特許文献1は、フォーカスブラケット機能を有するデジタルカメラを開示する。このデジタルカメラは、算出手段と、制御手段と、を有する。算出手段は、フォーカスブラケット撮影機能による撮影で連続撮影された複数の画像各々の合焦状態を表す合焦評価値を算出する。制御手段は、算出手段により算出された複数の画像各々の合焦評価値に基づいて、合焦状態が良好な画像を選択し、当該選択した画像を表す画像データを記録媒体に記録するように記録手段の動作を制御する。これにより、撮影された複数の画像から合焦状態が良好な画像を選択して記録することを可能にしている。
特開2004-135029号公報
 本開示は、所望の画像領域(被写体)にピントがあった静止画像をユーザが容易に取得することができる撮像装置および静止画像生成方法を提供する。
 本開示の第一の態様において撮像装置が提供される。撮像装置は、光学系と、撮像素子と、画像処理部と、入力部と、制御部と、を備える。光学系は、フォーカスレンズを含む。撮像素子は、光学系を介して入力した光学情報から画像信号を生成する。画像処理部は、撮像素子により生成された画像信号に所定の処理を行い、複数のフレーム画像を含む動画データを生成する。入力部は、ユーザによる画像上の指定領域の入力を受け付ける。制御部は、光学系のフォーカス位置を移動させながら画像処理部に動画データを生成させ、動画データに含まれる複数のフレーム画像の中から指定領域にピントが合った静止画像を抽出する。
 本開示の第二の態様において、撮像装置における静止画像生成方法が提供される。その静止画像生成方法は、フォーカス位置を移動させながら複数のフレーム画像を含む動画データを生成するステップと、ユーザによる画像上の指定領域の入力を受け付けるステップと、動画データに含まれる複数のフレーム画像の中から、指定領域にピントが合った静止画像を抽出するステップと、を含む。
図1は、本開示に係るデジタルカメラの構成を示す図である。 図2は、デジタルカメラの背面図である。 図3Aは、ブラケット動作におけるフォーカスレンズの移動を説明した図である。 図3Bは、画像においてユーザによる合焦領域の指定を説明した図である。 図4は、動画データからの静止画の切り出しを説明した図である。 図5は、複数に分割された画像の領域を説明した図である。 図6Aは、合焦情報テーブルを説明した図である。 図6Bは、動画データのヘッダを説明した図である。 図7は、フォーカスブラケット動作を示すフローチャートである。 図8は、フォーカスブラケット撮影における動画記録動作を示すフローチャートである。 図9は、フォーカスブラケット撮影におけるフォーカスレンズの移動範囲を説明した図である。 図10は、動画データからの静止画生成処理を示すフローチャートである。 図11は、動画データの記録後に表示される画面を示す図である。 図12Aは、ユーザによる所望の合焦領域を指定する操作を説明した図である。 図12Bは、ユーザによる所望の合焦領域を指定する操作を説明した図である。 図13は、ユーザにより指定された領域に合焦した画像の表示例を示す図である。 図14は、コマ送り/コマ戻しによる画像の切替え原理を説明するための図である。 図15は、コマ送り/コマ戻しによる画像の切替え(コマ送り)処理を示すフローチャートである。 図16は、合焦フレーム(合焦位置)が明確でない分割領域に対する合焦フレームの決定処理を示すフローチャートである。 図17は、合焦フレーム(合焦位置)が明確でない分割領域に対する合焦フレームの決定方法を説明するための図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 以下、図面を用いて本開示に係る撮像装置の実施の形態を説明する。
 (第1の実施の形態)
 1.デジタルカメラの構成
 第1の実施の形態に係るデジタルカメラの電気的構成例について図1を用いて説明する。図1は、デジタルカメラ100の構成を示すブロック図である。デジタルカメラ100は、1又は複数のレンズからなる光学系110により形成された被写体像をCCD140で撮像する撮像装置である。CCD140で生成された画像データは、画像処理部160で各種処理が施され、メモリカード200に格納される。以下、デジタルカメラ100の構成を詳細に説明する。
 光学系110は、ズームレンズやフォーカスレンズ111を含む。ズームレンズを光軸に沿って移動させることにより、被写体像の拡大、又は縮小をすることができる。また、フォーカスレンズ111を光軸に沿って移動させることにより、被写体像のピント(合焦状態)を調整することができる。
 レンズ駆動部120は、光学系110に含まれる各種レンズを駆動させる。レンズ駆動部120は、例えばズームレンズを駆動するズームモータや、フォーカスレンズ111を駆動するフォーカスモータを含む。
 絞り部300は、ユーザの設定に応じて又は自動で開口部の大きさを調整し、開口部を透過する光の量を調整する。
 シャッタ130は、CCD140に透過させる光を遮光するための手段である。シャッタ130は、光学系110及び絞り部300とともに、被写体像を示す光学情報を制御する光学系部を構成する。また、光学系110及び絞り部300はレンズ鏡筒(図示せず)内に収納される。
 CCD140は、光学系110で形成された被写体像を撮像して、画像データを生成する。CCD140は、カラーフィルタと、受光素子と、AGC(Auto Gain Controller)とを含む。受光素子は、光学系110によって集光された光学的信号を電気信号に変換し、画像情報を生成する。AGCは、受光素子から出力された電気信号を増幅する。CCD140はさらに、露光、転送、電子シャッタなどの各種動作を行うための駆動回路等を含む。詳細については、後述する。
 ADC(A/Dコンバータ:アナログ-デジタル変換器)150は、CCD140で生成されたアナログ画像データをデジタル画像データに変換する。
 画像処理部160は、CCD140で生成され、変換されたデジタル画像データに対して、コントローラ180の制御を受け、各種処理を施す。画像処理部160は、表示モニタ220に表示するための画像データを生成したり、メモリカード200に格納するための画像データを生成したりする。例えば、画像処理部160は、CCD140で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部160は、CCD140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。画像処理部160は、DSP(Digital Signal Processor)やマイコンなどで実現可能である。また、画像処理部160は、CCD140で生成された画像データに基づいて、例えば、画素数4000×2000前後の動画の画像データ(4K動画データ)を生成することができる。画像処理部160は、生成した4K動画データに対して後述する種々の処理を行うことができる。
 コントローラ180は、デジタルカメラ100の全体を制御する制御手段である。画像処理部160やコントローラ180は、半導体素子などで実現可能である。コントローラ180は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。画像処理部160やコントローラ180は、マイコン、CPU、MPU、DSP、ASIC、FPGAなどで実現できる。
 バッファ170は、画像処理部160及びコントローラ180のワークメモリとして機能する。バッファ170は、例えば、DRAM(Dynamic Random Access Memory)、強誘電体メモリなどで実現できる。
 カードスロット190は、メモリカード200をデジタルカメラ100に装着するための手段である。カードスロット190は、機械的及び電気的にメモリカード200とデジタルカメラ100を接続可能である。
 メモリカード200は、フラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部160で生成された画像ファイル等のデータを格納可能である。
 内蔵メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内蔵メモリ240は、デジタルカメラ100全体を制御するための制御プログラムやデータ等を記憶している。
 操作部材210は、ユーザからの操作を受け付けるユーザーインターフェースの総称である。操作部材210は、ユーザからの操作を受け付けるボタン、レバー、ダイヤル、タッチパネル、スイッチ等を含む。また、操作部材210は、レンズ鏡筒の外周に設けられたフォーカスリングを含む。フォーカスリングは、フォーカスレンズ111を移動させるためにユーザにより回転操作される部材である。
 表示モニタ220は、CCD140で生成した画像データが示す画像(スルー画像)や、メモリカード200から読み出した画像データが示す画像を表示可能である。また、表示モニタ220は、デジタルカメラ100の各種設定を行うための各種メニュー画面等も表示可能である。表示モニタ220は、液晶表示デバイスや有機EL表示デバイスで構成される。
 図2は、デジタルカメラ100の背面を示した図である。図2では、操作部材210の例として、レリーズボタン211、選択ボタン213、決定ボタン214、タッチパネル222が示されている。操作部材210は、ユーザによる操作を受け付けると、コントローラ180に種々の指示信号を送信する。
 ユーザによる画像上の指定領域の入力は、タッチパネル222等の操作部材210を用いて、受け付けることができる。なお、ユーザによる画像上の指定領域の入力は、操作部材210を用いて受け付けることに代えて、図示しないWi-Fi等の無線通信部の無線通信機能を利用してデジタルカメラ100の外部から受け付けてもよい。この場合、無線通信部の受信部が、画像上の指定領域の入力を受信する。ユーザによる画像上の指定領域の入力を受け付ける、これらのタッチパネル222等の操作部材210とWi-Fi等の無線通信部を総称して入力部と呼ぶ。
 レリーズボタン211は、二段押下式の押下式ボタンである。レリーズボタン211がユーザにより半押し操作されると、コントローラ180はオートフォーカス制御(AF制御)やオート露出制御(AE制御)などを実行する。また、レリーズボタン211がユーザにより全押し操作されると、コントローラ180は、押下操作のタイミングに撮像された画像データを記録画像としてメモリカード200等に記録する。また、レリーズボタン211がユーザにより半押し操作された後、全押し操作を行わず、レリーズボタン211の押下を解除することで、操作を取りやめることも出来る。
 選択ボタン213は、上下左右方向に設けられた押下式ボタンである。ユーザは、上下左右方向のいずれかの選択ボタン213を押下することにより、カーソルを移動したり、表示モニタ220に表示される各種条件項目を選択したりすることができる。
 決定ボタン214は、押下式ボタンである。デジタルカメラ100が撮影モードあるいは再生モードにあるときに、決定ボタン214がユーザにより押下されると、コントローラ180は表示モニタ220にメニュー画面を表示する。メニュー画面は、撮影/再生のための各種条件を設定するための画面である。決定ボタン214が各種条件の設定項目が選択されているときに押下されると、コントローラ180は、選択された項目の設定を確定する。
 タッチパネル222は、表示モニタ220の表示画面と重畳して配置され、ユーザの指による表示画面上へのタッチ操作を検出する。これにより、ユーザは、表示モニタ220に表示された画像に対する領域の指定等の操作を行える。
 1.1 ブラケットフォーカス機能
 本実施形態のデジタルカメラ100は、合焦位置を変化させながら動画を撮影し、撮影した動画を構成する複数フレームの画像の中から1つのフレームを選択して記録するブラケットフォーカス機能を有する。ブラケットフォーカス機能では、例えば、画素数4000×2000前後の4K動画が記録される。このように4Kで記録された動画から、ユーザの指定に基づき選択された1つのフレーム画像を切り出して静止画を得る。
 具体的には、ブラケットフォーカス機能では、図3Aに示すように至近端側から無限端側(またはその逆)に向かってフォーカスレンズ111を移動させながら、すなわち、合焦位置を変化させながら動画撮影を行う。その後、図3Bに示すように、ユーザ50は、撮影された画像においてピントを合わせたい被写体52(すなわち領域)を指定する。デジタルカメラ100は、図4に示すように、動画を構成する複数フレーム画像の中から、ユーザの指定に基づき1つのフレーム画像を選択して、静止画として切り出して記録する。これにより、ユーザが指定した被写体(領域)に合焦した高画質の静止画を得ることができる。
 以上のようなブラケットフォーカスのために、本実施形態では、画像領域400を図5に示すような複数の領域に分割する。そして、分割した領域毎に、動画を構成する複数フレームの中から、その領域にピントが合っているフレーム(以下「合焦フレーム」という)を求め、求めた合焦フレームに関する情報を合焦情報テーブルに記録する。なお、デジタルカメラ100は、ブラケットフォーカス動作において動画を記録(撮影)する前にプリスキャン動作を行い、分割した各領域の合焦フレームを検出して合焦情報テーブルを生成する。
 図6Aは、合焦情報テーブルのデータ構造を示した図である。合焦情報テーブル60は、プリスキャン動作において最も至近端側でピントがあったときのフォーカスレンズ位置(Pnear)と、最も無限端側でピントがあったときのフォーカスレンズ位置(Pfar)と、分割した各領域に対する合焦フレームのフレーム番号とを格納する。合焦情報テーブル60は、図6Bに示すように、動画撮影により得られた動画データ65のヘッダ部63に格納される。
 2.ブラケットフォーカス動作
 以上のような構成を有するデジタルカメラ100のブラケットフォーカス動作を以下に説明する。
 図7のフローチャートを参照して、デジタルカメラ100のブラケットフォーカス動作における動画記録動作を説明する。デジタルカメラ100において予めフォーカスブラケット機能が有効に設定された状態で、ユーザによりレリーズボタン211が全押しされると、フォーカスブラケット動作が開始される。フォーカスブラケット動作は、動画記録動作(S01)と、静止画生成動作(S02)とを含む。動画記録動作では、フォーカスレンズ111を移動させながら動画を記録(撮影)する。静止画生成動作では、動画記録動作にて記録した動画データから、ユーザが指定する被写体(領域)に合焦された静止画を生成する。以下、それぞれの動作について詳細を説明する。
 2.1 動画記録動作
 図8は、動画記録動作(ステップS01)を説明したフローチャートである。コントローラ180はまず、画像における分割した領域のそれぞれについて合焦位置を検出して合焦情報テーブルを作成するためのプリスキャン動作を行う(S11)。
 プリスキャン動作では、コントローラ180は、フォーカスレンズ111を至近端から無限端に(またはその逆に)移動させながら、画像の分割した領域毎にコントラスト値を検出する(図5参照)。
 そして、コントローラ180は、プリスキャンの結果に基づき合焦情報テーブル60を作成する。具体的には、コントローラ180は、フォーカスレンズ111を至近端から無限端に移動させたときに、領域毎に、得られる複数のフレーム画像においてコントラスト値が最大となるフレームを合焦フレームとして求める。そして、コントローラ180は、その合焦フレームを示すフレーム番号を合焦情報テーブル60に記録する。なお、一の領域について、いずれのフレームのコントラスト値も所定の閾値よりも低い場合、当該領域については、合焦フレーム(すなわち合焦位置)が定まらないとし、合焦情報テーブル60には、合焦位置が不明であることを示す所定の値を記録する。
 コントローラ180はさらに、フォーカスレンズ111を至近端から無限端に移動させたときの、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)と、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)とを求める。そして、コントローラ180は、それらの値を合焦情報テーブル60に記録する。
 プリスキャン動作終了後、コントローラ180は、フォーカスレンズ111を至近端側に戻し、フォーカスレンズ111を所定の範囲内を移動させながら動画記録を行う(S12)。ここで、所定の範囲とは、図9に示すように、最も至近端側のフォーカスレンズ111の合焦位置(Pnear)から、最も無限端側のフォーカスレンズ111の合焦位置(Pfar)までの範囲である。フォーカスレンズ111の移動範囲をこのような範囲に制限することにより、合焦が得られない範囲においての動画記録が行われなくなり、動画記録の時間を低減できる。なお、動画記録は、動画データ用の所定のフォーマットに従い動画が記録される。例えば、MP4規格(H.264/MPEG-4 AVC方式)に従い動画が記録される。
 動画記録が終了すると、ヘッダ部63に合焦情報テーブル60を記録した動画データ65をメモリカード200に記録して(S13)、動画記録動作を終了する。
 2.2 動画データからの静止画生成
 図10のフローチャートを用いて、静止画生成動作(ステップS02)について説明する。静止画生成動作では、動画記録動作にて撮影した動画から、ユーザが指定する被写体(領域)に合焦された静止画が生成される。
 コントローラ180は、直前に記録した動画を表示モニタ220に表示する(S21)。例えば、図11に示すように、直前に記録した動画が表示モニタ220に表示される。このとき、記録した動画を構成する複数のフレーム画像の中の1つ(静止画)を表示してもよい。
 ユーザは、カメラ背面に設けられたタッチパネル222を操作して、表示されている画像上で、ピントを合わせたい被写体(すなわち領域)を指定する。例えば、図12Aに示すように、ユーザ50は被写体52をタッチすることで、合焦させたい対象(領域)として被写体52を指定する。
 ユーザにより被写体(すなわち領域)が指定されると(S22でYES)、コントローラ180は、合焦情報テーブル60を参照して、ユーザにより指定された領域に対する合焦フレームを特定する(S23)。例えば、図12Aに示すように、被写体52がユーザにより指定された場合、図12Bに示すように、コントローラ180は被写体52に対応する領域42を特定し、合焦情報テーブル60を参照して、その領域42に対する合焦フレームのフレーム番号を取得する。
 そして、コントローラ180は、特定したフレーム番号のフレーム画像を表示モニタ220に表示する(S24)。例えば、図13の(A)に示す画像において被写体52がユーザ50により指定されると、図13の(B)に示すように、指定された被写体52に合焦した画像が表示される。
 ユーザは、表示モニタ220に表示された画像が所望のものである場合、決定ボタン214の押下により、その画像を記録すべき静止画として確定することができる。一方、ユーザは表示モニタ220に表示された画像が所望のものでない場合、選択ボタン213やフォーカスリングの操作により、表示モニタ220に表示させる画像を切り替えることができる。
 ユーザによる画像を切り替える操作がなされると(S27)、コントローラ180は、表示モニタ220に表示される画像を操作に応じて切り替える(S28)。ユーザは、切り替え操作を適宜行うことで所望の画像を表示モニタ220に表示させることができる。この表示画像の切り替え動作の詳細は後述する。
 ユーザにより決定ボタン214が押下されると(S25)、表示中の画像(フレーム画像)が静止画として切り出されて、メモリカード200に記録される(S26)。例えば、決定ボタン214が押下されると、表示モニタ220にユーザに対する確認メッセージが表示されるようにしてもよい。そして、確認メッセージに対してユーザの指示(「はい」)が入力されると、コントローラ180は、動画データから表示中のフレーム画像のデータを抽出し、静止画としてメモリカード200に記録するようにしてもよい。なお、静止画データは、メモリカード200に代えて又はそれに加えて、内蔵メモリ240や他の記録媒体に記録されてもよい。また、静止画データは、メモリカード200等の記録媒体に記録されることに代えて又はそれに加えて、図示しないWi-Fi等の無線通信部の無線通信機能を利用してデジタルカメラ100の外部に送信されてもよい。この場合、静止画データは、無線通信部の送信部からデジタルカメラ100の外部に送信される。
 動画データは動画用コーデック(H.264やH.265など)により記録されており、フレーム間圧縮が行われている。このため、動画データのフレームを切り出して静止画として切り出す際に、コントローラ180は、フレーム画像のデータを静止画用のフォーマット(例えば、JPEG)に変換して記録する。
 以上のようにして、ユーザが指定した領域にピントが合った静止画データを動画データから切り出すことができる。すなわち、ユーザは所望の被写体に合焦した画像を得ることができる。
 2.2.1 画像の切り替え(コマ送り)
 図10のフローチャートにおけるステップS27~S28の表示画像の切り替え(コマ送り)動作について説明する。
 ユーザによる合焦領域の指定後、表示モニタ220に表示された画像がユーザの所望のものでない場合、ユーザは選択ボタン213やフォーカスリングの操作により、表示モニタ220に表示させる画像を切り替えることができる(S27~S28)。例えば、フォーカスリングを時計回りに回転させることで表示画像を時間的に前後のフレームの画像に切り替える、すなわち、コマ送りすることができる。
 特に、本実施形態では、図14に示すように、順方向に(時間的に後に)コマ送りする場合は、1フレームずつコマ送りするが、逆方向に(時間的に前に)コマ送りする場合は、直前のIピクチャ(Intra Picture)まで戻る。すなわち、順方向のコマ送り操作がなされた場合、表示モニタ220上には、現在表示されているフレーム画像の一つ後のフレームの画像が表示される。一方、逆方向のコマ送り操作がなされた場合、表示モニタ220上には、現在表示されているフレーム画像よりも時間的に前にあるIピクチャのうち、現在表示されているフレーム画像に最も近いIピクチャの画像が表示される。
 このようなコマ送り制御を行うのは、次に表示される画像がPピクチャ(Predictive Picture)の場合に、順方向のコマ送りと逆方向のコマ送りの場合とで処理時間が大きく異なるからである。すなわち、次に表示される画像がPピクチャである場合、順方向にコマ送りする場合、現在のフレームの画像情報に、現フレームの直後のフレームの画像情報を加算することで生成することができる。しかし、逆方向にコマ送りする場合、次に表示される画像は、現在のフレームよりも前にあるIピクチャから現在のフレームの直前のフレームまでの画像情報を積算して生成する必要があり、処理時間を要する。このため、逆方向にコマ送りする場合は、直前のIピクチャまで戻ることにし、表示に要する処理時間を短縮している。
 図15は、表示画像の切り替え(コマ送り)動作を示すフローチャートである。ユーザにより指定された領域に合焦された画像が表示モニタ220に表示された状態において、ユーザにより順方向のコマ送り操作があった場合(S51でYES)、コントローラ180は、現フレームの1フレーム後のフレーム画像を表示する(S52)。
 一方、ユーザにより逆方向のコマ送り操作があった場合(S53でYES)、コントローラ180は、現フレームよりも前にあるIピクチャの中で現フレームに最も近いIピクチャの画像を表示する(S54)。この場合、例えば、ユーザに直前のフレームではないフレームに切り替わったことを通知するための表示を表示モニタ220に表示してもよい。
 なお、コマ送りさせるための操作部材として、フォーカスリングや選択ボタンの他にジョグダイヤルを用いてもよい。また、表示モニタ220上にコマ送りボタンを表示させてもよい。ユーザはこのコマ送りボタンを操作することで、表示されている画像を時間的に前後に移動させることができる。
 また、上記の説明では、動画データのGOP(Group Of Picture)をIピクチャとPピクチャのみで構成する例を説明したが、さらに、Bピクチャ(Bidirectionally Predictive Picture)を含めても良い。
 2.2.2 合焦フレーム(合焦位置)不明時の処理
 前述のように、合焦情報テーブル60の作成時において、一の領域について、いずれのフレームのコントラスト値も所定の閾値よりも低い場合、当該領域については、合焦フレーム(すなわち合焦位置)が定まらないとし、合焦情報テーブル60には、合焦位置が不明であることを示す所定の値が記録される。
 図10のフローチャートにおけるステップS23において、ユーザにより指定された領域に対して合焦情報テーブル60を参照して合焦フレームを特定する場合に、その領域に対する合焦位置が不明であった場合は、以下の処理を行い合焦フレーム(すなわち合焦位置)を決定する。
 図16は、合焦位置が不明である領域に対して合焦フレームを決定する処理を示すフローチャートである。ユーザが指定した被写体の領域に対する合焦位置が不明である場合(S71)、コントローラ180は、その領域の周囲にある領域であって、且つ合焦位置が不明である領域を検出する(S72)。例えば、図17に示すように、コントローラ180は、合焦位置が不明である領域45の周囲にある、合焦位置が不明な他の領域群46を検出する。
 次に、コントローラ180は、合焦位置が不明な領域群45、46の周囲にあり、且つ、合焦位置(すなわち、合焦フレーム)が明確な領域群47を検出する(S73)。コントローラ180は、検出した合焦位置(すなわち、合焦フレーム)が明確な領域群47のそれぞれに対する合焦フレームにおいて最も多い数の合焦フレームを、合焦位置が不明な領域45に対する合焦フレームに決定する(S74)。
 以上のようにして、合焦位置が不明である領域に対して合焦フレームを決定することができる。
 3.効果、等
 本実施形態のデジタルカメラ100は、光学系110と、CCD140(撮像素子の一例)と、画像処理部160と、操作部材210(入力部の一例)と、コントローラ180と、を備える。光学系110は、フォーカスレンズ111を含む。CCD140は、光学系110を介して入力した光学情報から画像信号を生成する。画像処理部160は、CCD140により生成された画像信号に所定の処理を行い、複数のフレーム画像を含む動画データを生成する。操作部材210は、ユーザによる画像上の指定領域の入力を受け付ける。コントローラ180は、光学系110のフォーカス位置を移動させながら画像処理部160に動画データを生成させ、動画データに含まれる複数のフレーム画像の中から指定領域にピントが合った静止画像を抽出する。コントローラ180が、抽出した静止画像をメモリカード200(所定の記録媒体の一例)に記録してもよい。
 以上のように、本実施形態のデジタルカメラ100は、フォーカス位置を変更しながら撮像した動画データから、ユーザにより指定された領域にピントが合った静止画像(フレーム画像または合焦フレーム)を抽出する。よって、ユーザは、画像の領域をタッチにより指定することで、所望の画像領域(被写体)にピントが合った静止画を容易に得ることができる。また、連続的にフォーカス位置を変化させながら撮影した動画から静止画を生成するため、動画撮影時の画角内に含まれる任意の被写体に対してピントがあった画像を得ることが出来る。
 また、デジタルカメラ100は、画像データの画像領域を分割して得られる複数の領域の各々と、各領域にピントが合ったフレーム画像を示す情報とを関連づけて管理する合焦情報テーブル60(テーブルの一例)を格納してもよい。コントローラ180は、合焦情報テーブル60を参照して、ユーザにより指定された領域にピントが合ったフレーム画像を特定できる。
 また、コントローラ180は、動画記録の動作よりも前に、フォーカスレンズを移動しながら各領域に対する合焦状態を検出して合焦情報テーブル60を生成するプリスキャン動作を行ってもよい。
 また、コントローラ180は、プリスキャン動作の結果得られた、至近端に最も近い合焦位置(Pnear)と無限端に最も近い合焦位置(Pfar)との間で、フォーカスレンズを移動しながら動画の記録を行ってもよい。これにより、合焦がないフォーカスレンズ位置の範囲での動画記録がなされないため、効率よく動画の記録ができる。
 コントローラ180は、一の領域について、ピントがあったフレーム画像が得られなかったときは、一の領域の周囲にある領域群であってかつそれぞれの領域にピントが合ったフレーム画像が得られている領域群に対するフレーム画像から、一の領域にピントが合ったフレーム画像を求めてもよい。これにより、合焦が得られなかった領域が選択された場合でも、その領域の付近の領域でピントが合った画像が静止画として記録される。
 デジタルカメラ100は、ユーザが領域を指定するためのフレーム画像を表示する表示モニタ220(表示部の一例)をさらに備えてもよい。動画データは、他のフレーム画像の情報を参照せずに生成されるIピクチャ(第1の画像の一例)と、Iピクチャを参照して生成されるPピクチャ(第2の画像の一例)とを含む。コントローラ180は、表示モニタ220に表示されたフレーム画像に対して、ユーザにより順方向への画像切替え操作がなされたときは、現在表示中のフレーム画像から時間的に1つ後のフレーム画像を表示させるようにしてもよい。これに対し、コントローラ180は、表示モニタ220に表示されたフレーム画像に対して、ユーザにより逆方向への画像切替え操作がなされたときは、現在表示中のフレーム画像の時間的に前にあるIピクチャのうち、現在表示中のフレーム画像に最も近いIピクチャを表示させるようにしてもよい。これにより、迅速な画像の表示切り替えが可能となり、ユーザの利便性を確保できる。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、第1の実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記第1の実施の形態で説明した構成要素と他の要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 (1)上記の実施形態では、フォーカスブラケット動作において、動画記録の前にプリスキャン動作を行って合焦情報テーブル60を作成した。プリスキャン動作により合焦が得られる境界の合焦位置を認識できるため、動画記録時にフォーカスレンズを移動させる有効な範囲を設定できるので、効率良く動画記録ができるというメリットがある。しかし、プリスキャン動作は必須ではなく、動画記録時に同時に合焦情報テーブル60を作成してもよい。この方法の場合、動画記録時と合焦情報生成時の画角が変化しないというメリットがある。
 (2)上記の実施形態では、合焦情報テーブル60は、最も至近端側の合焦位置(Pnear)と最も無限端側の合焦位置(Pfar)とを格納した。しかし、これらの合焦位置(Pnear、Pfar)は、必ずしも合焦情報テーブル60に格納される必要はなく、合焦情報テーブル60とは独立して保持されてもよい。
 (3)上記の実施形態では、合焦情報テーブル60は、画像の領域毎に、その領域に合焦したフレーム(合焦フレーム)を示す情報(フレーム番号)を格納した。しかし、合焦情報テーブル60の構成はこれに限定されない。合焦情報テーブルは、画像の領域毎に、各領域にピントがあったときのフォーカスレンズ111の位置を格納してもよい。この場合は、さらに、動画記録時にフォーカスレンズ位置と、各フレームとの関係を示す第2のテーブルを作成すればよい。静止画切り出し時には、合焦情報テーブルと第2のテーブルとを参照することで、動画から切り出すフレーム画像を特定できる。
 (4)上記の実施形態では、オートフォーカス方式としてコントラストAFを用いたが、位相差AFを用いてもよい。
 (5)上記の実施形態に開示したフォーカスブラケット機能は、レンズ交換式カメラ及びレンズ一体型カメラの双方の種類のデジタルカメラに対して適用できる。
 (6)上記の実施形態では、撮像装置の一例としてデジタルカメラを用いて説明したが、撮像装置はこれに限定されない。本開示の思想は、デジタルビデオカメラ、スマートフォン、ウェアラブルカメラ等の動画が撮影できる種々の撮像装置に対して適用することができる。
 (7)上記の実施形態では、撮像素子をCCDで構成したが、撮像素子はこれに限定されない。撮像素子はNMOSイメージセンサやCMOSイメージセンサで構成してもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、動画を撮影できる撮像装置および静止画像生成方法に対して適用可能である。具体的には、デジタルビデオカメラ、スマートフォン、ウェアラブルカメラ等の動画が撮影できる種々の撮像装置および静止画像生成方法に対して適用することができる。
 100 デジタルカメラ(撮像装置)
 110 光学系
 111 フォーカスレンズ
 120 レンズ駆動部
 130 シャッタ
 140 CCD(撮像素子)
 150 A/Dコンバータ
 160 画像処理部
 170 バッファ
 180 コントローラ(制御部)
 190 カードスロット
 200 メモリカード
 210 操作部材(入力部)
 220 表示モニタ
 240 内蔵メモリ
 300 絞り部

Claims (8)

  1.  フォーカスレンズを含む光学系と、
     前記光学系を介して入力した光学情報から画像信号を生成する撮像素子と、
     前記撮像素子により生成された画像信号に所定の処理を行い、複数のフレーム画像を含む動画データを生成する画像処理部と、
     ユーザによる画像上の指定領域の入力を受け付ける入力部と、
     前記光学系のフォーカス位置を移動させながら前記画像処理部に前記動画データを生成させ、前記動画データに含まれる前記複数のフレーム画像の中から前記指定領域にピントが合った静止画像を抽出する制御部と、を備える、
    撮像装置。
  2.  前記制御部は、前記動画データの複数の分割領域について前記複数のフレーム画像のうちピントが合ったフレーム画像を示す情報を含むテーブルを作成し、前記テーブルを参照して、前記指定領域にピントが合ったフレーム画像を前記静止画像として特定する、
    請求項1記載の撮像装置。
  3.  前記制御部は、動画データを生成させるよりも前に、前記光学系のフォーカス位置を移動させながら各領域に対する合焦状態を検出するスキャン動作を行い、前記スキャン動作の結果を前記テーブルの生成に用いる、
    請求項2記載の撮像装置。
  4.  前記制御部は、前記スキャン動作の結果得られた、至近端に最も近い合焦位置と無限端に最も近い合焦位置との間で、前記光学系のフォーカス位置を移動させながら動画データの生成を行う、
    請求項3記載の撮像装置。
  5.  前記制御部は、一の領域について、ピントがあったフレーム画像が得られなかったときは、前記一の領域の周囲にある領域群であってかつそれぞれの領域にピントが合ったフレーム画像が得られている領域群に対するフレーム画像から、前記一の領域にピントが合ったフレーム画像を求める、
    請求項2記載の撮像装置。
  6.  前記指定領域を入力するためのフレーム画像を表示する表示部をさらに備え、
     前記動画データは、他のフレーム画像の情報を参照せずに生成される第1のフレーム画像と、前記第1のフレーム画像を参照して生成される第2のフレーム画像とを含み、
     前記制御部は、前記表示部に表示されたフレーム画像に対して、ユーザにより順方向への画像切替え操作がなされたときは、現在表示中のフレーム画像から時間的に1つ後のフレーム画像を表示し、逆方向への画像切替え操作がなされたときは、現在表示中のフレーム画像の時間的に前にある第1のフレーム画像のうち、現在表示中のフレーム画像に最も近い第1のフレーム画像を表示させる、
    請求項1記載の撮像装置。
  7.  前記制御部は、抽出した前記静止画像を記録媒体に記録する、
    請求項1ないし6のいずれかに記載の撮像装置。
  8.  撮像装置における静止画像生成方法であって、
     フォーカス位置を移動させながら複数のフレーム画像を含む動画データを生成するステップと、
     ユーザによる画像上の指定領域の入力を受け付けるステップと、
     前記動画データに含まれる前記複数のフレーム画像の中から、前記指定領域にピントが合った静止画像を抽出するステップと、を含む、
    静止画像生成方法。
PCT/JP2016/003096 2015-07-07 2016-06-28 撮像装置および静止画像生成方法 WO2017006538A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016567699A JP6347056B2 (ja) 2015-07-07 2016-06-28 撮像装置および静止画像生成方法
EP16788002.0A EP3145172B1 (en) 2015-07-07 2016-06-28 Image capturing device and still image generating method
US15/337,032 US10038835B2 (en) 2015-07-07 2016-10-28 Image pickup device and still picture generating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015135967 2015-07-07
JP2015-135967 2015-07-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/337,032 Continuation US10038835B2 (en) 2015-07-07 2016-10-28 Image pickup device and still picture generating method

Publications (1)

Publication Number Publication Date
WO2017006538A1 true WO2017006538A1 (ja) 2017-01-12

Family

ID=57685366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003096 WO2017006538A1 (ja) 2015-07-07 2016-06-28 撮像装置および静止画像生成方法

Country Status (4)

Country Link
US (1) US10038835B2 (ja)
EP (1) EP3145172B1 (ja)
JP (1) JP6347056B2 (ja)
WO (1) WO2017006538A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11265456B2 (en) 2018-05-22 2022-03-01 SZ DJI Technology Co., Ltd. Control device, photographing device, mobile object, control method, and program for image acquisition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135029A (ja) 2002-10-10 2004-04-30 Fuji Photo Film Co Ltd デジタルカメラ
JP2008252685A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd 画像符号化装置およびそれを用いた撮像装置
JP2010206552A (ja) * 2009-03-03 2010-09-16 Ricoh Co Ltd 撮像装置、再生表示装置、撮像記録方法および再生表示方法
JP2015023487A (ja) * 2013-07-22 2015-02-02 株式会社ニコン 画像処理装置、画像表示装置、撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4507392B2 (ja) * 2000-11-15 2010-07-21 株式会社ニコン 電子カメラ
JP2004015212A (ja) * 2002-06-04 2004-01-15 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4241460B2 (ja) * 2004-03-25 2009-03-18 キヤノン株式会社 電子撮像装置
JP5094070B2 (ja) * 2006-07-25 2012-12-12 キヤノン株式会社 撮像装置、撮像方法、プログラム、及び記憶媒体
EP2060120A4 (en) * 2006-09-07 2012-01-04 Thomson Licensing METHOD AND APPARATUS FOR COORDING GROUPS OF IMAGES OF A VIDEO SEQUENCE, IN WHICH EACH OF THE GROUPS CONTAINS AN INTRA-CODED IMAGE AND MORE THAN TWO PREPARED CODED IMAGES
JP2010097167A (ja) * 2008-09-22 2010-04-30 Fujinon Corp オートフォーカス装置
JP5163446B2 (ja) * 2008-11-25 2013-03-13 ソニー株式会社 撮像装置、撮像方法及びプログラム
JP2013088579A (ja) * 2011-10-17 2013-05-13 Olympus Imaging Corp 撮像装置
KR20140007529A (ko) * 2012-07-09 2014-01-20 삼성전자주식회사 카메라의 이미지 촬영장치 및 방법
KR101952684B1 (ko) * 2012-08-16 2019-02-27 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
JP6204660B2 (ja) * 2012-12-21 2017-09-27 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004135029A (ja) 2002-10-10 2004-04-30 Fuji Photo Film Co Ltd デジタルカメラ
JP2008252685A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd 画像符号化装置およびそれを用いた撮像装置
JP2010206552A (ja) * 2009-03-03 2010-09-16 Ricoh Co Ltd 撮像装置、再生表示装置、撮像記録方法および再生表示方法
JP2015023487A (ja) * 2013-07-22 2015-02-02 株式会社ニコン 画像処理装置、画像表示装置、撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3145172A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11265456B2 (en) 2018-05-22 2022-03-01 SZ DJI Technology Co., Ltd. Control device, photographing device, mobile object, control method, and program for image acquisition

Also Published As

Publication number Publication date
JPWO2017006538A1 (ja) 2017-07-06
EP3145172A1 (en) 2017-03-22
US10038835B2 (en) 2018-07-31
JP6347056B2 (ja) 2018-06-27
EP3145172A4 (en) 2017-08-02
US20170048448A1 (en) 2017-02-16
EP3145172B1 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US10234653B2 (en) Imaging device with focus lens stopped at each of focus positions during video capturing
US10282825B2 (en) Image processing apparatus and imaging apparatus
JP6598028B2 (ja) 撮像装置
US10412321B2 (en) Imaging apparatus and image synthesis method
JP6300076B2 (ja) 撮像装置、撮像方法及びプログラム
US20170264819A1 (en) Imaging device
JP6435527B2 (ja) 撮像装置
JP6865395B2 (ja) 撮像装置
JP2018046535A (ja) 撮像装置
WO2017006538A1 (ja) 撮像装置および静止画像生成方法
JP6603892B2 (ja) 撮像装置
US9648220B2 (en) Imaging apparatus, imaging apparatus body and image sound output method
JP2016218106A (ja) 撮像装置
JP2018098764A (ja) 撮像装置および画像合成方法
JP6346398B2 (ja) 撮像装置および撮像方法
JP2011242796A (ja) 撮像装置、合焦方法及びプログラム
JP6409083B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP2017152759A (ja) 撮像装置
JP2017167518A (ja) 撮像装置
JP2018046542A (ja) 画像処理装置及び撮像装置

Legal Events

Date Code Title Description
REEP Request for entry into the european phase

Ref document number: 2016788002

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2016788002

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016567699

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16788002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE