WO2016071952A1 - 撮像装置、撮像方法、およびプログラム - Google Patents

撮像装置、撮像方法、およびプログラム Download PDF

Info

Publication number
WO2016071952A1
WO2016071952A1 PCT/JP2014/079200 JP2014079200W WO2016071952A1 WO 2016071952 A1 WO2016071952 A1 WO 2016071952A1 JP 2014079200 W JP2014079200 W JP 2014079200W WO 2016071952 A1 WO2016071952 A1 WO 2016071952A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
operations
information
module
attached
Prior art date
Application number
PCT/JP2014/079200
Other languages
English (en)
French (fr)
Inventor
石井 謙介
さおり 松本
新 篠崎
希伊子 高松
由貴 佐藤
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2014/079200 priority Critical patent/WO2016071952A1/ja
Priority to JP2015519111A priority patent/JP5830632B1/ja
Publication of WO2016071952A1 publication Critical patent/WO2016071952A1/ja
Priority to US15/581,257 priority patent/US10284767B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Definitions

  • the present invention relates to an imaging apparatus, an imaging method, and a program.
  • Patent Document 1 discloses a camera in which an optical finder and an electronic finder can be attached, and the operation of the monitor display is changed according to the type of the finder device attached to the camera.
  • finder devices are small. It may be difficult for the user to confirm the imaging setting by confirming the optical image or image displayed by the viewfinder device. For this reason, there are cases where imaging settings are not suitable for a scene or the like, that is, imaging settings are significantly different from optimal settings. Therefore, when the finder device is attached to the imaging apparatus, the imaging apparatus may fail to capture an image preferable for the user.
  • imaging device there is a small imaging device that does not have a display interface.
  • An imaging device is connected to the display device, and the display device can display imaging settings in the imaging device.
  • imaging settings can be confirmed and imaging can be performed with a finder device connected to the imaging apparatus.
  • the imaging device need not be connected to the display device.
  • the imaging apparatus may fail to capture an image preferable for the user.
  • Patent Document 1 The operation of the camera disclosed in Patent Document 1 is the same regardless of whether or not a finder device is attached. For this reason, there is a possibility that the camera disclosed in Patent Document 1 may fail to capture an image preferable for the user.
  • the present invention provides an imaging apparatus, an imaging method, and a program that can reduce the degree to which imaging settings differ from optimal settings.
  • the imaging device detects whether an imaging module that captures an image and generates an image, and whether or not the finder device is attached to the imaging device,
  • An optical image or an image output from the imaging module, and the finder device includes a detection unit that can be attached to and detached from the imaging device, and first information and second information.
  • the first information indicates one or more first operations that can be executed when the finder device is attached to the imaging apparatus, and the second information is stored in the finder device.
  • a plurality of second operations that can be executed when not mounted on the imaging device are shown, and the one or more first operations are the same as any one or more of the plurality of second operations.
  • the plurality of second operations include a storage module including an operation different from any of the one or more first operations and the viewfinder device is mounted on the imaging apparatus. , Controlling the imaging module or the lens module connected to the imaging module so that the first operation based on the first information is performed, and detecting that the finder device is not attached to the imaging device And a control unit that controls the imaging module or the lens module so that the second operation based on the second information is performed.
  • the first operation and the second operation may be operations for controlling at least one of a shutter speed and an aperture.
  • the first operation and the second operation may be operations for controlling focus.
  • the first operation and the second operation may be operations for controlling exposure.
  • the first operation and the second operation may be operations for controlling an angle of view.
  • the one or more first operations are operations for performing continuous imaging a plurality of times
  • the plurality of second operations are An operation of performing continuous multiple imaging and an operation of performing imaging only once may be included.
  • the finder device has an eyepiece sensor, outputs eyepiece information indicating whether an eye is approaching the eyepiece sensor, and the detection The unit further detects, based on the eyepiece information, whether or not the eye is approaching the eyepiece sensor, the control unit detects that the viewfinder device is attached to the imaging device, and When it is detected that the eye is approaching the eyepiece sensor, the imaging module may be controlled so that the first operation based on the first information is performed.
  • the imaging device detects whether an imaging module that captures an image and generates an image, and whether or not the finder device is attached to the imaging device.
  • An optical image or an image output from the imaging module, and the finder device includes a detection unit that can be attached to and detached from the imaging device, and first information and second information.
  • the first information indicates one or more first operations that can be executed when the finder device is attached to the imaging apparatus, and the second information is stored in the finder device.
  • a plurality of second operations that can be executed when not mounted on the imaging device are shown, and the one or more first operations are the same as any one or more of the plurality of second operations.
  • the plurality of second operations include a storage module including an operation different from any of the one or more first operations and the viewfinder device is mounted on the imaging apparatus. If the image processing is controlled so that the first operation based on the first information is performed, and it is detected that the finder device is not attached to the imaging device, the second information is based on the second information.
  • a control unit that controls the image processing so that the second operation is performed, and the one or more first operations are operations for performing the image processing a plurality of times in succession.
  • the plurality of second operations include an operation of performing the image processing a plurality of times in succession and an operation of performing the image processing only once.
  • the imaging method detects whether or not a finder device is attached to the imaging device, and the finder device generates an image by performing an optical image or imaging of a subject.
  • An image output from the imaging module is displayed, and it is detected that the finder device can be attached to and detached from the imaging device, and that the finder device is attached to the imaging device.
  • the imaging module or the lens module connected to the imaging module is controlled so that the first operation based on the first information is performed, and it is detected that the finder device is not attached to the imaging device.
  • the imaging module or the lens module is controlled so that the second operation based on the second information is performed,
  • the first information indicates one or a plurality of the first operations that can be performed when the finder device is attached to the imaging device, and the second information indicates that the finder device captures the image.
  • a plurality of the second operations that can be performed when not attached to the apparatus are shown, wherein the one or more first operations are the same as any one or more of the plurality of second operations.
  • the plurality of second operations include a step including an operation different from any of the one or more first operations.
  • the program detects whether or not a finder device is attached to the imaging apparatus, and the finder device performs an optical image of a subject or imaging that generates an image by imaging.
  • An image output from a module is displayed, and when the finder device detects that the finder device can be attached to and detached from the imaging device and that the finder device is attached to the imaging device.
  • the imaging module or the lens module connected to the imaging module is controlled so that the first operation based on the first information is performed, and it is detected that the finder device is not attached to the imaging device. Control the imaging module or the lens module so that the second operation based on the second information is performed.
  • the first information indicates one or more of the first operations that can be performed when the finder device is attached to the imaging device
  • the second information is the A plurality of the second operations that can be executed when not mounted on an imaging device are shown, and the one or more first operations are the same as any one or more of the plurality of second operations.
  • the plurality of second operations is a program for causing a computer of the imaging apparatus to execute a step including an operation different from any of the one or more first operations.
  • the executable operations are limited as compared to the case where the finder device is not attached to the imaging device. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting.
  • FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. It is a flowchart which shows the procedure of operation
  • FIG. 1 shows the configuration of an imaging apparatus 10a according to the first embodiment of the present invention.
  • the imaging device 10a includes an imaging module 100, a detection unit 101a, a storage module 102a, and a control unit 103a.
  • the imaging module 100 performs imaging and generates an image (image data).
  • the detection unit 101a detects whether or not the finder device 20a is attached to the imaging device 10a. For example, the detection unit 101a mechanically detects whether or not the finder device 20a is attached to the imaging device 10a. The detection unit 101a may electrically detect whether or not the finder device 20a is attached to the imaging device 10a.
  • the viewfinder device 20a displays an optical image of a subject or an image output from the imaging module 100. The viewfinder device 20a can be attached to and detached from the imaging device 10a.
  • the finder device 20a may be either an optical finder or an electronic finder. When the finder device 20a is an electronic finder, the finder device 20a displays an image generated by the imaging module 100.
  • the storage module 102a stores the first information and the second information.
  • the storage module 102a is a volatile or non-volatile recording medium.
  • the first information indicates one or more first operations that can be performed when the finder device 20a is attached to the imaging device 10a.
  • the second information indicates a plurality of second operations that can be performed when the finder device 20a is not attached to the imaging device 10a.
  • the one or more first operations are the same as any one or more of the plurality of second operations.
  • the plurality of second operations includes the same operation as the one or more first operations.
  • the plurality of second operations include operations different from any of the one or more first operations. That is, the one or more first operations are included in the plurality of second operations.
  • the first operation and the second operation are operations for controlling the state of the imaging module 100 or the lens module connected to the imaging module 100.
  • the first information and the second information are at least one of imaging mode information, control algorithm information, operation information for setting a specific imaging parameter, and information for multiple or one imaging. It is.
  • the degree to which the imaging setting such as the focus is different from the optimal setting is more easily reduced on average than the second operation.
  • the control unit 103a When it is detected that the finder device 20a is attached to the imaging apparatus 10a, the control unit 103a is connected to the imaging module 100 or the imaging module 100 so that the first operation based on the first information is performed. Control the lens module. When it is detected that the finder device 20a is not attached to the imaging device 10a, the control unit 103a is connected to the imaging module 100 or the imaging module 100 so that the second operation based on the second information is performed. Control the lens module. That is, when it is detected that the finder device 20a is attached to the imaging device 10a, the control unit 103a can perform fewer operations than when the finder device 20a is not attached to the imaging device 10a. As such, it limits the operations that can be performed.
  • the computer of the imaging apparatus 10a may read a program including instructions that define the operations of the detection unit 101a and the control unit 103a, and execute the read program. That is, the functions of the detection unit 101a and the control unit 103a may be realized by software.
  • This program may be provided by a “computer-readable recording medium” such as a flash memory.
  • the above-described program may be transmitted from the computer having a storage device or the like in which the program is stored to the imaging device 10a via a transmission medium or by a transmission wave in the transmission medium.
  • a “transmission medium” for transmitting a program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the above-described program may realize a part of the functions described above.
  • the above-described program may be a so-called difference file (difference program) that can realize the above-described function in combination with a program already recorded in the
  • FIG. 2 shows an operation procedure of the imaging apparatus 10a related to imaging control.
  • the operation of the imaging apparatus 10a relating to imaging control will be described.
  • the operation illustrated in FIG. 2 is performed when the power supply of the imaging apparatus 10a transitions from OFF to ON, that is, when the imaging apparatus 10a is activated.
  • the detection unit 101a detects the mounting state of the finder device 20a with respect to the imaging device 10a (step S100). That is, in step S100, the detection unit 101a detects whether or not the finder device 20a is attached to the imaging device 10a. After detecting the mounting state of the finder device 20a, the detection unit 101a determines whether or not the finder device 20a is mounted on the imaging device 10a based on the mounting state of the finder device 20a detected in step S100. (Step S105).
  • the control unit 103a reads the first information from the storage module 102a.
  • the controller 103a controls the imaging module 100 or the lens module so that the first operation based on the read first information is performed (step S110).
  • the imaging module 100 or the lens module performs a first operation according to control by the control unit 103a.
  • the finder device 20a is an electronic finder
  • the finder device 20a displays an image generated by the imaging module 100 before the first operation is performed.
  • the control unit 103a reads the second information from the storage module 102a.
  • the control unit 103a controls the imaging module 100 or the lens module so that the second operation based on the read second information is performed (step S115).
  • the imaging module 100 or the lens module performs the second operation according to the control by the control unit 103a.
  • step S110 when there are a plurality of first operations that can be selected based on the first information, one first operation is selected by the following method. For example, when one first operation is selected in advance and setting information indicating the selected first operation is stored in the storage module 102a, the control unit 103a selects one operation based on the setting information. Select the first action.
  • the setting information indicates one first operation set by default in the imaging device 10a.
  • the setting information may indicate one first operation selected in advance by the user.
  • the setting information may indicate one first operation that was selected when the imaging device 10a was previously used and the process of step S110 was performed.
  • the control unit 103a may acquire an image from the imaging module 100 and select one first operation based on the acquired image state.
  • the setting information may indicate one first operation selected based on the state of the image.
  • one second operation may be selected by the same method as described above.
  • the operation of the imaging device 10a related to the imaging control ends.
  • the imaging module 100 performs imaging and generates a still image.
  • the first operation and the second operation may include an operation of capturing an image and generating a still image.
  • the operation shown in FIG. 2 may be performed at a timing other than when the power supply of the imaging apparatus 10a transitions from off to on.
  • the operation illustrated in FIG. 2 may be performed after the imaging device 10a is activated.
  • the operation shown in FIG. 2 may be repeated.
  • the detection of the attachment state of the finder device 20a is periodically performed, and when the attachment state of the finder device 20a changes, the first operation or the second operation is performed according to the attachment state of the finder device 20a. May be.
  • the imaging apparatus 10a including the imaging module 100, the detection unit 101a, the storage module 102a, and the control unit 103a is configured.
  • an imaging method including Step S100 and Step S110 or Step S115 is configured.
  • step S100 it is detected whether or not the finder device 20a is attached to the imaging device 10a.
  • step S110 when it is detected that the finder device 20a is attached to the imaging device 10a, the imaging module 100 or a lens connected to the imaging module 100 so that the first operation based on the first information is performed. The module is controlled.
  • step S115 when it is detected that the finder device 20a is not attached to the imaging device 10a, the imaging module 100 or the lens module is controlled so that the second operation based on the second information is performed.
  • a program for causing the computer of the imaging device 10a to execute Step S100 and Step S110 or Step S115 is configured.
  • the executable operations are limited as compared to the case where the finder device 20a is not attached to the imaging device 10a.
  • the degree to which the imaging setting such as the focus is different from the optimal setting is more easily reduced on average than the second operation. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, when the finder device 20a is attached to the imaging device 10a, the imaging module 100 is likely to succeed in capturing a preferable image for the user.
  • FIG. 3 shows a configuration of the imaging system 1 according to the second embodiment of the present invention.
  • the imaging system 1 includes an imaging device 10b, a finder device 20a, a display device 30, and a lens module 40.
  • the imaging device 10b has an imaging operation switch 104.
  • the imaging operation switch 104 is disposed on the surface of the imaging device 10b.
  • the imaging device 10b performs wireless communication with the display device 30.
  • the viewfinder device 20a is mounted on the surface of the imaging device 10b.
  • the display device 30 performs wireless communication with the imaging device 10b.
  • the display device 30 includes a display module 301.
  • the display module 301 is disposed on the surface of the display device 30.
  • the lens module 40 has a lens such as a focus lens or a zoom lens.
  • the lens module 40 is attached to the imaging device 10b.
  • the imaging device 10b and the lens module 40 can be separated.
  • the imaging device 10b may have a lens module.
  • FIG. 4 shows the configuration of the imaging device 10b.
  • the imaging device 10b includes an imaging module 100, a detection unit 101a, a storage module 102a, a control unit 103b, an imaging operation switch 104, and a communication module 105.
  • the imaging device of each aspect of the present invention may not have a configuration corresponding to at least one of the imaging operation switch 104 and the communication module 105.
  • the imaging operation switch 104 accepts an imaging instruction operation.
  • the imaging instruction is a still image acquisition instruction.
  • the imaging operation switch 104 receives an operation from the user.
  • the imaging operation switch 104 outputs a signal corresponding to the operation to the control unit 103b.
  • the shape and structure of the imaging operation switch 104 are arbitrary.
  • the imaging operation switch 104 is a shutter button.
  • the communication module 105 performs wireless communication with the display device 30.
  • the communication module 105 wirelessly transmits the image generated by the imaging module 100 to the display device 30.
  • the communication module 105 wirelessly receives instruction information indicating an imaging instruction from the display device 30.
  • the control unit 103b When it is detected that the finder device 20a is attached to the imaging device 10b and the operation of the imaging instruction is received by the imaging operation switch 104, the control unit 103b performs the first operation based on the first information. The lens module 40 connected to the imaging module 100 or the imaging module 100 is controlled to be performed. When it is detected that the finder device 20a is not attached to the imaging device 10b and the imaging operation switch 104 accepts an imaging instruction operation, the control unit 103b performs the second operation based on the second information. The lens module 40 connected to the imaging module 100 or the imaging module 100 is controlled to be performed.
  • control unit 103b reads a program including an instruction that defines the operation of the control unit 103b, and executes the read program.
  • the implementation form of this program is the same as the implementation form of the program that implements the function of the control unit 103a shown in FIG.
  • FIG. 5 shows the configuration of the display device 30.
  • the display device 30 includes a communication module 300, a display module 301, an operation switch 302, and a control unit 303.
  • the communication module 300 performs wireless communication with the imaging device 10b.
  • the communication module 300 wirelessly receives an image generated by the imaging module 100 of the imaging device 10b from the imaging device 10b.
  • the communication module 300 wirelessly transmits instruction information indicating an imaging instruction to the imaging device 10b.
  • the display module 301 displays an image wirelessly received by the communication module 300.
  • the operation switch 302 accepts an imaging instruction operation.
  • the imaging instruction is a still image acquisition instruction.
  • the operation switch 302 receives an operation from the user.
  • the operation switch 302 outputs a signal corresponding to the operation to the control unit 303.
  • the shape and structure of the operation switch 302 are arbitrary.
  • the operation switch 302 is a button.
  • the operation switch 302 may be included in the display module 301.
  • the control unit 303 generates instruction information indicating an imaging instruction when an operation of an imaging instruction is received by the operation switch 302.
  • FIG. 6 shows an operation procedure of the imaging apparatus 10b related to imaging control.
  • the operation of the imaging apparatus 10b related to imaging control will be described.
  • the process shown in FIG. 6 will be described while referring to differences from the process shown in FIG.
  • step S200 the imaging operation switch 104 accepts an operation of an imaging instruction (step S200). After the imaging instruction operation is accepted, the process of step S110 is performed.
  • step S105 when the finder device 20a is not attached to the imaging device 10b, the control unit 103b outputs the image generated by the imaging module 100 to the communication module 105.
  • the communication module 105 wirelessly transmits an image to the display device 30 (step S205).
  • the image transmitted to the display device 30 is a moving image (live image) composed of a plurality of frames of images.
  • the communication module 105 wirelessly receives instruction information indicating an imaging instruction from the display device 30 (step S210).
  • the instruction information received by the communication module 105 is output to the control unit 103b.
  • the process of step S115 is performed.
  • FIG. 7 shows an operation procedure of the display device 30 related to image display and imaging control. With reference to FIG. 7, the operation of the display device 30 relating to image display and imaging control will be described.
  • the communication module 300 wirelessly receives an image from the imaging device 10b (step S300). An image wirelessly received by the communication module 300 is output to the display module 301 via the control unit 303. The display module 301 displays an image (step S305). By confirming the displayed image, the user can confirm the imaging setting.
  • the operation switch 302 accepts an operation for imaging instruction (step S310).
  • the control unit 303 After the imaging instruction operation is received, the control unit 303 generates instruction information indicating the imaging instruction. The generated instruction information is output to the communication module 300.
  • the communication module 300 wirelessly transmits the instruction information to the imaging device 10b (step S315).
  • the operation of the display device 30 related to image display and imaging control ends.
  • step S110 one first operation selected in advance by the user from among a plurality of first operations based on the first information may be selected.
  • the control unit 103b of the imaging device 10b reads the first information from the storage module 102a.
  • the communication module 105 wirelessly transmits the read first information to the display device 30.
  • the communication module 300 of the display device 30 wirelessly receives the first information from the imaging device 10b.
  • the display module 301 displays a plurality of first operations that can be executed by the imaging apparatus 10b based on the first information received wirelessly.
  • the operation switch 302 receives an operation for selecting any one of a plurality of first operations displayed by the display module 301.
  • the control unit 303 generates first operation information indicating the selected first operation.
  • the communication module 300 wirelessly transmits the generated first operation information to the imaging device 10b.
  • the communication module 105 of the imaging device 10b wirelessly receives the first operation information from the display device 30.
  • the control unit 103b stores setting information corresponding to the first operation indicated by the first operation information received wirelessly in the storage module 102a.
  • the control unit 103b selects the first operation specified by the setting information among the plurality of first operations indicated by the first information.
  • step S115 one second operation selected in advance by the user from among a plurality of second operations based on the second information may be selected.
  • the description in this case is the same as the above description regarding the first operation.
  • the finder device 20a When the finder device 20a is not attached to the imaging device 10b, the user can confirm the imaging setting by confirming the image displayed on the display module 301 of the display device 30.
  • the imaging device 10b and the display device 30 are connected by wireless communication, it takes time to establish a wireless communication connection.
  • the finder device 20a When the finder device 20a is attached to the imaging device 10b, the imaging device 10b and the display device 30 do not need to be connected. For this reason, imaging can be performed simply or at high speed.
  • the finder device 20a is attached to the imaging device 10b, the imaging setting is confirmed by confirming an optical image or an image displayed by the finder device 20a. In this case, by limiting the operations that can be performed, the degree to which the imaging setting differs from the optimal setting is reduced. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 8 shows the first information A11 and the second information A12 in the first example of the second embodiment.
  • the first information A11 corresponds to the case where the finder device 20a is attached.
  • the second information A12 corresponds to the case where the finder device 20a is not attached.
  • the first information A11 and the second information A12 include imaging mode information.
  • the first information A11 includes a plurality of first operation information.
  • the second information A12 includes a plurality of pieces of second operation information.
  • the first operation and the second operation are operations in a mode for controlling at least one of the shutter speed and the aperture.
  • the plurality of first operations are a full auto mode and a programmable auto mode.
  • the plurality of second operations are a full auto mode, a programmable auto mode, a shutter speed priority mode, an aperture priority mode, and a manual mode.
  • the full auto mode and the programmable auto mode are common to the first operation and the second operation.
  • the first information A11 may include only one information of the full auto mode and the programmable auto mode.
  • the full auto mode is a mode in which the image capturing apparatus 10b automatically sets an image capturing mode optimal for a scene.
  • the optimum imaging mode for the scene is determined, and a shutter speed value and an aperture value corresponding to the imaging mode are set in the imaging module 100.
  • Programmable auto is a mode for automatically setting a shutter speed value and an aperture value suitable for a main subject in an image.
  • the shutter speed priority mode is a mode in which the aperture value is set so that the exposure is appropriate based on the shutter speed value designated by the user.
  • the aperture priority mode is a mode in which the shutter speed value is set so that the exposure is appropriate based on the aperture value designated by the user.
  • the manual mode is a mode for setting a shutter speed value and an aperture value designated by the user.
  • the imaging module 100 fails to capture an image preferable for the user.
  • Cheap That is, an image in which the main subject is very dark or bright is easily captured.
  • the plurality of first operations include only an imaging mode in which the user does not specify an imaging parameter.
  • the plurality of first operations do not include an imaging mode in which the user specifies imaging parameters.
  • the control unit 103b acquires an image from the imaging module 100.
  • the control unit 103b determines a scene based on the acquired image state.
  • the control unit 103b selects the full auto mode.
  • the control unit 103b sets the mode of the imaging module 100 to the full auto mode so that imaging is performed in the full auto mode.
  • the control unit 103b selects the programmable mode.
  • the control unit 103b sets the mode of the imaging module 100 to the programmable mode so that imaging is performed in the programmable mode.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed in an imaging mode in which the user does not specify imaging parameters. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 9 shows the first information A21 and the second information A22 in the second example of the second embodiment.
  • the first information A21 corresponds to the case where the finder device 20a is attached.
  • the second information A22 corresponds to the case where the finder device 20a is not attached.
  • the first information A21 and the second information A22 include focus control algorithm information.
  • the first information A21 includes a plurality of first operation information.
  • the second information A22 includes a plurality of second operation information.
  • the first operation and the second operation are operations for controlling the focus.
  • the plurality of first operations are a face priority algorithm and a single AF algorithm whose center is a target.
  • the plurality of second operations are a face priority algorithm, a single AF algorithm whose center is a target, a continuous AF algorithm, and a manual algorithm.
  • the face priority algorithm and the single AF algorithm whose center is the target are common to the first operation and the second operation.
  • the first information A21 may include only one of the face priority algorithm and the single AF algorithm whose center is the target.
  • the face priority algorithm is an algorithm for focusing on the face recognized from the image by the face recognition function.
  • the single AF algorithm whose center is the target is an algorithm that focuses the subject at the center of the image once.
  • the continuous AF algorithm is an algorithm for continuously focusing on a moving subject.
  • the manual algorithm is an algorithm for setting a focus designated by the user.
  • the imaging module 100 tends to fail to capture an image preferable for the user. That is, it is easy to capture an image with a focus out of focus.
  • the plurality of first operations include only a focus control algorithm in which an appropriate focus is easily set when the subject is not confirmed.
  • the plurality of first operations do not include a focus control algorithm in which it is difficult to set an appropriate focus when the subject is not confirmed.
  • the control unit 103b acquires an image from the imaging module 100.
  • the control unit 103b determines whether there is a person in the acquired image.
  • the control unit 103b selects a face priority algorithm.
  • the control unit 103b controls the lens module 40 so that imaging is performed with the focus set according to the face priority algorithm.
  • the control unit 103b selects a single AF algorithm whose center is the target.
  • the control unit 103b controls the lens module 40 so that imaging is performed in a state where focus is set according to a single AF algorithm whose center is a target.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed according to a focus control algorithm in which an appropriate focus is easily set. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 10 shows the first information A31 and the second information A32 in the third example of the second embodiment.
  • the first information A31 corresponds to the case where the finder device 20a is attached.
  • the second information A32 corresponds to the case where the finder device 20a is not attached.
  • the first information A31 and the second information A32 include operation information for setting a specific imaging parameter (focus parameter).
  • the first information A31 includes a plurality of pieces of first operation information.
  • the second information A32 includes a plurality of second operation information.
  • the first operation and the second operation are operations for setting specific imaging parameters (focus parameters).
  • a lens module 40 that can be set in a range where the aperture value of the lens is F3.5 or more and F22 or less is used.
  • the plurality of first operations are operations for setting the aperture value of the lens of the lens module 40 to any one of F5.6 and F22.
  • the plurality of second operations are operations for setting the aperture value of the lens of the lens module 40 to any one of F3.5 and F22.
  • the operation of setting the aperture value of the lens of the lens module 40 to any one value of F5.6 or more and F22 or less is common to the first operation and the second operation.
  • a plurality of aperture values of the lens of the lens module 40 can be set in a range from F5.6 to F22 and a range from F3.5 to F22.
  • the imaging device 10b can perform a plurality of first operations and a plurality of second operations for setting specific imaging parameters.
  • the imaging module 100 tends to fail to capture an image preferable for the user. That is, it is easy to capture an image with a focus out of focus.
  • the focused range depth of field
  • the plurality of first operations include only an operation for setting an aperture value having a relatively large depth of field.
  • the plurality of first operations do not include an operation of setting an aperture value having a relatively small depth of field.
  • one of the plurality of first operations is selected by the following method.
  • the control unit 103b continuously acquires images from the imaging module 100.
  • the aperture value of the lens of the lens module 40 is initially set to F5.6.
  • the control unit 103b calculates an edge component of the image.
  • the control unit 103b changes the aperture value of the lens of the lens module 40 to a larger value.
  • the control unit 103b calculates the edge component of the image again. The above operation is repeated until the value of the edge component becomes equal to or greater than the threshold value. That is, the control unit 103b controls the lens module 40 so that imaging is performed in a state where the lens aperture value of the lens module 40 is F5.6 or more.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, an aperture value with a relatively large depth of field is set and imaging is performed. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 11 shows the first information A41 and the second information A42 in the fourth example of the second embodiment.
  • the first information A41 corresponds to the case where the finder device 20a is attached.
  • the second information A42 corresponds to the case where the finder device 20a is not attached.
  • the first information A41 and the second information A42 include information on the exposure control algorithm.
  • the first information A41 includes information on a plurality of first operations.
  • the second information A42 includes a plurality of second operation information.
  • the first operation and the second operation are operations for controlling exposure.
  • the plurality of first operations are a center-weighted average photometric algorithm and a face priority algorithm.
  • the plurality of second operations are a center-weighted average metering algorithm, a face priority algorithm, and a spot metering algorithm.
  • the center-weighted average metering algorithm and the face priority algorithm are common to the first operation and the second operation.
  • the first information A41 may include only one of the center-weighted average metering algorithm and the face priority algorithm.
  • the center-weighted average metering algorithm is an algorithm that detects the brightness of the entire image while focusing on the brightness at the center of the image and controls the exposure based on the detected brightness.
  • the face priority algorithm is an algorithm for controlling exposure so that the brightness of the face recognized from the image by the face recognition function is optimized.
  • the spot metering algorithm is an algorithm for controlling exposure so that the brightness only around the focus point of an image is optimal.
  • the imaging module 100 tends to fail to capture an image preferable for the user. That is, an image in which the main subject is very dark or bright is easily captured.
  • the plurality of first operations include only an exposure control algorithm in which an appropriate exposure is easily set when the subject is not confirmed.
  • the plurality of first operations do not include an exposure control algorithm in which an appropriate exposure is difficult to be set without subject confirmation.
  • the control unit 103b acquires an image from the imaging module 100.
  • the control unit 103b determines whether there is a person in the acquired image.
  • the control unit 103b selects a face priority algorithm.
  • the control unit 103b controls the imaging module 100 so that imaging is performed with exposure set according to the face priority algorithm.
  • the control unit 103b selects the center-weighted average metering algorithm.
  • the control unit 103b controls the imaging module 100 so that imaging is performed with exposure set according to the center-weighted average metering algorithm.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed according to an exposure control algorithm in which appropriate exposure is easily set. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 12 shows the first information A51 and the second information A52 in the fifth example of the second embodiment.
  • the first information A51 corresponds to the case where the finder device 20a is attached.
  • the second information A52 corresponds to the case where the finder device 20a is not attached.
  • the first information A51 and the second information A52 include information on an operation for setting a specific imaging parameter (view angle parameter).
  • the first information A51 includes a plurality of first operation information.
  • the second information A52 includes a plurality of second operation information.
  • the first operation and the second operation are operations for setting specific imaging parameters (view angle parameters).
  • a lens module 40 that can be set within a range of 28 mm or more and 84 mm or less in terms of a lens angle of view of 35 mm is used.
  • An angle of view of 28 mm corresponds to the widest angle state, that is, the wide end.
  • An angle of view of 84 mm corresponds to the most telephoto state, that is, the telephoto end.
  • the plurality of first operations are operations for setting the angle of view of the lens of the lens module 40 to any one value between 28 mm and 36 mm.
  • the plurality of second operations are operations for setting the angle of view of the lens of the lens module 40 to any one value of 28 mm or more and 84 mm or less.
  • the operation of setting the angle of view of the lens of the lens module 40 to any one value between 28 mm and 36 mm is common to the first operation and the second operation.
  • a plurality of angles of view of the lens of the lens module 40 can be set in a range of 28 mm to 36 mm and a range of 28 mm to 84 mm.
  • the imaging device 10b can perform a plurality of first operations and a plurality of second operations for setting specific imaging parameters.
  • the imaging module 100 tends to fail to capture an image preferable for the user. That is, it is easy to capture an image in which part or all of the main subject does not fall within the imaging range.
  • the plurality of first operations include only an operation for setting a relatively wide angle of view.
  • the plurality of first operations do not include an operation of setting a relatively telescopic angle of view.
  • one of the plurality of first operations is selected by the following method.
  • the control unit 103b continuously acquires images from the imaging module 100.
  • the angle of view of the lens of the lens module 40 is initially set to 36 mm.
  • the control unit 103b detects the contour of the main subject from the image.
  • the control unit 103b changes the field angle of the lens of the lens module 40 to a more telescopic field angle.
  • the control unit 103b detects the outline of the main subject again from the image. The above operation is repeated until the detected contour does not intersect the screen boundary. That is, the control unit 103b controls the lens module 40 so that imaging is performed in a state where the angle of view of the lens of the lens module 40 is 36 mm or less.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, a relatively wide angle of view is set and imaging is performed. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 13 shows the first information A61 and the second information A62 in the sixth example of the second embodiment.
  • the first information A61 corresponds to the case where the finder device 20a is attached.
  • the second information A62 corresponds to the case where the finder device 20a is not attached.
  • the first information A61 and the second information A62 include information on a plurality of times of imaging or one time of imaging with different imaging parameters (focus parameters).
  • the first information A61 includes information on one first operation.
  • the second information A62 includes a plurality of second operation information.
  • One first operation is an operation of performing continuous imaging a plurality of times.
  • one first operation is a focus bracket.
  • the plurality of second operations include an operation for performing continuous multiple imaging and an operation for performing imaging only once.
  • the plurality of second operations are focus bracketing and single shooting.
  • the focus bracket is common to the first operation and the second operation.
  • the focus bracketing is an operation of performing imaging of a plurality of times, that is, a plurality of frames while changing the focus parameter, that is, the focus position every time imaging of one frame.
  • Single shooting is an operation of performing imaging once, that is, only for one frame.
  • One first operation includes only an operation in which an image picked up with an appropriate focus is easily acquired when the subject is not confirmed.
  • One first operation does not include an operation in which an image picked up with an appropriate focus is difficult to obtain when the subject is not confirmed.
  • the control unit 103b controls the imaging module 100 and the lens module 40 so that the first operation based on the first information is performed. .
  • the control unit 103b sets the focus of the lens of the lens module 40.
  • the control unit 103b controls the imaging module 100 so that one frame is captured.
  • the controller 103b performs setting of the focus of the lens of the lens module 40 and control of imaging of one frame a plurality of times. The focus of the lens of the lens module 40 is different for each imaging of one frame.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed a plurality of times. At least one of the images of a plurality of frames acquired by a plurality of imaging operations may be an image captured with an optimal setting. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 14 shows the first information A71 and the second information A72 in the seventh example of the second embodiment.
  • the first information A71 corresponds to the case where the finder device 20a is attached.
  • the second information A72 corresponds to the case where the finder device 20a is not attached.
  • the first information A71 and the second information A72 include information on a plurality of times of imaging or one time of imaging with different imaging parameters (exposure parameters).
  • the first information A71 includes information on a plurality of first operations.
  • the second information A72 includes a plurality of pieces of second operation information.
  • the plurality of first operations are operations that perform continuous multiple imaging.
  • the plurality of first operations are an exposure bracket, an ISO (International Organization for Standardization) bracket, and an HDR (High Dynamic Range) bracket.
  • the plurality of second operations include an operation for performing continuous multiple imaging and an operation for performing imaging only once.
  • the plurality of second operations are an exposure bracket, an ISO bracket, an HDR bracket, and a single shot.
  • the exposure bracket, the ISO bracket, and the HDR bracket are common to the first operation and the second operation.
  • the first information A71 may include information on only one of the exposure bracket, the ISO bracket, and the HDR bracket.
  • the exposure bracketing is an operation of performing imaging of a plurality of times, that is, a plurality of frames while changing the exposure parameter, that is, the value of exposure for each imaging of one frame, that is, one frame.
  • the ISO bracketing is an operation of performing imaging of a plurality of times, that is, a plurality of frames while changing an exposure parameter, that is, ISO sensitivity for each imaging of one frame, that is, one frame.
  • the HDR bracket is an operation of performing imaging of a plurality of times, that is, a plurality of frames while changing the exposure parameter, that is, the value of exposure for each imaging of one frame, that is, one frame.
  • the image generated by the HDR bracket is used for HDR synthesis.
  • Single shooting is an operation of performing imaging once, that is, only for one frame.
  • the imaging module 100 tends to fail to capture an image preferable for the user. That is, an image in which the main subject is very dark or bright is easily captured. Furthermore, the optimum brightness is likely to change depending on the movement of the main subject and the conditions of the illumination light.
  • One first operation includes only an operation in which an image picked up with an appropriate exposure is easily acquired when the subject is not confirmed.
  • One first operation does not include an operation in which it is difficult to acquire an image captured with appropriate exposure when the subject is not confirmed.
  • the control unit 103b controls the imaging module 100 so that the first operation based on the first information is performed. For example, when the finder device 20a is attached to the imaging device 10b and the imaging module 100 is ready for imaging, the control unit 103b sets either one of the exposure of the imaging module 100 and ISO sensitivity. After any one of the exposure and ISO sensitivity of the imaging module 100 is set, the control unit 103b controls the imaging module 100 so that one frame is captured. The control unit 103b performs any one setting of exposure of the imaging module 100 and ISO sensitivity and control of imaging of one frame a plurality of times. The exposure and ISO sensitivity of the imaging module 100 differ for each imaging of one frame.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed a plurality of times. At least one of the images of a plurality of frames acquired by a plurality of imaging operations may be an image captured with an optimal setting. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 15 shows the first information A81 and the second information A82 in the modification of the second embodiment.
  • the first information A81 corresponds to the case where the finder device 20a is attached.
  • the second information A82 corresponds to the case where the finder device 20a is not attached.
  • the first information A81 and the second information A82 include information on a plurality of times of image processing or one time of image processing with different imaging parameters (color parameters or image processing parameters).
  • the first information A81 includes a plurality of pieces of first operation information.
  • the second information A82 includes a plurality of pieces of second operation information.
  • the plurality of first operations are operations for performing continuous image processing a plurality of times.
  • the plurality of first operations are a white balance bracket and a specific filter bracket.
  • the plurality of second operations include an operation for performing continuous image processing a plurality of times and an operation for performing image processing only once.
  • the plurality of second operations are a white balance bracket, a specific filter bracket, and one-time image processing.
  • the white balance bracket and the specific filter bracket are common to the first operation and the second operation.
  • the first information A81 may include only one information of the white balance bracket and the specific filter bracket.
  • the white balance bracketing is an operation of generating a plurality of images by performing image processing a plurality of times while changing a color parameter, that is, a parameter relating to a hue, for an image acquired once, that is, by capturing one frame.
  • the specific filter bracket performs image processing a plurality of times while changing an image processing parameter (image processing filter parameter) including a color parameter for an image acquired by one-time imaging, that is, one frame of imaging.
  • One-time image processing is an operation of generating only one image by performing only one-time image processing on an image acquired once, that is, by capturing one frame.
  • One first operation includes only an operation in which an image in which a subject is captured with an appropriate color is easily acquired when confirmation of the subject is not involved.
  • One first operation does not include an operation in which it is difficult to obtain an image in which a subject is captured with an appropriate color when the subject is not confirmed.
  • step S110 and the process of step S115 are changed to the following process.
  • the control unit 103b controls the image processing so that the first operation based on the first information is performed.
  • the control unit 103b sets one of a parameter relating to hue and an image processing parameter. After any one of the parameter relating to the hue and the image processing parameter is set, the control unit 103b performs image processing on the image generated by the imaging module 100.
  • the control unit 103b performs one setting and image processing for any one of the parameters relating to the hue and the image processing parameters a plurality of times.
  • the images used for multiple times of image processing are the same.
  • the parameters relating to the hue and the image processing parameters are different for each image processing.
  • the control unit 103b generates a plurality of images from one image.
  • the control unit 103b controls the image processing so that the second operation based on the second information is performed.
  • image processing is performed a plurality of times. At least one of the plurality of images acquired by the multiple times of image processing may be an image processed with an optimal setting. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • FIG. 16 shows the first information A91 and the second information A92 in the eighth example of the second embodiment.
  • the first information A91 corresponds to the case where the finder device 20a is attached.
  • the second information A92 corresponds to the case where the finder device 20a is not attached.
  • the first information A91 and the second information A92 include information on multiple or one-time imaging.
  • the first information A91 includes information on one first operation.
  • the second information A92 includes a plurality of second operation information.
  • One first operation is an operation of performing continuous imaging a plurality of times. Specifically, one first operation is an operation of performing imaging N times per second from M seconds before the reference timing.
  • the plurality of second operations include an operation for performing continuous multiple imaging and an operation for performing imaging only once. Specifically, the plurality of second operations are an operation of performing imaging N times per second from M seconds before the reference timing, and single shooting.
  • M is an arbitrary positive real number of 1 or more.
  • N is an arbitrary positive integer of 2 or more.
  • the operation of performing imaging N times per second from M seconds before the reference timing is common to the first operation and the second operation.
  • the operation of performing imaging N times per second from M seconds before the reference timing is an operation of acquiring an image generated by imaging N times per second from M seconds before the reference timing to the reference timing.
  • Single shooting is an operation of performing imaging once, that is, only for one frame.
  • the imaging module 100 tends to fail to capture an image preferable for the user.
  • One first operation includes only an operation in which an appropriate image is likely to be obtained without confirmation of the subject.
  • One first operation does not include an operation in which it is difficult to obtain an appropriate image when the subject is not confirmed.
  • the control unit 103b controls the imaging module 100 so that the first operation based on the first information is performed. For example, when the finder device 20a is attached to the imaging apparatus 10b and the imaging module 100 is ready for imaging, the control unit 103b continuously acquires images from the imaging module 100. The acquired images are sequentially stored in the storage module 102a. That is, the image is buffered.
  • the control unit 103b refers to a plurality of images stored in the storage module 102a at a predetermined time.
  • the predetermined time is a time from M seconds before the reference timing to the reference timing.
  • the reference timing is the timing when the imaging operation switch 104 receives an imaging instruction.
  • the controller 103b selects images at a rate of N per second.
  • the selected image is stored in the storage module 102a. That is, the control unit 103b stores a plurality of images captured in a certain time with reference to the reference timing in the storage module 102a.
  • the finder device 20a when the finder device 20a is attached to the imaging device 10b, imaging is performed a plurality of times. At least one of the images of a plurality of frames acquired by a plurality of imaging operations may be an image captured with an optimal setting. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting. That is, it is easy for the imaging module 100 to successfully capture a preferable image for the user.
  • the first to eighth examples of the second embodiment and the modified example of the second embodiment are applicable to the imaging device 10b of the first embodiment.
  • FIG. 17 shows a configuration of an imaging apparatus 10c according to the third embodiment of the present invention.
  • the imaging apparatus 10c includes an imaging module 100, a detection unit 101c, a storage module 102a, and a control unit 103c.
  • the viewfinder device 20 c includes an eyepiece sensor 200.
  • the eye sensor 200 detects whether or not the eye is close to the eye sensor 200.
  • the eyepiece sensor 200 outputs eyepiece information indicating the detection result. Accordingly, the viewfinder device 20c outputs eyepiece information indicating whether or not the eye is close to the eyepiece sensor 200.
  • the detection unit 101c detects whether or not the eye is approaching the eye sensor 200 based on the eye information.
  • the control unit 103c performs the first operation based on the first information.
  • the imaging module 100 or the image processing is controlled so that
  • any one of the sixth to eighth examples of the second embodiment and the modification of the second embodiment is applied to the imaging device 10c.
  • the control unit 103c After detecting that the finder device 20c is attached to the imaging device 10c and then detecting that the eye is approaching the eye sensor 200, the control unit 103c performs multiple imaging based on the first information. Alternatively, start multiple times of image processing.
  • control unit 103c reads a program including an instruction that defines the operation of the control unit 103c, and executes the read program.
  • the implementation form of this program is the same as the implementation form of the program that implements the function of the control unit 103a shown in FIG.
  • the first information based on the first information is detected only when it is detected that the finder device 20c is attached to the imaging device 10c and the eye is detected close to the eye sensor 200.
  • the imaging module 100 or the image processing is controlled so that one operation is performed. For this reason, the imaging device 10c can start the setting of imaging or image processing early.
  • the executable operations are limited as compared to the case where the finder device is not attached to the imaging device. For this reason, it is possible to reduce the degree to which the imaging setting is different from the optimal setting.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

 撮像装置は、撮像モジュールと、検出部と、記憶部と、制御部とを有する。前記検出部は、ファインダー機器が前記撮像装置に装着されているか否かを検出する。前記記憶モジュールは、第1の情報と第2の情報とを記憶する。前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の第1の動作を示す。前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の第2の動作を示す。前記制御部は、前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御する。前記制御部は、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、前記第2の情報に基づく前記第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御する。

Description

撮像装置、撮像方法、およびプログラム
 本発明は、撮像装置、撮像方法、およびプログラムに関する。
 光学式ファインダーまたは電子式ファインダーであるファインダー機器を有する撮像装置がある。例えば、光学式ファインダーと電子式ファインダーとが装着可能なカメラであって、カメラに装着されたファインダー機器の種類に応じてモニタ表示の動作を変更するカメラが特許文献1に開示されている。
日本国特開2000-111994号公報
 一般的にファインダー機器は小型である。ファインダー機器によって表示される光学像または画像の確認によりユーザが撮像の設定を確認することが難しい場合がある。このため、撮像の設定がシーン等に適していない、つまり撮像の設定が最適な設定と大きく異なる場合がある。したがって、ファインダー機器が撮像装置に装着されている場合、撮像装置がユーザにとって好ましい画像の撮像に失敗する可能性がある。
 例えば、表示インターフェースを有していない小型の撮像装置がある。撮像装置が表示装置に接続され、表示装置が撮像装置における撮像の設定を表示することが可能である。簡易または高速に撮像を行うために、撮像装置にファインダー機器が接続された状態で撮像の設定が確認されて撮像が行われ得る。この場合、撮像装置が表示装置に接続される必要はない。しかし、上記のように、撮像装置がユーザにとって好ましい画像の撮像に失敗する可能性がある。
 特許文献1に開示されたカメラの動作は、ファインダー機器が装着されているか否かに関わらず同一である。このため、特許文献1に開示されたカメラがユーザにとって好ましい画像の撮像に失敗する可能性がある。
 本発明は、撮像の設定が最適な設定と異なる度合いを低減することができる撮像装置、撮像方法、およびプログラムを提供する。
 本発明の第1の態様によれば、撮像装置は、撮像を行って画像を生成する撮像モジュールと、ファインダー機器が前記撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像または前記撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能である検出部と、第1の情報と第2の情報とを記憶し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含む記憶モジュールと、前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、前記第2の情報に基づく前記第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御する制御部と、を有する。
 本発明の第2の態様によれば、第1の態様において、前記第1の動作と前記第2の動作とは、シャッタースピードと絞りとの少なくとも1つを制御する動作であってもよい。
 本発明の第3の態様によれば、第1の態様において、前記第1の動作と前記第2の動作とは、フォーカスを制御する動作であってもよい。
 本発明の第4の態様によれば、第1の態様において、前記第1の動作と前記第2の動作とは、露出を制御する動作であってもよい。
 本発明の第5の態様によれば、第1の態様において、前記第1の動作と前記第2の動作とは、画角を制御する動作であってもよい。
 本発明の第6の態様によれば、第1の態様において、前記1つまたは複数の第1の動作は、連続的な複数回の撮像を行う動作であり、前記複数の第2の動作は、連続的な複数回の撮像を行う動作と、1回のみの撮像を行う動作とを含んでもよい。
 本発明の第7の態様によれば、第6の態様において、前記ファインダー機器は、接眼センサーを有し、前記接眼センサーに眼が近づけられているか否かを示す接眼情報を出力し、前記検出部はさらに、前記接眼情報に基づいて、前記接眼センサーに前記眼が近づけられているか否かを検出し、前記制御部は、前記ファインダー機器が前記撮像装置に装着されたことが検出され、かつ、前記接眼センサーに前記眼が近づけられていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように前記撮像モジュールを制御してもよい。
 本発明の第8の態様によれば、撮像装置は、撮像を行って画像を生成する撮像モジュールと、ファインダー機器が前記撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像または前記撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能である検出部と、第1の情報と第2の情報とを記憶し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含む記憶モジュールと、前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように画像処理を制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、前記第2の情報に基づく前記第2の動作が行われるように前記画像処理を制御する制御部と、を有し、前記1つまたは複数の第1の動作は、連続的な複数回の前記画像処理を行う動作であり、前記複数の第2の動作は、連続的な複数回の前記画像処理を行う動作と、1回のみの前記画像処理を行う動作とを含む。
 本発明の第9の態様によれば、撮像方法は、ファインダー機器が撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像、または撮像を行って画像を生成する撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能であるステップと、前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の前記第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の前記第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含むステップと、を有する。
 本発明の第10の態様によれば、プログラムは、ファインダー機器が撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像、または撮像を行って画像を生成する撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能であるステップと、前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の前記第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の前記第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含むステップと、を前記撮像装置のコンピュータに実行させるためのプログラムである。
 上記の各態様によれば、ファインダー機器が撮像装置に装着されている場合、ファインダー機器が撮像装置に装着されていない場合と比較して、実行可能な動作が制限される。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。
本発明の第1の実施形態の撮像装置の構成を示すブロック図である。 本発明の第1の実施形態の撮像装置の動作の手順を示すフローチャートである。 本発明の第2の実施形態の撮像システムの構成を示すブロック図である。 本発明の第2の実施形態の撮像装置の構成を示すブロック図である。 本発明の第2の実施形態の表示装置の構成を示すブロック図である。 本発明の第2の実施形態の撮像装置の動作の手順を示すフローチャートである。 本発明の第2の実施形態の表示装置の動作の手順を示すフローチャートである。 本発明の第2の実施形態の第1の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第2の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第3の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第4の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第5の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第6の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第7の例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の変形例における第1の情報と第2の情報とを示す参考図である。 本発明の第2の実施形態の第8の例における第1の情報と第2の情報とを示す参考図である。 本発明の第3の実施形態の撮像装置の構成を示すブロック図である。
 図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
 図1は、本発明の第1の実施形態の撮像装置10aの構成を示している。図1に示すように、撮像装置10aは、撮像モジュール100と、検出部101aと、記憶モジュール102aと、制御部103aとを有する。
 撮像モジュール100は、撮像を行って画像(画像データ)を生成する。
 検出部101aは、ファインダー機器20aが撮像装置10aに装着されているか否かを検出する。例えば、検出部101aは、ファインダー機器20aが撮像装置10aに装着されているか否かを機械的に検出する。検出部101aは、ファインダー機器20aが撮像装置10aに装着されているか否かを電気的に検出してもよい。ファインダー機器20aは、被写体の光学像または撮像モジュール100から出力される画像を表示する。ファインダー機器20aは、撮像装置10aに対して装着と取り外しとが可能である。ファインダー機器20aは、光学式ファインダーと電子式ファインダーとのいずれであってもよい。ファインダー機器20aが電子式ファインダーである場合、ファインダー機器20aは、撮像モジュール100によって生成された画像を表示する。
 記憶モジュール102aは、第1の情報と第2の情報とを記憶する。記憶モジュール102aは、揮発性または不揮発性の記録媒体である。第1の情報は、ファインダー機器20aが撮像装置10aに装着されている場合に実行可能な1つまたは複数の第1の動作を示す。第2の情報は、ファインダー機器20aが撮像装置10aに装着されていない場合に実行可能な複数の第2の動作を示す。1つまたは複数の第1の動作は複数の第2の動作のいずれか1つまたは複数と同一である。複数の第2の動作は、1つまたは複数の第1の動作と同一の動作を含む。また、複数の第2の動作は、1つまたは複数の第1の動作のいずれとも異なる動作を含む。つまり、1つまたは複数の第1の動作は複数の第2の動作に含まれる。第1の動作と第2の動作とは、撮像モジュール100または撮像モジュール100に接続されるレンズモジュールの状態を制御する動作である。
 第1の情報と第2の情報とは、撮像モードの情報と、制御アルゴリズムの情報と、特定の撮像パラメータを設定する動作の情報と、複数回または1回の撮像の情報との少なくとも1つである。第1の動作では、フォーカス等の撮像の設定が最適な設定と異なる度合いが平均的に第2の動作よりも低減されやすい。
 制御部103aは、ファインダー機器20aが撮像装置10aに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100または撮像モジュール100に接続されるレンズモジュールを制御する。制御部103aは、ファインダー機器20aが撮像装置10aに装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように撮像モジュール100または撮像モジュール100に接続されるレンズモジュールを制御する。つまり、制御部103aは、ファインダー機器20aが撮像装置10aに装着されていることが検出された場合、ファインダー機器20aが撮像装置10aに装着されていない場合よりも実行可能な動作の数が少なくなるように、実行可能な動作を制限する。
 撮像装置10aのコンピュータが、検出部101aと制御部103aとの動作を規定する命令を含むプログラムを読み込み、読み込まれたプログラムを実行してもよい。つまり、検出部101aと制御部103aとの機能はソフトウェアにより実現されてもよい。このプログラムは、フラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。また、上述したプログラムは、このプログラムが保存された記憶装置等を有するコンピュータから、伝送媒体を介して、あるいは伝送媒体中の伝送波により撮像装置10aに伝送されてもよい。プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように、情報を伝送する機能を有する媒体である。また、上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、前述した機能をコンピュータに既に記録されているプログラムとの組合せで実現できる、いわゆる差分ファイル(差分プログラム)であってもよい。
 図2は、撮像の制御に関する撮像装置10aの動作の手順を示している。図2を参照して、撮像の制御に関する撮像装置10aの動作を説明する。例えば、図2に示す動作は、撮像装置10aの電源がオフからオンに遷移するとき、つまり撮像装置10aが起動するときに行われる。
 検出部101aは、撮像装置10aに対するファインダー機器20aの装着状態を検出する(ステップS100)。つまり、ステップS100では、検出部101aは、ファインダー機器20aが撮像装置10aに装着されているか否かを検出する。ファインダー機器20aの装着状態が検出された後、検出部101aは、ステップS100で検出されたファインダー機器20aの装着状態に基づいて、ファインダー機器20aが撮像装置10aに装着されているか否かを判定する(ステップS105)。
 ファインダー機器20aが撮像装置10aに装着されている場合、制御部103aは、第1の情報を記憶モジュール102aから読み出す。制御部103aは、読み出された第1の情報に基づく第1の動作が行われるように撮像モジュール100またはレンズモジュールを制御する(ステップS110)。ステップS110では、撮像モジュール100またはレンズモジュールは、制御部103aによる制御に従って第1の動作を行う。ファインダー機器20aが電子式ファインダーである場合、ファインダー機器20aは、第1の動作が行われる前に、撮像モジュール100によって生成された画像を表示する。
 ファインダー機器20aが撮像装置10aに装着されていない場合、制御部103aは、第2の情報を記憶モジュール102aから読み出す。制御部103aは、読み出された第2の情報に基づく第2の動作が行われるように撮像モジュール100またはレンズモジュールを制御する(ステップS115)。ステップS115では、撮像モジュール100またはレンズモジュールは、制御部103aによる制御に従って第2の動作を行う。
 ステップS110において、第1の情報に基づいて選択可能な複数の第1の動作がある場合、以下の方法により1つの第1の動作が選択される。例えば、1つの第1の動作が予め選択され、選択された1つの第1の動作を示す設定情報が記憶モジュール102aに記憶されている場合、制御部103aは、その設定情報に基づいて1つの第1の動作を選択する。例えば、設定情報は、撮像装置10aにデフォルトで設定されている1つの第1の動作を示している。設定情報は、ユーザによって予め選択された1つの第1の動作を示してもよい。設定情報は、以前に撮像装置10aが使用されてステップS110の処理が行われたときに選択された1つの第1の動作を示してもよい。撮像モジュール100が撮像可能状態になったとき、制御部103aが撮像モジュール100から画像を取得し、取得された画像の状態に基づいて1つの第1の動作を選択してもよい。設定情報は、画像の状態に基づいて選択された1つの第1の動作を示してもよい。ステップS115において、第2の情報に基づいて選択可能な複数の第2の動作がある場合、上記の方法と同様の方法により1つの第2の動作が選択されてもよい。
 上記の処理が行われた後、撮像の制御に関する撮像装置10aの動作が終了する。例えば、第1の動作または第2の動作が行われた後、撮像モジュール100は撮像を行い、静止画を生成する。第1の動作と第2の動作とは、撮像を行って静止画を生成する動作を含んでもよい。
 撮像装置10aの電源がオフからオンに遷移するとき以外のタイミングで、図2に示す動作が行われてもよい。例えば、撮像装置10aが起動した後、図2に示す動作が行われてもよい。図2に示す動作は繰り返し行われてもよい。例えば、ファインダー機器20aの装着状態の検出が定期的に行われ、ファインダー機器20aの装着状態が変化したときに、ファインダー機器20aの装着状態に応じて第1の動作または第2の動作が行われてもよい。
 第1の実施形態によれば、撮像モジュール100と、検出部101aと、記憶モジュール102aと、制御部103aと、を有する撮像装置10aが構成される。
 また、第1の実施形態によれば、ステップS100と、ステップS110またはステップS115と、を有する撮像方法が構成される。ステップS100では、ファインダー機器20aが撮像装置10aに装着されているか否かが検出される。ステップS110では、ファインダー機器20aが撮像装置10aに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100または撮像モジュール100に接続されるレンズモジュールが制御される。ステップS115では、ファインダー機器20aが撮像装置10aに装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように撮像モジュール100またはレンズモジュールが制御される。
 また、第1の実施形態によれば、ステップS100と、ステップS110またはステップS115と、を撮像装置10aのコンピュータに実行させるためのプログラムが構成される。
 第1の実施形態では、ファインダー機器20aが撮像装置10aに装着されている場合、ファインダー機器20aが撮像装置10aに装着されていない場合と比較して、実行可能な動作が制限される。第1の動作では、フォーカス等の撮像の設定が最適な設定と異なる度合いが平均的に第2の動作よりも低減されやすい。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、ファインダー機器20aが撮像装置10aに装着されている場合、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
(第2の実施形態)
 図3は、本発明の第2の実施形態の撮像システム1の構成を示している。図3に示すように、撮像システム1は、撮像装置10bと、ファインダー機器20aと、表示装置30と、レンズモジュール40とを有する。
 撮像装置10bは撮像操作スイッチ104を有する。撮像操作スイッチ104は撮像装置10bの表面に配置されている。撮像装置10bは、表示装置30と無線通信を行う。ファインダー機器20aは撮像装置10bの表面に装着されている。表示装置30は、撮像装置10bと無線通信を行う。表示装置30は表示モジュール301を有する。表示モジュール301は表示装置30の表面に配置されている。
 レンズモジュール40は、フォーカスレンズまたはズームレンズ等のレンズを有する。図3では、レンズモジュール40は撮像装置10bに装着されている。撮像装置10bとレンズモジュール40とは分離可能である。撮像装置10bがレンズモジュールを有していてもよい。
 図4は、撮像装置10bの構成を示している。図4に示すように、撮像装置10bは、撮像モジュール100と、検出部101aと、記憶モジュール102aと、制御部103bと、撮像操作スイッチ104と、通信モジュール105とを有する。本発明の各態様の撮像装置は、撮像操作スイッチ104と、通信モジュール105との少なくとも1つに対応する構成を有していなくてもよい。
 図4に示す構成について、図1に示す構成と異なる点を説明する。撮像操作スイッチ104は、撮像指示の操作を受け付ける。例えば、撮像指示は、静止画の取得指示である。例えば、撮像操作スイッチ104がユーザの体の一部と接触しているとき、撮像操作スイッチ104はユーザから操作を受け付ける。撮像操作スイッチ104は、操作を受け付けたとき、操作に応じた信号を制御部103bに出力する。撮像操作スイッチ104の形状と構造とは任意である。例えば、撮像操作スイッチ104はシャッターボタンである。
 通信モジュール105は、表示装置30と無線通信を行う。通信モジュール105は、撮像モジュール100によって生成された画像を表示装置30に無線送信する。また、通信モジュール105は、撮像指示を示す指示情報を表示装置30から無線受信する。
 制御部103bは、ファインダー機器20aが撮像装置10bに装着されていることが検出され、かつ、撮像操作スイッチ104によって撮像指示の操作が受け付けられた場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100または撮像モジュール100に接続されるレンズモジュール40を制御する。制御部103bは、ファインダー機器20aが撮像装置10bに装着されていないことが検出され、かつ、撮像操作スイッチ104によって撮像指示の操作が受け付けられた場合、第2の情報に基づく第2の動作が行われるように撮像モジュール100または撮像モジュール100に接続されるレンズモジュール40を制御する。
 例えば、制御部103bは、制御部103bの動作を規定する命令を含むプログラムを読み込み、読み込まれたプログラムを実行する。このプログラムの実現形態は、図1に示す制御部103aの機能を実現するプログラムの実現形態と同様である。
 上記以外の点については、図4に示す構成は図1に示す構成と同様である。
 図5は、表示装置30の構成を示している。図5に示すように、表示装置30は、通信モジュール300と、表示モジュール301と、操作スイッチ302と、制御部303とを有する。
 通信モジュール300は、撮像装置10bと無線通信を行う。通信モジュール300は、撮像装置10bの撮像モジュール100によって生成された画像を撮像装置10bから無線受信する。また、通信モジュール300は、撮像指示を示す指示情報を撮像装置10bに無線送信する。
 表示モジュール301は、通信モジュール300によって無線受信された画像を表示する。
 操作スイッチ302は、撮像指示の操作を受け付ける。例えば、撮像指示は、静止画の取得指示である。例えば、操作スイッチ302がユーザの体の一部と接触しているとき、操作スイッチ302はユーザから操作を受け付ける。操作スイッチ302は、操作を受け付けたとき、操作に応じた信号を制御部303に出力する。操作スイッチ302の形状と構造とは任意である。例えば、操作スイッチ302はボタンである。表示モジュール301がタッチパネルである場合、操作スイッチ302は表示モジュール301に含まれてもよい。
 制御部303は、操作スイッチ302によって撮像指示の操作が受け付けられた場合、撮像指示を示す指示情報を生成する。
 図6は、撮像の制御に関する撮像装置10bの動作の手順を示している。図6を参照して、撮像の制御に関する撮像装置10bの動作を説明する。図6に示す処理について、図2に示す処理と異なる点を説明する。
 ステップS105においてファインダー機器20aが撮像装置10bに装着されている場合、撮像操作スイッチ104は、撮像指示の操作を受け付ける(ステップS200)。撮像指示の操作が受け付けられた後、ステップS110の処理が行われる。
 ステップS105においてファインダー機器20aが撮像装置10bに装着されていない場合、制御部103bは、撮像モジュール100によって生成された画像を通信モジュール105に出力する。通信モジュール105は、画像を表示装置30に無線送信する(ステップS205)。例えば、表示装置30に送信される画像は、複数フレームの画像で構成される動画(ライブ画像)である。
 画像が表示装置30に無線送信された後、通信モジュール105は、撮像指示を示す指示情報を表示装置30から無線受信する(ステップS210)。通信モジュール105によって受信された指示情報は制御部103bに出力される。指示情報が表示装置30から無線受信された後、ステップS115の処理が行われる。
 上記以外の点については、図6に示す処理は図2に示す処理と同様である。
 図7は、画像の表示と撮像の制御とに関する表示装置30の動作の手順を示している。図7を参照して、画像の表示と撮像の制御とに関する表示装置30の動作を説明する。
 通信モジュール300は、画像を撮像装置10bから無線受信する(ステップS300)。通信モジュール300によって無線受信された画像は、制御部303を介して表示モジュール301に出力される。表示モジュール301は画像を表示する(ステップS305)。表示された画像の確認によりユーザは撮像の設定の確認を行うことが可能である。
 画像が表示された後、操作スイッチ302は、撮像指示の操作を受け付ける(ステップS310)。撮像指示の操作が受け付けられた後、制御部303は、撮像指示を示す指示情報を生成する。生成された指示情報は通信モジュール300に出力される。通信モジュール300は、指示情報を撮像装置10bに無線送信する(ステップS315)。
 上記の処理が行われた後、画像の表示と撮像の制御とに関する表示装置30の動作が終了する。
 第1の実施形態の説明に示すように、ステップS110では、第1の情報に基づく複数の第1の動作のうちユーザによって予め選択された1つの第1の動作が選択されてもよい。例えば、撮像装置10bの制御部103bは、第1の情報を記憶モジュール102aから読み出す。通信モジュール105は、読み出された第1の情報を表示装置30に無線送信する。表示装置30の通信モジュール300は、第1の情報を撮像装置10bから無線受信する。表示モジュール301は、無線受信された第1の情報に基づいて、撮像装置10bが実行可能な複数の第1の動作を表示する。操作スイッチ302は、表示モジュール301によって表示された複数の第1の動作のいずれか1つを選択する操作を受け付ける。制御部303は、選択された第1の動作を示す第1の動作情報を生成する。通信モジュール300は、生成された第1の動作情報を撮像装置10bに無線送信する。
 撮像装置10bの通信モジュール105は第1の動作情報を表示装置30から無線受信する。制御部103bは、無線受信された第1の動作情報が示す第1の動作に対応する設定情報を記憶モジュール102aに保存する。ステップS110では、制御部103bは、第1の情報が示す複数の第1の動作のうち設定情報によって指定される第1の動作を選択する。
 第1の実施形態の説明に示すように、ステップS115では、第2の情報に基づく複数の第2の動作のうちユーザによって予め選択された1つの第2の動作が選択されてもよい。この場合の説明は、第1の動作に関する上記の説明と同様である。
 ファインダー機器20aが撮像装置10bに装着されていない場合、表示装置30の表示モジュール301に表示される画像の確認によりユーザは撮像の設定の確認が可能である。撮像装置10bと表示装置30とが無線通信により接続される場合、無線通信の接続を確立する処理に時間を要する。ファインダー機器20aが撮像装置10bに装着されている場合、撮像装置10bと表示装置30とが接続されている必要はない。このため、簡易または高速に撮像を行うことができる。ファインダー機器20aが撮像装置10bに装着されている場合、ファインダー機器20aによって表示される光学像または画像の確認により撮像の設定の確認が行われる。この場合、実行可能な動作が制限されることによって、撮像の設定が最適な設定と異なる度合いが低減される。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第1の例)
 図8は、第2の実施形態の第1の例における第1の情報A11と第2の情報A12とを示している。第1の情報A11は、ファインダー機器20aが装着されている場合に対応する。第2の情報A12は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A11と第2の情報A12とは、撮像モードの情報を含む。
 第1の情報A11は、複数の第1の動作の情報を含む。第2の情報A12は、複数の第2の動作の情報を含む。第1の動作と第2の動作とは、シャッタースピードと絞りとの少なくとも1つを制御するモードの動作である。具体的には、複数の第1の動作は、フルオートモードと、プログラマブルオートモードとである。具体的には、複数の第2の動作は、フルオートモードと、プログラマブルオートモードと、シャッタースピード優先モードと、絞り優先モードと、マニュアルモードとである。フルオートモードと、プログラマブルオートモードとは、第1の動作と第2の動作とで共通である。第1の情報A11は、フルオートモードと、プログラマブルオートモードとのいずれか1つのみの情報を含んでもよい。
 フルオートモードは、撮像装置10bがシーンに最適な撮像モードを自動的に設定するモードである。フルオートモードでは、シーンに最適な撮像モードが判断され、その撮像モードに対応するシャッタースピード値と絞り値とが撮像モジュール100に設定される。プログラマブルオートは、画像における主要な被写体に適したシャッタースピード値と絞り値とを自動的に設定するモードである。シャッタースピード優先モードは、ユーザによって指定されたシャッタースピード値を基準に、露出が適正になるように絞り値を設定するモードである。絞り優先モードは、ユーザによって指定された絞り値を基準に、露出が適正になるようにシャッタースピード値を設定するモードである。マニュアルモードは、ユーザによって指定されたシャッタースピード値と絞り値とを設定するモードである。
 撮像モジュール100に設定されているシャッタースピード値と絞り値とが、主要な被写体の撮像に適したシャッタースピード値および絞り値と合っていない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、主要な被写体が非常に暗いまたは明るい画像が撮像されやすい。複数の第1の動作は、ユーザが撮像パラメータを指定しない撮像モードのみを含む。複数の第1の動作は、ユーザが撮像パラメータを指定する撮像モードを含まない。
 例えば、ファインダー機器20aが撮像装置10bに装着されている場合、以下の方法により、2つの第1の動作のうち1つが選択される。撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を取得する。制御部103bは、取得された画像の状態に基づいてシーンを判定する。最適なシーンを判定できた場合、制御部103bは、フルオートモードを選択する。制御部103bは、フルオートモードで撮像が行われるように撮像モジュール100のモードをフルオートモードに設定する。最適なシーンを判定できなかった場合、制御部103bは、プログラマブルモードを選択する。制御部103bは、プログラマブルモードで撮像が行われるように撮像モジュール100のモードをプログラマブルモードに設定する。
 第2の実施形態の第1の例では、ファインダー機器20aが撮像装置10bに装着されている場合、ユーザが撮像パラメータを指定しない撮像モードで撮像が行われる。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第2の例)
 図9は、第2の実施形態の第2の例における第1の情報A21と第2の情報A22とを示している。第1の情報A21は、ファインダー機器20aが装着されている場合に対応する。第2の情報A22は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A21と第2の情報A22とは、フォーカス制御アルゴリズムの情報を含む。
 第1の情報A21は、複数の第1の動作の情報を含む。第2の情報A22は、複数の第2の動作の情報を含む。第1の動作と第2の動作とは、フォーカスを制御する動作である。具体的には、複数の第1の動作は、顔優先アルゴリズムと、中心がターゲットとなるシングルAFアルゴリズムとである。具体的には、複数の第2の動作は、顔優先アルゴリズムと、中心がターゲットとなるシングルAFアルゴリズムと、コンティニュアスAFアルゴリズムと、マニュアルアルゴリズムとである。顔優先アルゴリズムと、中心がターゲットとなるシングルAFアルゴリズムとは、第1の動作と第2の動作とで共通である。第1の情報A21は、顔優先アルゴリズムと、中心がターゲットとなるシングルAFアルゴリズムとのいずれか1つのみの情報を含んでもよい。
 顔優先アルゴリズムは、顔認識機能により画像から認識された顔にフォーカスを合わせるアルゴリズムである。中心がターゲットとなるシングルAFアルゴリズムは、画像の中心にある被写体にフォーカスを1回合わせるアルゴリズムである。コンティニュアスAFアルゴリズムは、動きのある被写体に連続的にフォーカスを合わせるアルゴリズムである。マニュアルアルゴリズムは、ユーザによって指定されたフォーカスを設定するアルゴリズムである。
 フォーカスが主要な被写体に合っていない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、フォーカスがぼけた画像が撮像されやすい。複数の第1の動作は、被写体の確認を伴わない場合に適切なフォーカスが設定されやすいフォーカス制御アルゴリズムのみを含む。複数の第1の動作は、被写体の確認を伴わない場合に適切なフォーカスが設定されにくいフォーカス制御アルゴリズムを含まない。
 例えば、ファインダー機器20aが撮像装置10bに装着されている場合、以下の方法により、2つの第1の動作のうち1つが選択される。撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を取得する。制御部103bは、取得された画像に人物がいるか否かを判定する。画像に人物がいる場合、制御部103bは、顔優先アルゴリズムを選択する。制御部103bは、顔優先アルゴリズムに従ってフォーカスが設定された状態で撮像が行われるようにレンズモジュール40を制御する。画像に人物がいない場合、制御部103bは、中心がターゲットとなるシングルAFアルゴリズムを選択する。制御部103bは、中心がターゲットとなるシングルAFアルゴリズムに従ってフォーカスが設定された状態で撮像が行われるようにレンズモジュール40を制御する。
 第2の実施形態の第2の例では、ファインダー機器20aが撮像装置10bに装着されている場合、適切なフォーカスが設定されやすいフォーカス制御アルゴリズムに従って撮像が行われる。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第3の例)
 図10は、第2の実施形態の第3の例における第1の情報A31と第2の情報A32とを示している。第1の情報A31は、ファインダー機器20aが装着されている場合に対応する。第2の情報A32は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A31と第2の情報A32とは、特定の撮像パラメータ(フォーカスパラメータ)を設定する動作の情報を含む。
 第1の情報A31は、複数の第1の動作の情報を含む。第2の情報A32は、複数の第2の動作の情報を含む。第1の動作と第2の動作とは、特定の撮像パラメータ(フォーカスパラメータ)を設定する動作である。図10に示す例では、レンズの絞り値がF3.5以上F22以下の範囲で設定可能なレンズモジュール40が使用される。具体的には、複数の第1の動作は、レンズモジュール40のレンズの絞り値をF5.6以上F22以下のいずれか1つの値に設定する動作である。具体的には、複数の第2の動作は、レンズモジュール40のレンズの絞り値をF3.5以上F22以下のいずれか1つの値に設定する動作である。レンズモジュール40のレンズの絞り値をF5.6以上F22以下のいずれか1つの値に設定する動作は、第1の動作と第2の動作とで共通である。図10に示す例では、F5.6以上F22以下の範囲とF3.5以上F22以下の範囲とで、レンズモジュール40のレンズの複数の絞り値が設定可能である。このため、撮像装置10bは、特定の撮像パラメータを設定する複数の第1の動作と複数の第2の動作とを実行可能である。
 フォーカスが主要な被写体に合っていない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、フォーカスがぼけた画像が撮像されやすい。レンズモジュール40のレンズの絞り値を変更することによって、フォーカスが合っている範囲(被写界深度)が広がる。これによって、フォーカスがぼけた画像の撮像を避けることができる。複数の第1の動作は、被写界深度が相対的に広い絞り値を設定する動作のみを含む。複数の第1の動作は、被写界深度が相対的に狭い絞り値を設定する動作を含まない。
 例えば、ファインダー機器20aが撮像装置10bに装着されている場合、以下の方法により、複数の第1の動作のうち1つが選択される。撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を連続的に取得する。例えば、レンズモジュール40のレンズの絞り値は、最初はF5.6に設定されている。制御部103bは、画像のエッジ成分を算出する。算出されたエッジ成分の値が閾値未満である場合、制御部103bはレンズモジュール40のレンズの絞り値をより大きな値に変更する。レンズモジュール40のレンズの絞り値が変更された後、制御部103bは、画像のエッジ成分を再度算出する。エッジ成分の値が閾値以上になるまで上記の動作が繰り返される。つまり、制御部103bは、レンズモジュール40のレンズの絞り値がF5.6以上になった状態で撮像が行われるようにレンズモジュール40を制御する。
 第2の実施形態の第3の例では、ファインダー機器20aが撮像装置10bに装着されている場合、被写界深度が相対的に広い絞り値が設定されて撮像が行われる。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第4の例)
 図11は、第2の実施形態の第4の例における第1の情報A41と第2の情報A42とを示している。第1の情報A41は、ファインダー機器20aが装着されている場合に対応する。第2の情報A42は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A41と第2の情報A42とは、露出制御アルゴリズムの情報を含む。
 第1の情報A41は、複数の第1の動作の情報を含む。第2の情報A42は、複数の第2の動作の情報を含む。第1の動作と第2の動作とは、露出を制御する動作である。具体的には、複数の第1の動作は、中央重点平均測光アルゴリズムと、顔優先アルゴリズムとである。具体的には、複数の第2の動作は、中央重点平均測光アルゴリズムと、顔優先アルゴリズムと、スポット測光アルゴリズムとである。中央重点平均測光アルゴリズムと、顔優先アルゴリズムとは、第1の動作と第2の動作とで共通である。第1の情報A41は、中央重点平均測光アルゴリズムと、顔優先アルゴリズムとのいずれか1つのみの情報を含んでもよい。
 中央重点平均測光アルゴリズムは、画像の中央部の明るさを重点的に検出しつつ、画像全体の明るさを検出し、検出された明るさに基づいて露出を制御するアルゴリズムである。顔優先アルゴリズムは、顔認識機能により画像から認識された顔の明るさが最適になるように露出を制御するアルゴリズムである。スポット測光アルゴリズムは、画像のフォーカスポイントの周辺のみの明るさが最適になるように露出を制御するアルゴリズムである。
 主要な被写体の明るさが適切でない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、主要な被写体が非常に暗いまたは明るい画像が撮像されやすい。複数の第1の動作は、被写体の確認を伴わない場合に適切な露出が設定されやすい露出制御アルゴリズムのみを含む。複数の第1の動作は、被写体の確認を伴わない場合に適切な露出が設定されにくい露出制御アルゴリズムを含まない。
 例えば、ファインダー機器20aが撮像装置10bに装着されている場合、以下の方法により、2つの第1の動作のうち1つが選択される。撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を取得する。制御部103bは、取得された画像に人物がいるか否かを判定する。画像に人物がいる場合、制御部103bは、顔優先アルゴリズムを選択する。制御部103bは、顔優先アルゴリズムに従って露出が設定された状態で撮像が行われるように撮像モジュール100を制御する。画像に人物がいない場合、制御部103bは、中央重点平均測光アルゴリズムを選択する。制御部103bは、中央重点平均測光アルゴリズムに従って露出が設定された状態で撮像が行われるように撮像モジュール100を制御する。
 第2の実施形態の第4の例では、ファインダー機器20aが撮像装置10bに装着されている場合、適切な露出が設定されやすい露出制御アルゴリズムに従って撮像が行われる。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第5の例)
 図12は、第2の実施形態の第5の例における第1の情報A51と第2の情報A52とを示している。第1の情報A51は、ファインダー機器20aが装着されている場合に対応する。第2の情報A52は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A51と第2の情報A52とは、特定の撮像パラメータ(画角パラメータ)を設定する動作の情報を含む。
 第1の情報A51は、複数の第1の動作の情報を含む。第2の情報A52は、複数の第2の動作の情報を含む。第1の動作と第2の動作とは、特定の撮像パラメータ(画角パラメータ)を設定する動作である。図12に示す例では、レンズの画角が35mm換算で28mm以上84mm以下の範囲で設定可能なレンズモジュール40が使用される。28mmの画角が、最も広角な状態すなわちワイド端に対応する。84mmの画角が、最も望遠の状態すなわちテレ端に対応する。具体的には、複数の第1の動作は、レンズモジュール40のレンズの画角を28mm以上36mm以下のいずれか1つの値に設定する動作である。具体的には、複数の第2の動作は、レンズモジュール40のレンズの画角を28mm以上84mm以下のいずれか1つの値に設定する動作である。レンズモジュール40のレンズの画角を28mm以上36mm以下のいずれか1つの値に設定する動作は、第1の動作と第2の動作とで共通である。図12に示す例では、28mm以上36mm以下の範囲と28mm以上84mm以下の範囲とで、レンズモジュール40のレンズの複数の画角が設定可能である。このため、撮像装置10bは、特定の撮像パラメータを設定する複数の第1の動作と複数の第2の動作とを実行可能である。
 高倍率のズームに相当する画角がレンズモジュール40のレンズに設定されている場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、主要な被写体の一部または全部が撮像範囲に収まらない画像が撮像されやすい。レンズモジュール40のレンズの画角を変更することによって、より広角な画角を設定することが可能である。これによって、主要な被写体の一部または全部が撮像範囲に収まらない画像の撮像を避けることができる。複数の第1の動作は、相対的に広角の画角を設定する動作のみを含む。複数の第1の動作は、相対的に望遠の画角を設定する動作を含まない。
 例えば、ファインダー機器20aが撮像装置10bに装着されている場合、以下の方法により、複数の第1の動作のうち1つが選択される。撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を連続的に取得する。例えば、レンズモジュール40のレンズの画角は、最初は36mmに設定されている。制御部103bは、画像から主要な被写体の輪郭を検出する。検出された輪郭が画面の境界と交わる場合、制御部103bはレンズモジュール40のレンズの画角をより望遠の画角に変更する。レンズモジュール40のレンズの画角が変更された後、制御部103bは、画像から主要な被写体の輪郭を再度検出する。検出された輪郭が画面の境界と交わらなくなるまで上記の動作が繰り返される。つまり、制御部103bは、レンズモジュール40のレンズの画角が36mm以下になった状態で撮像が行われるようにレンズモジュール40を制御する。
 第2の実施形態の第5の例では、ファインダー機器20aが撮像装置10bに装着されている場合、相対的に広角の画角が設定されて撮像が行われる。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第6の例)
 図13は、第2の実施形態の第6の例における第1の情報A61と第2の情報A62とを示している。第1の情報A61は、ファインダー機器20aが装着されている場合に対応する。第2の情報A62は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A61と第2の情報A62とは、撮像パラメータ(フォーカスパラメータ)が異なる複数回の撮像または1回の撮像の情報を含む。
 第1の情報A61は、1つの第1の動作の情報を含む。第2の情報A62は、複数の第2の動作の情報を含む。1つの第1の動作は、連続的な複数回の撮像を行う動作である。具体的には、1つの第1の動作は、フォーカスブラケットである。複数の第2の動作は、連続的な複数回の撮像を行う動作と、1回のみの撮像を行う動作とを含む。具体的には、複数の第2の動作は、フォーカスブラケットと、単写とである。フォーカスブラケットは、第1の動作と第2の動作とで共通である。
 フォーカスブラケットは、1回すなわち1フレームの撮像毎にフォーカスパラメータすなわちフォーカスの位置を変化させながら複数回すなわち複数フレームの撮像を行う動作である。単写は、1回すなわち1フレームのみの撮像を行う動作である。
 フォーカスが主要な被写体に合っていない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、フォーカスがぼけた画像が撮像されやすい。さらに、主要な被写体の動きと照明光の条件とによって最適なフォーカスが変化しやすい。1つの第1の動作は、被写体の確認を伴わない場合に適切なフォーカスで撮像された画像が取得されやすい動作のみを含む。1つの第1の動作は、被写体の確認を伴わない場合に適切なフォーカスで撮像された画像が取得されにくい動作を含まない。
 制御部103bは、ファインダー機器20aが撮像装置10bに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100とレンズモジュール40とを制御する。例えば、ファインダー機器20aが撮像装置10bに装着され、撮像モジュール100が撮像可能状態になったとき、制御部103bは、レンズモジュール40のレンズのフォーカスを設定する。レンズモジュール40のレンズのフォーカスが設定された後、制御部103bは、1フレームの撮像が行われるように撮像モジュール100を制御する。制御部103bは、レンズモジュール40のレンズのフォーカスの設定と1フレームの撮像の制御とを複数回行う。レンズモジュール40のレンズのフォーカスは1フレームの撮像毎に異なる。
 第2の実施形態の第6の例では、ファインダー機器20aが撮像装置10bに装着されている場合、複数回の撮像が行われる。複数回の撮像により取得された複数フレームの画像の少なくとも1つは、最適な設定で撮像された画像であり得る。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第7の例)
 図14は、第2の実施形態の第7の例における第1の情報A71と第2の情報A72とを示している。第1の情報A71は、ファインダー機器20aが装着されている場合に対応する。第2の情報A72は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A71と第2の情報A72とは、撮像パラメータ(露出パラメータ)が異なる複数回の撮像または1回の撮像の情報を含む。
 第1の情報A71は、複数の第1の動作の情報を含む。第2の情報A72は、複数の第2の動作の情報を含む。複数の第1の動作は、連続的な複数回の撮像を行う動作である。具体的には、複数の第1の動作は、露出ブラケットと、ISO(International Organization for Standardization)ブラケットと、HDR(High Dynamic Range)ブラケットとである。複数の第2の動作は、連続的な複数回の撮像を行う動作と、1回のみの撮像を行う動作とを含む。具体的には、複数の第2の動作は、露出ブラケットと、ISOブラケットと、HDRブラケットと、単写とである。露出ブラケットと、ISOブラケットと、HDRブラケットとは、第1の動作と第2の動作とで共通である。第1の情報A71は、露出ブラケットと、ISOブラケットと、HDRブラケットとのいずれか1つのみの情報を含んでもよい。
 露出ブラケットは、1回すなわち1フレームの撮像毎に露出パラメータすなわち露出の値を変化させながら複数回すなわち複数フレームの撮像を行う動作である。ISOブラケットは、1回すなわち1フレームの撮像毎に露出パラメータすなわちISO感度を変化させながら複数回すなわち複数フレームの撮像を行う動作である。HDRブラケットは、1回すなわち1フレームの撮像毎に露出パラメータすなわち露出の値を変化させながら複数回すなわち複数フレームの撮像を行う動作である。HDRブラケットにより生成された画像はHDR合成に使用される。単写は、1回すなわち1フレームのみの撮像を行う動作である。
 主要な被写体の明るさが適切でない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、主要な被写体が非常に暗いまたは明るい画像が撮像されやすい。さらに、主要な被写体の動きと照明光の条件とによって最適な明るさが変化しやすい。1つの第1の動作は、被写体の確認を伴わない場合に適切な露出で撮像された画像が取得されやすい動作のみを含む。1つの第1の動作は、被写体の確認を伴わない場合に適切な露出で撮像された画像が取得されにくい動作を含まない。
 制御部103bは、ファインダー機器20aが撮像装置10bに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100を制御する。例えば、ファインダー機器20aが撮像装置10bに装着され、撮像モジュール100が撮像可能状態になったとき、制御部103bは、撮像モジュール100の露出とISO感度とのいずれか1つを設定する。撮像モジュール100の露出とISO感度とのいずれか1つが設定された後、制御部103bは、1フレームの撮像が行われるように撮像モジュール100を制御する。制御部103bは、撮像モジュール100の露出とISO感度とのいずれか1つの設定と1フレームの撮像の制御とを複数回行う。撮像モジュール100の露出とISO感度とは1フレームの撮像毎に異なる。
 第2の実施形態の第7の例では、ファインダー機器20aが撮像装置10bに装着されている場合、複数回の撮像が行われる。複数回の撮像により取得された複数フレームの画像の少なくとも1つは、最適な設定で撮像された画像であり得る。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の変形例)
 図15は、第2の実施形態の変形例における第1の情報A81と第2の情報A82とを示している。第1の情報A81は、ファインダー機器20aが装着されている場合に対応する。第2の情報A82は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A81と第2の情報A82とは、撮像パラメータ(色パラメータまたは画像加工パラメータ)が異なる複数回の画像処理または1回の画像処理の情報を含む。
 第1の情報A81は、複数の第1の動作の情報を含む。第2の情報A82は、複数の第2の動作の情報を含む。複数の第1の動作は、連続的な複数回の画像処理を行う動作である。具体的には、複数の第1の動作は、ホワイトバランスブラケットと、特定フィルタブラケットとである。複数の第2の動作は、連続的な複数回の画像処理を行う動作と、1回のみの画像処理を行う動作とを含む。具体的には、複数の第2の動作は、ホワイトバランスブラケットと、特定フィルタブラケットと、1回の画像処理とである。ホワイトバランスブラケットと、特定フィルタブラケットとは、第1の動作と第2の動作とで共通である。第1の情報A81は、ホワイトバランスブラケットと、特定フィルタブラケットとのいずれか1つのみの情報を含んでもよい。
 ホワイトバランスブラケットは、1回すなわち1フレームの撮像により取得された画像に対して、色パラメータすなわち色合いに関するパラメータを変化させながら複数回の画像処理を行い、複数の画像を生成する動作である。特定フィルタブラケットは、1回すなわち1フレームの撮像により取得された画像に対して、色パラメータを含む画像加工パラメータ(画像処理フィルタパラメータ)を変化させながら複数回の画像処理を行い、複数の画像を生成する動作である。1回の画像処理は、1回すなわち1フレームの撮像により取得された画像に対して、1回のみの画像処理を行い、1つのみの画像を生成する動作である。
 主要な被写体の色が適切でない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。つまり、主要な被写体が実際の色と異なる色で撮像されやすい。さらに、主要な被写体の動きと照明光の条件とによって被写体の色が変化しやすい。1つの第1の動作は、被写体の確認を伴わない場合に適切な色で被写体が撮像された画像が取得されやすい動作のみを含む。1つの第1の動作は、被写体の確認を伴わない場合に適切な色で被写体が撮像された画像が取得されにくい動作を含まない。
 第2の実施形態の変形例では、ステップS110の処理とステップS115の処理とが以下の処理に変更される。制御部103bは、ファインダー機器20aが撮像装置10bに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように画像処理を制御する。例えば、ファインダー機器20aが撮像装置10bに装着され、撮像モジュール100が撮像可能状態になったとき、制御部103bは、色合いに関するパラメータと画像加工パラメータとのいずれか1つを設定する。色合いに関するパラメータと画像加工パラメータとのいずれか1つが設定された後、制御部103bは、撮像モジュール100によって生成された画像に画像処理を行う。制御部103bは、色合いに関するパラメータと画像加工パラメータとのいずれか1つの設定と画像処理とを複数回行う。複数回の画像処理に使用される画像は同一である。色合いに関するパラメータと画像加工パラメータとは1回の画像処理毎に異なる。上記の処理によって、制御部103bは、1つの画像から複数の画像を生成する。制御部103bは、ファインダー機器20aが撮像装置10bに装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように画像処理を制御する。
 第2の実施形態の変形例では、ファインダー機器20aが撮像装置10bに装着されている場合、複数回の画像処理が行われる。複数回の画像処理により取得された複数の画像の少なくとも1つは、最適な設定で処理された画像であり得る。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 (第2の実施形態の第8の例)
 図16は、第2の実施形態の第8の例における第1の情報A91と第2の情報A92とを示している。第1の情報A91は、ファインダー機器20aが装着されている場合に対応する。第2の情報A92は、ファインダー機器20aが装着されていない場合に対応する。第1の情報A91と第2の情報A92とは、複数回または1回の撮像の情報を含む。
 第1の情報A91は、1つの第1の動作の情報を含む。第2の情報A92は、複数の第2の動作の情報を含む。1つの第1の動作は、連続的な複数回の撮像を行う動作である。具体的には、1つの第1の動作は、基準タイミングのM秒前から1秒当たりN回の撮像を行う動作である。複数の第2の動作は、連続的な複数回の撮像を行う動作と、1回のみの撮像を行う動作とを含む。具体的には、複数の第2の動作は、基準タイミングのM秒前から1秒当たりN回の撮像を行う動作と、単写とである。Mは1以上の任意の正の実数である。Nは2以上の任意の正の整数である。基準タイミングのM秒前から1秒当たりN回の撮像を行う動作は、第1の動作と第2の動作とで共通である。
 基準タイミングのM秒前から1秒当たりN回の撮像を行う動作は、基準タイミングのM秒前から基準タイミングまでの1秒当たりN回の撮像によって生成された画像を取得する動作である。単写は、1回すなわち1フレームのみの撮像を行う動作である。
 第2の実施形態の第6の例と第7の例とで説明したように、主要な被写体のフォーカス等が適切でない場合、撮像モジュール100はユーザにとって好ましい画像の撮像に失敗しやすい。1つの第1の動作は、被写体の確認を伴わない場合に適切な画像が取得されやすい動作のみを含む。1つの第1の動作は、被写体の確認を伴わない場合に適切な画像が取得されにくい動作を含まない。
 制御部103bは、ファインダー機器20aが撮像装置10bに装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100を制御する。例えば、ファインダー機器20aが撮像装置10bに装着され、撮像モジュール100が撮像可能状態になったとき、制御部103bは撮像モジュール100から画像を連続的に取得する。取得された画像は記憶モジュール102aに順次記憶される。つまり、画像がバッファリングされる。
 撮像操作スイッチ104が撮像指示を受け付けたとき、制御部103bは、所定の時間に記憶モジュール102aに記憶された複数の画像を参照する。所定の時間は、基準タイミングのM秒前から基準タイミングまでの時間である。基準タイミングは、撮像操作スイッチ104が撮像指示を受け付けたタイミングである。制御部103bは、1秒当たりN枚の割合で画像を選択する。選択された画像は記憶モジュール102aに保存される。つまり、制御部103bは、基準タイミングを基準とする一定時間に撮像された複数の画像を記憶モジュール102aに保存する。
 第2の実施形態の第8の例では、ファインダー機器20aが撮像装置10bに装着されている場合、複数回の撮像が行われる。複数回の撮像により取得された複数フレームの画像の少なくとも1つは、最適な設定で撮像された画像であり得る。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。つまり、撮像モジュール100がユーザにとって好ましい画像の撮像に成功しやすい。
 第2の実施形態の第1から第8の例と、第2の実施形態の変形例とは第1の実施形態の撮像装置10bに適用可能である。
(第3の実施形態)
 図17は、本発明の第3の実施形態の撮像装置10cの構成を示している。図17に示すように、撮像装置10cは、撮像モジュール100と、検出部101cと、記憶モジュール102aと、制御部103cとを有する。
 図17に示す構成について、図1に示す構成と異なる点を説明する。ファインダー機器20cは、接眼センサー200を有する。接眼センサー200は、接眼センサー200に眼が近づけられているか否かを検出する。接眼センサー200は、検出の結果を示す接眼情報を出力する。これによって、ファインダー機器20cは、接眼センサー200に眼が近づけられているか否かを示す接眼情報を出力する。検出部101cは、接眼情報に基づいて、接眼センサー200に眼が近づけられているか否かを検出する。制御部103cは、ファインダー機器20cが撮像装置10cに装着されたことが検出され、かつ、接眼センサー200に眼が近づけられていることが検出された場合、第1の情報に基づく第1の動作が行われるように撮像モジュール100または画像処理を制御する。
 例えば、第2の実施形態の第6から第8の例と、第2の実施形態の変形例とのいずれか1つが撮像装置10cに適用される。制御部103cは、ファインダー機器20cが撮像装置10cに装着されたことが検出された後、接眼センサー200に眼が近づけられていることが検出された場合、第1の情報に基づく複数回の撮像または複数回の画像処理を開始する。
 例えば、制御部103cは、制御部103cの動作を規定する命令を含むプログラムを読み込み、読み込まれたプログラムを実行する。このプログラムの実現形態は、図1に示す制御部103aの機能を実現するプログラムの実現形態と同様である。
 上記以外の点については、図17に示す構成は図1に示す構成と同様である。
 第3の実施形態では、ファインダー機器20cが撮像装置10cに装着されたことが検出され、かつ、接眼センサー200に眼が近づけられていることが検出された場合のみ、第1の情報に基づく第1の動作が行われるように撮像モジュール100または画像処理が制御される。このため、撮像装置10cは撮像または画像処理の設定を早く開始することができる。
 以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 本発明の各実施形態によれば、ファインダー機器が撮像装置に装着されている場合、ファインダー機器が撮像装置に装着されていない場合と比較して、実行可能な動作が制限される。このため、撮像の設定が最適な設定と異なる度合いを低減することができる。
 1 撮像システム
 10a,10b,10c 撮像装置
 20a,20c ファインダー機器
 30 表示装置
 40 レンズモジュール
 100 撮像モジュール
 101a,101c 検出部
 102a 記憶モジュール
 103a,103b,103c,303 制御部
 104 撮像操作スイッチ
 105,300 通信モジュール
 200 接眼センサー
 301 表示モジュール
 302 操作スイッチ

Claims (10)

  1.  撮像装置であって、
     撮像を行って画像を生成する撮像モジュールと、
     ファインダー機器が前記撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像または前記撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能である検出部と、
     第1の情報と第2の情報とを記憶し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含む記憶モジュールと、
     前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、前記第2の情報に基づく前記第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御する制御部と、
     を有する撮像装置。
  2.  前記第1の動作と前記第2の動作とは、シャッタースピードと絞りとの少なくとも1つを制御する動作である請求項1に記載の撮像装置。
  3.  前記第1の動作と前記第2の動作とは、フォーカスを制御する動作である請求項1に記載の撮像装置。
  4.  前記第1の動作と前記第2の動作とは、露出を制御する動作である請求項1に記載の撮像装置。
  5.  前記第1の動作と前記第2の動作とは、画角を制御する動作である請求項1に記載の撮像装置。
  6.  前記1つまたは複数の第1の動作は、連続的な複数回の撮像を行う動作であり、
     前記複数の第2の動作は、連続的な複数回の撮像を行う動作と、1回のみの撮像を行う動作とを含む
     請求項1に記載の撮像装置。
  7.  前記ファインダー機器は、接眼センサーを有し、前記接眼センサーに眼が近づけられているか否かを示す接眼情報を出力し、
     前記検出部はさらに、前記接眼情報に基づいて、前記接眼センサーに前記眼が近づけられているか否かを検出し、
     前記制御部は、前記ファインダー機器が前記撮像装置に装着されたことが検出され、かつ、前記接眼センサーに前記眼が近づけられていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように前記撮像モジュールを制御する
     請求項6に記載の撮像装置。
  8.  撮像装置であって、
     撮像を行って画像を生成する撮像モジュールと、
     ファインダー機器が前記撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像または前記撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能である検出部と、
     第1の情報と第2の情報とを記憶し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含む記憶モジュールと、
     前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、前記第1の情報に基づく前記第1の動作が行われるように画像処理を制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、前記第2の情報に基づく前記第2の動作が行われるように前記画像処理を制御する制御部と、
     を有し、
     前記1つまたは複数の第1の動作は、連続的な複数回の前記画像処理を行う動作であり、
     前記複数の第2の動作は、連続的な複数回の前記画像処理を行う動作と、1回のみの前記画像処理を行う動作とを含む
     撮像装置。
  9.  ファインダー機器が撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像、または撮像を行って画像を生成する撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能であるステップと、
     前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の前記第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の前記第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含むステップと、
     を有する撮像方法。
  10.  ファインダー機器が撮像装置に装着されているか否かを検出し、前記ファインダー機器は、被写体の光学像、または撮像を行って画像を生成する撮像モジュールから出力される画像を表示し、前記ファインダー機器は、前記撮像装置に対して装着と取り外しとが可能であるステップと、
     前記ファインダー機器が前記撮像装置に装着されていることが検出された場合、第1の情報に基づく第1の動作が行われるように前記撮像モジュールまたは前記撮像モジュールに接続されるレンズモジュールを制御し、前記ファインダー機器が前記撮像装置に装着されていないことが検出された場合、第2の情報に基づく第2の動作が行われるように前記撮像モジュールまたは前記レンズモジュールを制御し、前記第1の情報は、前記ファインダー機器が前記撮像装置に装着されている場合に実行可能な1つまたは複数の前記第1の動作を示し、前記第2の情報は、前記ファインダー機器が前記撮像装置に装着されていない場合に実行可能な複数の前記第2の動作を示し、前記1つまたは複数の第1の動作は前記複数の第2の動作のいずれか1つまたは複数と同一であり、前記複数の第2の動作は、前記1つまたは複数の第1の動作のいずれとも異なる動作を含むステップと、
     を前記撮像装置のコンピュータに実行させるためのプログラム。
PCT/JP2014/079200 2014-11-04 2014-11-04 撮像装置、撮像方法、およびプログラム WO2016071952A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2014/079200 WO2016071952A1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、およびプログラム
JP2015519111A JP5830632B1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、およびプログラム
US15/581,257 US10284767B2 (en) 2014-11-04 2017-04-28 Shooting device, shooting method, and non-transitory computer readable recording medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/079200 WO2016071952A1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/581,257 Continuation US10284767B2 (en) 2014-11-04 2017-04-28 Shooting device, shooting method, and non-transitory computer readable recording medium storing program

Publications (1)

Publication Number Publication Date
WO2016071952A1 true WO2016071952A1 (ja) 2016-05-12

Family

ID=54784397

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079200 WO2016071952A1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、およびプログラム

Country Status (3)

Country Link
US (1) US10284767B2 (ja)
JP (1) JP5830632B1 (ja)
WO (1) WO2016071952A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134334A (ja) * 2018-01-31 2019-08-08 キヤノン株式会社 電子機器及びその制御方法、通信システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107465856B (zh) * 2017-08-31 2020-01-14 Oppo广东移动通信有限公司 摄像方法、装置及终端设备
WO2019127111A1 (zh) * 2017-12-27 2019-07-04 深圳市大疆创新科技有限公司 拍摄系统、承载装置、拍摄装置以及它们的控制方法
CN110602379A (zh) * 2019-08-15 2019-12-20 平安国际智慧城市科技股份有限公司 一种拍摄证件照的方法、装置、设备及存储介质
JP7137544B2 (ja) * 2019-09-26 2022-09-14 キヤノン株式会社 画像処理装置および画像処理方法、プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042471A (ja) * 2007-08-08 2009-02-26 Ricoh Co Ltd 撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000111994A (ja) 1998-10-08 2000-04-21 Olympus Optical Co Ltd 周辺装置及びこれを用いたカメラシステム
JP4016275B2 (ja) * 2003-06-25 2007-12-05 富士電機デバイステクノロジー株式会社 測距装置
US8928783B2 (en) * 2011-09-26 2015-01-06 Ricoh Company, Ltd. Imaging apparatus including switchable edge extraction
EP2613517B1 (en) * 2012-01-06 2015-05-06 Canon Kabushiki Kaisha Illumination device capable of having optical accessory attached forward of light emission section thereof, image pickup system, film holder, light emission control device, and light emission control method
JP6120500B2 (ja) * 2012-07-20 2017-04-26 キヤノン株式会社 撮像装置およびその制御方法
JP2016001209A (ja) * 2014-06-11 2016-01-07 富士フイルム株式会社 接眼レンズおよび撮像装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042471A (ja) * 2007-08-08 2009-02-26 Ricoh Co Ltd 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134334A (ja) * 2018-01-31 2019-08-08 キヤノン株式会社 電子機器及びその制御方法、通信システム
JP7146405B2 (ja) 2018-01-31 2022-10-04 キヤノン株式会社 電子機器及びその制御方法、通信システム

Also Published As

Publication number Publication date
JP5830632B1 (ja) 2015-12-09
US20170230566A1 (en) 2017-08-10
JPWO2016071952A1 (ja) 2017-04-27
US10284767B2 (en) 2019-05-07

Similar Documents

Publication Publication Date Title
JP6936930B2 (ja) 撮像装置および焦点調節方法
JP4290100B2 (ja) 撮像装置及びその制御方法
US10284767B2 (en) Shooting device, shooting method, and non-transitory computer readable recording medium storing program
US10136067B2 (en) Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition
EP2007135B1 (en) Imaging apparatus
KR101587903B1 (ko) 촬상 장치, 촬상 방법 및 기억 매체
KR101728042B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP6166848B2 (ja) 撮影装置、撮影装置本体、及びレンズ鏡筒
CN107087103B (zh) 摄像装置、摄像方法以及计算机可读存储介质
JP2010039284A (ja) 撮像装置及び撮像装置の制御方法
US10129486B2 (en) Image capturing apparatus, control method therefor, and storage medium
JP2008028747A (ja) 撮像装置及びそのプログラム
JP2009175821A (ja) 特定画像の検出方法及び撮影装置
JP6516426B2 (ja) 撮像装置、画像処理方法及びプログラム
US11190704B2 (en) Imaging apparatus and control method for performing live view display of a tracked object
JP5189913B2 (ja) 画像処理装置
US10634976B2 (en) Imaging device
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5421682B2 (ja) 撮像装置および方法
JP2015195499A (ja) 撮像装置、その制御方法、および制御プログラム
JP6511716B2 (ja) 焦点検出装置および撮像装置
JP2010268400A (ja) 電子カメラ
KR101080408B1 (ko) Af 데이터를 이용한 촬영 장치 및 방법
JP5977526B2 (ja) 画像処理装置及び画像処理方法
JP6759028B2 (ja) 撮像装置及びその制御方法、プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015519111

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14905276

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14905276

Country of ref document: EP

Kind code of ref document: A1