WO2024095888A1 - 撮像装置、制御方法およびプログラム - Google Patents

撮像装置、制御方法およびプログラム Download PDF

Info

Publication number
WO2024095888A1
WO2024095888A1 PCT/JP2023/038676 JP2023038676W WO2024095888A1 WO 2024095888 A1 WO2024095888 A1 WO 2024095888A1 JP 2023038676 W JP2023038676 W JP 2023038676W WO 2024095888 A1 WO2024095888 A1 WO 2024095888A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
button
function
pressing operation
response
Prior art date
Application number
PCT/JP2023/038676
Other languages
English (en)
French (fr)
Inventor
達哉 江平
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2023176879A external-priority patent/JP2024066463A/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2024095888A1 publication Critical patent/WO2024095888A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Definitions

  • the present invention relates to technology for operating an imaging device.
  • a desired function e.g., autofocus
  • the desired function can be executed by operating the specific operating member when taking a picture.
  • Imaging devices are equipped with a wide variety of functions in addition to autofocus, and the number of functions that users can assign to operating members is increasing.
  • While a user can assign a desired function to an operating member if the user wishes to execute another function after executing the desired function, the user must operate multiple operating members, which may increase the number of operations or make the operation difficult. For example, if the user wishes to execute autofocus again on a different subject after operating the operating members to execute autofocus on a certain subject, the user must operate multiple operating members, which may result in the camera not being able to focus on the changed subject in time, resulting in a missed photo opportunity.
  • Patent Document 1 describes a method for enabling different functions to be executed in response to different operations on a single operating member
  • Patent Document 2 describes a method for determining a subject to be autofocused on the basis of the user's gaze detection position and the subject position.
  • Patent Document 1 video recording can be performed by pressing the operating member (shutter button) halfway, and still image capture can be performed by pressing it all the way, but there are cases where it is desired to fix the shutter button as a still image capture function, and in that case, changing the function to be performed as in Patent Document 1 makes it impossible to capture still images as intended. Also, when operating autofocus using an operating member other than the shutter button, the user simply does not operate the shutter button, and there is no effect of reducing the number of steps required for operation.
  • the present invention was made in consideration of the above problems, and realizes technology that allows multiple functions related to a given process to be used selectively with a single operation unit that can be operated by multiple presses, thereby reducing the number of operation steps.
  • the imaging device of the present invention has an imaging means, a processing means for performing a predetermined process on a subject in an image captured by the imaging means, a first operation unit for issuing shooting instructions, a second operation unit different from the first operation unit, and a control means for controlling to perform the predetermined process on a first subject in the image in response to a first pressing operation on the second operation unit, and to switch the target of the predetermined process in response to a second pressing operation subsequent to the first pressing operation on the second operation unit.
  • a single operation unit capable of multiple pressing operations can be used to selectively use multiple functions related to a given process, thereby reducing the number of operation steps.
  • FIG. 1A is an external view showing the configuration of the device.
  • FIG. 1B is an external view showing the configuration of the device.
  • FIG. 2 is a block diagram showing the configuration of the device.
  • FIG. 3A is a flowchart showing a control process according to the first embodiment.
  • FIG. 3B is a flowchart showing the control process of the first embodiment.
  • FIG. 4A is a flowchart showing a control process when the eye-gaze input function according to the first embodiment is disabled.
  • FIG. 4B is a flowchart showing the control process when the eye-gaze input function of the first embodiment is disabled.
  • FIG. 5A is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 5B is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 5C is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 5D is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 5E is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 5F is a diagram illustrating an example of a live view screen for explaining the control process of the first embodiment.
  • FIG. 6A is a diagram for explaining a method of assigning functions to operation members in the first embodiment.
  • FIG. 6B is a diagram for explaining a method of allocating functions to operation members in the first embodiment.
  • FIG. 6C is a diagram illustrating a method for assigning functions to operation members in the first embodiment.
  • FIG. 6D is a diagram for explaining a method of allocating functions to operation members in the first embodiment.
  • FIG. 6E is a diagram for explaining a method of allocating functions to operation members in the first embodiment.
  • FIG. 7A is a diagram for explaining a method of assigning functions to operation members in the second embodiment.
  • FIG. 7B is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 8A is a diagram for explaining a method of assigning functions to operation members in the second embodiment.
  • FIG. 8B is a diagram for explaining a method of assigning functions to operation members in the second embodiment.
  • FIG. 8C is a diagram illustrating a method of allocating functions to operation members in the second embodiment.
  • FIG. 8D is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 9A is a diagram for explaining a method of assigning functions to operation members in the second embodiment.
  • FIG. 9B is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 9C is a diagram illustrating a method of allocating functions to operation members in the second embodiment.
  • FIG. 9D is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 9A is a diagram for explaining a method of assigning functions to operation members in the second embodiment.
  • FIG. 9B is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 9C is a diagram illustrating
  • FIG. 9E is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 9F is a diagram for explaining a method of allocating functions to operation members in the second embodiment.
  • FIG. 10 is a flowchart showing a control process according to the second embodiment.
  • FIG. 11A is a flowchart showing a control process according to the second embodiment.
  • FIG. 11B is a flowchart showing a control process according to the second embodiment.
  • FIG. 12 is a diagram illustrating an example of a display setting screen for the gaze pointer.
  • the imaging device of the present invention is applied to a digital single-lens reflex camera capable of taking still images and recording videos
  • a digital camera an example in which the imaging device of the present invention is applied to a digital camera will be described, but the present invention is not limited to this example and can be applied to any device that has a camera function.
  • the present invention can also be applied to tablet devices with a camera function, mobile phones and smartphones, which are a type of mobile phone, music players, game consoles, e-book readers, and the like.
  • FIG. 1A is a front perspective view of the digital camera 100 with the lens unit 200 removed
  • FIG. 1B is a rear perspective view of the digital camera 100.
  • the rear display unit 101 is a display device such as a liquid crystal panel or an organic EL panel provided on the rear surface of the camera body outside the viewfinder, which displays images and various information so that the user can view them.
  • the rear display unit 101 also has the functions of playing back still images after shooting a still image, displaying moving images during recording, and displaying a live view.
  • the rear display unit 101 is provided with a touch panel 270a.
  • the touch panel 270a is a touch detection means capable of detecting contact (touch operation) with the display surface of the rear display unit 101 (the operation surface of the touch panel 270a).
  • the outside-finder display unit 243 is a display device such as a liquid crystal panel or an organic EL panel provided on the top surface of the camera body, which displays various settings of the camera such as the shutter speed and aperture.
  • the shutter button 102 is a push button type operating member for issuing shooting instructions.
  • the mode change switch 103 is a dial type operating member for switching between various modes.
  • the mode change switch 103 switches the operation mode of the system control unit 201 to one of still image shooting mode, video recording mode, and playback mode.
  • the still image shooting modes include, for example, auto shooting mode, auto scene determination mode, manual mode, aperture priority mode (Av mode), shutter speed priority mode (Tv mode), and program AE mode (P mode).
  • the still image shooting modes also include, for example, various scene modes, program AE mode, custom mode, etc., which are shooting settings according to the shooting scene.
  • the mode change switch 103 is used to directly switch to one of the multiple modes included in the still image shooting mode.
  • another operating member may be used to switch to one of the multiple modes included in the still image shooting mode.
  • the video recording mode and playback mode may also include multiple modes.
  • the terminal cover 104 is a cover member that protects a connector (not shown) for connecting an external device to the digital camera 100 via a cable such as a USB.
  • the main electronic dial 105 is a rotary operation member included in the operation unit 270, which will be described later in FIG. 2, and the settings such as the shutter speed and aperture can be changed by turning this main electronic dial 105.
  • the power switch 106 is an operating member that switches the power of the digital camera 100 on and off.
  • the sub electronic dial 107 is a rotary operating member that moves the selection frame, advances images, and the like.
  • the cross key 108 is a movement instruction member that allows operation according to the part of the cross key 108 that is pressed by pressing one of the four directional buttons consisting of up, down, left, and right.
  • the SET button 109 is a push button type operating member that is mainly used to confirm selection items, etc.
  • the record button 110 is a push button type operating member used to switch the live view display on/off in the still image shooting mode, and to instruct the start and stop of video shooting (recording) in the video recording mode.
  • the enlarge button 111 is a push button type operating member used to turn the enlarged display on/off during live view, and to change the magnification ratio during enlarged display.
  • the enlarge button 111 is also used to enlarge the playback image and increase the magnification ratio in playback mode. After turning on the enlarged display, the live view can be enlarged or reduced by operating the main electronic dial 105. In playback mode, it also functions as a magnification button for enlarging the playback image and increasing the magnification ratio.
  • the AE lock button 112 is a push button type operating member that can fix the exposure state by pressing it in the shooting standby state.
  • the playback button 113 is a push button type operating member used to switch between shooting mode and playback mode. Pressing the playback button 113 during shooting mode switches to playback mode, and the most recent image recorded on the recording medium 250 can be displayed on the rear display unit 101.
  • the menu button 114 is a push button type operating member which, when pressed, displays a menu screen on the rear display unit 101 where various settings can be made. The user can intuitively make various settings using the menu screen displayed on the rear display unit 101, the cross key 108, the SET button 109, or the multi-controller 115.
  • the AF-on button 116 is an operating member capable of instructing the execution of a function of executing AE (automatic exposure) processing and AF (autofocus) processing for a specified subject in a live view image, and a function of switching the target of AF processing to a subject specified by the user's gaze input.
  • the AF-on button 116 is a push-button type operating member capable of two-stage operation, a first stage in which the button is turned on during operation (half-pressed) and generates a first AF-on signal SW3, and a second stage in which the button is turned on when the operation is completed (full press) and generates a second AF-on signal SW4.
  • the system control unit 201 executes the AE processing and AF processing for the subject when the AF-on button 116 is operated to the first stage, and executes the function of switching to the subject specified by the user's gaze input when the AF-on button 116 is operated to the second stage following the first stage.
  • the functions to be executed in response to the half-pressing and full-pressing of the AF-on button 116 can be assigned using the setting screen described later in FIG. 6A to FIG. 6E, the cross key 108, the SET button 109, or the multi-controller 115. It is also possible to assign functions other than AE processing, AF processing, and switching of subjects based on eye gaze input to the half-pressing and full-pressing of the AF-on button 116.
  • the function to be executed by the user it is also possible to configure the function to be executed by the user to be set not only for the AF-on button 116 but also for other operating members. It is also possible to change the function to be executed for the half-pressing operation of the shutter button 102. For example, it is possible to change whether or not to execute AE processing and AF processing in response to the half-pressing operation of the shutter button 102 by user setting. However, if the assigned function is changed when the shutter button 102 is fully pressed to which the function of the shooting and recording processing is assigned, shooting becomes impossible. Therefore, it is not possible to change the function to be executed (the assigned function) by the user when the shutter button 102 is fully pressed.
  • the rear display unit 101 and the in-finder display unit 229 described below are controlled by the system control unit 201 as an electronic viewfinder (hereinafter, EVF) in accordance with the various operating modes described above.
  • EVF electronic viewfinder
  • the eyepiece 216 is a peer-type eyepiece viewfinder.
  • the user can view the image displayed on the viewfinder display 229 through the eyepiece 216, and can check the focus and composition of the subject image captured through the lens unit 200.
  • the eyepiece detector 217 is disposed near the eyepiece 216 and can detect the approach of an object to the eyepiece 216.
  • the eyepiece detector 217 may be, for example, an infrared proximity sensor.
  • the communication terminal 210 is an electrical contact that enables the digital camera 100 to communicate with the lens unit 200 ( Figure 2).
  • the cover 118 is a member that opens and closes a slot to attach and detach the recording medium 250 to the digital camera 100.
  • the grip section 117 has a shape that makes it easy for the user to hold the digital camera 100 with the right hand.
  • the shutter button 102 and main electronic dial 105 are located in positions that can be operated with the index finger of the right hand.
  • the sub electronic dial 107 is located in a position that can be operated with the thumb of the right hand.
  • FIG. 2 components common to FIG. 1A and FIG. 1B are denoted by the same reference numerals.
  • the lens unit 200 is equipped with a photographing lens 207 and is detachable from the digital camera 100.
  • the photographing lens 207 is usually composed of multiple lenses, but for simplicity, only one lens is shown here.
  • the communication terminal 206 is an electrical contact that allows the lens unit 200 to communicate with the digital camera 100.
  • the communication terminal 210 is an electrical contact that allows the digital camera 100 to communicate with the lens unit 200.
  • the lens unit 200 communicates with the system control unit 201 via the communication terminal 206, and the built-in lens control unit 204 controls the aperture drive circuit 202 to drive the aperture 205, and controls the AF drive circuit 203 to displace the position of the photographing lens 207 to adjust the focus.
  • the focal plane shutter 221 can freely control the exposure time in the imaging unit 222 in response to instructions from the system control unit 201.
  • the imaging unit 222 is an image sensor made up of imaging elements such as CCD or CMOS that convert the subject image into an electrical signal.
  • the A/D converter 223 converts the analog signal of one pixel output from the imaging unit 222 into, for example, a 10-bit digital signal.
  • the image processing unit 224 performs predetermined pixel interpolation, resizing such as reduction, and color conversion processing on the data from the A/D converter 223 or the data from the memory control unit 215.
  • the image processing unit 224 also performs predetermined calculation processing for photometry processing and distance measurement processing using the captured image data, and the system control unit 201 performs exposure control and distance measurement control based on the calculation results. This allows TTL (through-the-lens) AF processing, AE processing, and EF (flash pre-flash) processing to be performed.
  • the image processing unit 224 also performs predetermined calculation processing for white balance processing using the captured image data, and TTL AWB (auto white balance) processing is also performed based on the calculation results.
  • the image processing unit 224 also performs subject detection processing to detect the type, part, and condition (type) of the subject, the position and size (area) of the subject, and the like, using the captured image data.
  • the image processing unit 224 is also capable of face AF and pupil AF.
  • Face AF is AF performed on a face in an image detected by subject detection processing.
  • Eye AF is the process of performing AF on the eyes contained in a face in an image detected by subject detection processing.
  • the system control unit 201 determines a specific subject from one or more subjects detected by the image processing unit 224 automatically or by user operation, and displays a frame indicating that the specific subject is a target for AE processing and AF processing.
  • the memory control unit 215 controls the exchange of data between the A/D converter 223, image processing unit 224, and memory 232. Digital data output from the A/D converter 223 is written to the memory 232 via the image processing unit 224 and memory control unit 215, or directly via the memory control unit 215.
  • the memory 232 stores image data obtained from the imaging unit 222 and the A/D converter 223, and image display data to be displayed on the rear display unit 101 or the viewfinder display unit 229.
  • the memory 232 has a storage capacity sufficient to store a predetermined number of still images and a predetermined length of video and audio.
  • the memory 232 also serves as a memory for image display (video memory).
  • the D/A converter 219 converts image display data stored in memory 232 into an analog signal and supplies it to the rear display unit 101 or the viewfinder display unit 229.
  • the display image data written to memory 232 is displayed on the rear display unit 101 or the viewfinder display unit 229 via the D/A converter 219.
  • the rear display unit 101 or the viewfinder display unit 229 performs display on a display device according to the analog signal from the D/A converter 219. In this way, by converting the digital signal stored in memory 232 into an analog signal and sequentially transferring and displaying it on the rear display unit 101 or the viewfinder display unit 229, it functions as an EVF that performs live view display (through image display).
  • Various camera settings such as shutter speed and aperture are displayed on the outside viewfinder display 243 via the outside viewfinder display drive circuit 244.
  • the non-volatile memory 256 is, for example, an EEPROM that can be electrically erased and recorded. Constants, programs, etc. for the operation of the system control unit 201 are stored in the non-volatile memory 256.
  • the program referred to here is a program for executing the flowchart described below.
  • the system control unit 201 includes a CPU and MPU that provide overall control of the digital camera 100, and executes programs stored in the non-volatile memory 256 to realize each process in the flowcharts described below.
  • the system memory 252 is a RAM or the like, and is also used as a work memory for expanding constants and variables for the operation of the system control unit 201, programs read from the non-volatile memory 256, and the like.
  • the system control unit 201 also performs display control by controlling the memory 232, D/A converter 219, rear display unit 101, in-finder display unit 229, and the like.
  • the system timer 253 is a timing unit that measures the time used for various controls and the time of the built-in clock.
  • the first shutter switch 211 is turned on when the shutter button 102 on the digital camera 100 is pressed halfway (a shooting preparation command) and generates a first shutter switch signal SW1.
  • the system control unit 201 receives the first shutter switch signal SW1 and starts AE processing, AF processing, AWB processing, EF processing, etc., by the image processing unit 224.
  • the second shutter switch 212 is turned on when the shutter button 102 is fully pressed (photographing instruction) and generates a second shutter switch signal SW2.
  • the system control unit 201 starts a series of recording processes from reading the signal from the imaging unit 222 to writing image data to the recording medium 250 based on the second shutter switch signal SW2.
  • the operation unit 270 is made up of operation members such as various switches and buttons that accept various operations from the user and notify the system control unit 201, and includes at least the following operation members: shutter button 102, mode change switch 103, main electronic dial 105, power switch 106, sub electronic dial 107, cross key 108, SET button 109, record button 110, enlarge button 111, AE lock button 112, playback button 113, menu button 114, multi-controller 115, and AF on button 116.
  • operation members such as various switches and buttons that accept various operations from the user and notify the system control unit 201, and includes at least the following operation members: shutter button 102, mode change switch 103, main electronic dial 105, power switch 106, sub electronic dial 107, cross key 108, SET button 109, record button 110, enlarge button 111, AE lock button 112, playback button 113, menu button 114, multi-controller 115, and AF on button 116.
  • the desired functions can be assigned to each operating member included in the operating unit 270 using the menu screen, the cross key 108, the SET button 109, or the multi-controller 115.
  • the power supply control unit 280 is composed of a battery detection circuit, a DC-DC converter, a switch circuit that switches between blocks to which electricity is applied, and other components, and detects whether a battery is installed, the type of battery, and the remaining battery power.
  • the power supply control unit 280 also controls the DC-DC converter based on the detection results and instructions from the system control unit 201, and supplies the necessary voltage for the necessary period to each unit, including the recording medium 250.
  • the power supply unit 230 consists of a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li-ion battery, an AC adapter, etc.
  • the recording medium I/F 218 is an interface with a recording medium 250 such as a memory card or a hard disk.
  • the recording medium 250 is a recording medium such as a memory card for recording captured images, and is composed of a semiconductor memory, a magnetic disk, etc.
  • the communication unit 254 is connected to an external device via a wireless antenna or a wired cable to enable communication, and transmits and receives images and audio.
  • the communication unit 254 can also be connected to a wireless LAN (Local Area Network) or the Internet.
  • the communication unit 254 can transmit image data (including live view images) captured by the imaging unit 222 and image files recorded on the recording medium 250 to an external device, and can also receive image data and various other information from an external device.
  • the communication unit 254 is not limited to a wireless LAN, and may use wireless communication modules such as infrared communication, Bluetooth (registered trademark), Bluetooth (registered trademark) Low Energy, and Wireless USB, or wired connection means such as a USB cable, HDMI (registered trademark), and IEEE 1394.
  • the attitude detection unit 255 detects the attitude of the digital camera 100 with respect to the direction of gravity. Based on the attitude detected by the attitude detection unit 255, it is possible to determine whether the image captured by the imaging unit 222 was captured with the digital camera 100 held horizontally or vertically.
  • the system control unit 201 can add orientation information corresponding to the attitude detected by the attitude detection unit 255 to the image file of the image captured by the imaging unit 222, or rotate and record the image.
  • An acceleration sensor, a gyro sensor, or the like can be used as the attitude detection unit 255. By using an acceleration sensor or a gyro sensor, the attitude detection unit 255 can also detect the movement of the digital camera 100 (panning, tilting, lifting, standing still, etc.).
  • the operation unit 270 includes a touch panel 270a capable of detecting touch operations on the rear display unit 101.
  • the touch panel 270a and the rear display unit 101 can be configured as one unit.
  • the touch panel 270a is configured so that the light transmittance does not interfere with the display of the rear display unit 101, and is attached to the upper layer of the display surface of the rear display unit 101. Then, input coordinates on the touch panel 270a are associated with display coordinates on the rear display unit 101. This makes it possible to configure a GUI that makes it appear as if the user can directly operate the screen displayed on the rear display unit 101.
  • the system control unit 201 can detect the following operations or states on the touch panel 270a.
  • touch-down A finger or pen that was not previously touching the touch panel 270a touches the touch panel 270a again.
  • touch-down the start of touching
  • the touch panel 270a is touched with a finger or a pen (hereinafter referred to as Touch-On).
  • Touch-Move Touching the touch panel 270a with a finger or pen while moving
  • Touch-Off A state in which nothing is touching the touch panel 270a (hereinafter referred to as Touch-Off).
  • touch on is also detected at the same time. After touch down, touch on will usually continue to be detected unless touch up is detected. Touch move is also detected while touch on is detected. Even if touch on is detected, touch move will not be detected if the touch position does not move. Once it is detected that all fingers or pens that were touching have touched up, touch off occurs.
  • the direction of movement of a finger or pen moving on the touch panel 270a can also be determined for each vertical and horizontal component of the touch panel 270a based on the change in position coordinates. If a touch-move of a predetermined distance or more is detected, it is determined that a slide operation (drag) has been performed. An operation in which a finger is touched on the touch panel 270a, moved quickly for a certain distance, and then released is called a flick. In other words, a flick is an operation in which a finger is quickly traced across the touch panel 270a as if flicking it.
  • a touch-move of a predetermined distance or more at a predetermined speed or more is detected and a touch-up is detected as it is, it can be determined that a flick has been performed (it can be determined that a flick has been performed following a drag).
  • a touch operation in which multiple points (for example, two points) are touched simultaneously and the touch positions are brought closer to each other is called a pinch-in, and a touch operation in which the touch positions are moved away from each other is called a pinch-out.
  • Pinch-out and pinch-in are collectively called pinch operations (or simply pinch).
  • the touch panel 270a may be of any of a variety of touch panel types, including resistive film type, capacitive type, surface acoustic wave type, infrared type, electromagnetic induction type, image recognition type, and optical sensor type. Depending on the type, there are types that detect a touch by contact with the touch panel, and types that detect a touch by the approach of a finger or pen to the touch panel, but any type will do.
  • the eyepiece detection unit 217 detects the approach (eyepiece) and departure (eye departure) of the eye (object) to the eyepiece unit 216 (approach detection).
  • the system control unit 201 switches the rear display unit 101 and the in-finder display unit 229 between display (display state)/non-display (non-display state) depending on the state detected by the eyepiece detection unit 217. At least in shooting mode and when the display destination switching is automatic, the system control unit 201 sets the display destination to the rear display unit 101 when the eye is not placed near the object and sets the in-finder display unit 229 to a non-display state. Also, when the eye is placed near the object, the display destination is set to the in-finder display unit 229 and sets the rear display unit 101 to a non-display state.
  • infrared light emitted from a light-emitting section (not shown) of the eyepiece detection section 217 is reflected and enters a light-receiving section (not shown) of the infrared proximity sensor.
  • a light-receiving section not shown
  • the system control section 201 is able to start displaying the in-finder display section 229. This makes it possible to display the in-finder display section 229 with as little delay as possible when the user looks through the eyepiece 216.
  • the eye contact detection unit 217 detects an object approaching within a predetermined distance of the eye contact unit 216 from a non-eye contact state (non-approaching state), it determines that an eye contact has been detected, and sends an eye contact detection notification to the system control unit 201.
  • an object that was detected as approaching from the eye contact state (approaching state) moves away by more than a predetermined distance, it determines that an eye separation has been detected, and sends an eye separation detection notification to the system control unit 201.
  • the threshold for detecting eye contact and the threshold for detecting eye separation may be different, for example, by providing hysteresis.
  • the eye contact state is assumed to remain until eye separation is detected.
  • the system control unit 201 controls the display of the rear display unit 101 and the in-finder display unit 229 according to the eye contact state or eye separation state detected by the eye contact detection unit 217.
  • the eye proximity detection unit 217 is not limited to an infrared proximity sensor, and other sensors may be used as long as they can detect the approach of an eye or object that can be considered as an eye.
  • the gaze detection unit 260 includes a dichroic mirror 262, an imaging lens 263, a gaze detection sensor 264, a gaze detection circuit 265, and an infrared light emitting element 266, and detects not only whether the user is gazing at the viewfinder display unit 229, but also the position and movement of the gaze.
  • the digital camera 100 of this embodiment detects the gaze by a method called the corneal reflex method using the gaze detection unit 260.
  • the corneal reflex method is a method of detecting the position and direction of the gaze from the positional relationship between the light reflected by the eyeball (eye) 261 (particularly the cornea) of the infrared light emitted from the infrared light emitting element 266 and the pupil of the eyeball (eye) 261.
  • There are also various other methods for detecting the position and direction of the gaze such as a method called the scleral reflex method that utilizes the difference in light reflectance between the black and white of the eye. Note that gaze detection methods other than those described above may be used as long as they can detect the position and direction of the gaze.
  • the display setting of the gaze pointer when the gaze input function is on can be set by the menu screen illustrated in FIG. 12.
  • the user can operate the operation unit 270 to select and set the display setting of the gaze pointer from among "on", "only while waiting to shoot", and "off".
  • the system control unit 201 controls the display unit 229 to superimpose the gaze pointer indicating the gaze position detected by the gaze detection unit 260 on the live view image when the gaze input function is on.
  • the user can grasp the currently detected gaze position, and can confirm in advance which position will be specified when specifying a position by the gaze input function.
  • the system control unit 201 controls not to display the gaze pointer indicating the gaze position.
  • the system control unit 201 controls to display the gaze pointer when the gaze input function is on.
  • the gaze pointer is not displayed even if the gaze is detected by the gaze detection unit 260. In other words, the gaze pointer is controlled to be displayed only when the AF process and the AE process are not being performed.
  • AF and AE processing While AF and AE processing is being performed, the user may want to look at the live view image to check whether the subject is in focus, but if the gaze pointer is displayed at the gaze position, it can be difficult to check the subject, so a "shooting standby only" setting has been provided that does not display the gaze pointer while shooting preparation processing is being performed.
  • the infrared light-emitting element 266 is a diode that emits infrared light to detect the user's gaze position within the viewfinder screen, and irradiates the infrared light toward the center of the eyepiece 216 toward the user's eyeball (eye) 261.
  • the infrared light irradiated from the infrared light-emitting element 266 is reflected by the eyeball (eye) 261, and the reflected infrared light reaches the dichroic mirror 262.
  • the dichroic mirror 262 has the function of reflecting only infrared light and transmitting visible light, and the reflected infrared light, whose optical path has been changed, forms an image on the imaging surface of the gaze detection sensor 264 via the imaging lens 263.
  • the imaging lens 263 is an optical member that constitutes the gaze detection optical system.
  • the gaze detection sensor 264 includes an image sensor made of a CCD or CMOS.
  • the gaze detection sensor 264 photoelectrically converts the reflected infrared light that is incident on it into an electric signal and outputs it to the gaze detection circuit 265.
  • the gaze detection circuit 265 detects the user's gaze position from the movement of the user's eyeball (eye) 261 and the position of the pupil based on the output signal of the gaze detection sensor 264, and outputs the detected information to the system control unit 201. Since the gaze detection sensor 264 can detect the pupil of a person's eye, it does not detect that a person's gaze is being input even if another object is approaching or touching the eyepiece unit 216. As a result, the eyepiece unit 216 has a function as a gaze operation unit, but the gaze detection unit may have a different configuration. The user can enable/disable the gaze input function by the gaze detection unit 260 via a menu screen
  • the system control unit 201 can detect the following operations or states of the eyepiece unit 216 based on the detection result of the line of sight detection unit 260.
  • the gaze of the user who has placed his/her eye close to the eyepiece unit 216 has been newly input (detected) (start of gaze input)
  • start of gaze input A state in which a user who has placed his/her eye close to the eyepiece unit 216 is performing gaze input.
  • end of gaze input end of gaze input
  • gaze refers to a situation where the user's gaze position does not exceed a predetermined amount of movement within a predetermined time.
  • the system control unit 201 determines that the user is gazing at an area when the period during which the user's gaze is fixed on that area exceeds a predetermined threshold. Therefore, the area in question can be said to be the gaze position (gazing area) where the gaze was performed.
  • the gaze is fixed on a certain area means, for example, that the average position of the gaze movement is within that area until a predetermined period of time has elapsed, and the variation (variance) is less than a predetermined value.
  • FIG. 3A, 3B, 4A, and 4B are flowcharts showing the control process of the digital camera 100 of the first embodiment.
  • the process of FIG. 3A and FIG. 3B is realized by turning on the power of the digital camera 100, and the system control unit 201 expanding and executing a program stored in the non-volatile memory 256 in the system memory 252 and controlling each component.
  • the process of FIG. 3A and FIG. 3B may be performed not only immediately after the digital camera 100 is started, but also immediately after the digital camera 100 transitions to a still image shooting mode or a video recording mode and starts displaying a live view image.
  • 3B is an excerpt of only the process related to the operation of the AF-on button 116 in the shooting standby state (a state in which the shooting and recording process is not being performed by fully pressing the shutter button 102 in the shooting mode).
  • the process described in the device configuration is also performed in addition to the process of FIG. 3A and FIG. 3B.
  • the system control unit 201 performs shooting preparation processes such as AE processing, AF processing, AWB processing, and EF processing in response to half-pressing the shutter button 102 (SW1 ON). Additionally, the system control unit 201 executes recording processing in response to the shutter button 102 being fully pressed (SW2 on).
  • step S301 the system control unit 201 displays a live view image captured by the imaging unit 222 on the rear display unit 101 while successively updating the image.
  • the display process of the live view image is executed continuously during the process of FIG. 3A and FIG. 3B.
  • step S302 the system control unit 201 performs subject detection processing on the live view image using the image processing unit 224.
  • step S303 the system control unit 201 determines whether or not a specific subject has been detected by the subject detection process of the image processing unit 224, and if it is determined that the specific subject has been detected, the process proceeds to step S304, and if it is determined that the specific subject has not been detected, the process proceeds to step S305.
  • step S304 the system control unit 201 receives the position information of the predetermined subject detected in step S302 from the image processing unit 224, and displays a subject frame so as to surround the predetermined subject in the image displayed on the rear display unit 101.
  • a subject to be subjected to AF is selected by a user through a user operation, for example, a full press operation on the AF-on button 116 to confirm the AF position at the gaze position, or a touch operation on the rear display unit 101 to specify the AF position
  • a subject frame indicating that the subject is selected may be displayed.
  • a normal single-line subject frame may be displayed, and if the subject is a subject selected by the user, a double-line subject frame may be displayed, and the subject may be displayed in a different display form (shape, color, etc.) so that it can be identified as a selected subject.
  • a subject once selected by the user may be tracked by the image processing unit 224, and a subject frame may be displayed at the position of the tracked subject.
  • step S305 the system control unit 201 displays a fixed AF frame of a certain size for the AF position specified by the user using the cross key 108, the SET button 109, or the multi-controller 115 in the image displayed on the rear display unit 101. Note that if a subject is not detected in step S302, the system control unit 201 may skip the process of step S305 and proceed to step S306.
  • step S306 the system control unit 201 receives information on the user's gaze position detected by the gaze detection unit 260, and displays the gaze position on the image displayed on the rear display unit 101. Note that if the gaze input function of the digital camera 100 has been disabled, the processing of step S306 may be omitted.
  • step S307 the system control unit 201 determines whether the AF-on button 116 is half-pressed. If the system control unit 201 detects a first AF-on signal SW3 from the AF-on button 116, it determines that the AF-on button 116 is half-pressed. If the system control unit 201 determines that the AF-on button 116 is half-pressed, it advances the process to step S308, and if it determines that the AF-on button 116 is not half-pressed, it returns the process to step S301.
  • step S308 the system control unit 201 performs AE processing by exposure control based on the photometry calculation results obtained by the image processing unit 224.
  • step S309 the system control unit 201 determines the subject frame or fixed AF frame determined as the AF target by the image processing unit 224 in the processing of steps S303 to S305 as the AF position.
  • the digital camera 100 of the first embodiment does not perform AE/AF processing during steps S301 to S306 when the AF-on button 116 is not operated, but performs AE/AF processing when the AF-on button 116 is pressed halfway or fully. AE/AF processing is also performed when the shutter button 102 is pressed halfway.
  • step S310 the system control unit 201 executes AF processing by distance measurement control based on the distance measurement calculation result of the AF position determined in step S309, obtained by the image processing unit 224, and displays an AF frame showing the result of the AF processing on the rear display unit 101.
  • the AF frame showing the result of the AF processing is displayed by displaying it in a color or shape different from the subject frame or fixed frame. Note that if the AF operation setting can be set on the menu screen, and if the AF operation setting is set to one-shot (single-point) AF, the system control unit 201 controls so that the AF processing is executed only once when the AF-on button 116 is half-pressed.
  • the system control unit 201 continues to execute AF processing for the determined AF position, and controls so that the display of the AF frame showing the AF result is updated. Furthermore, if the AF operation setting on the menu screen is set to servo AF and subject tracking is also set, the system control unit 201 performs subject tracking and controls the camera to perform AF processing with the tracked subject position set as the AF position.
  • step S311 the system control unit 201 determines whether the half-press of the AF-on button 116 has been released, that is, whether the AF-on button 116 is no longer being operated.
  • the system control unit 201 determines that the half-press of the AF-on button 116 has been released when it no longer detects the first AF-on signal SW3 from the AF-on button 116. If the system control unit 201 determines that the half-press of the AF-on button 116 has been released, it returns the process to step S301. If the system control unit 201 determines that the half-press of the AF-on button 116 has not been released, it advances the process to step S312.
  • step S312 the system control unit 201 determines whether the AF-on button 116 has been pressed all the way. If the system control unit 201 detects a second AF-on signal SW4 from the AF-on button 116, it determines that the AF-on button 116 has been pressed halfway. If the system control unit 201 determines that the AF-on button 116 has been pressed all the way, it advances the process to step S313. If the system control unit 201 determines that the AF-on button 116 has not been pressed all the way, it returns the process to step S311.
  • step S313 the system control unit 201 determines whether the eye gaze input function of the digital camera 100 is enabled, and if it is determined that the eye gaze input function is enabled, the process proceeds to step S314, and if it is determined that the eye gaze input function is not enabled, the process returns to step S311.
  • step S314 the system control unit 201 confirms the gaze position detected by the gaze detection unit 260.
  • step S315 the system control unit 201 determines the gaze position determined in step S314 as the AF position.
  • step S316 the system control unit 201 causes the image processing unit 224 to execute AE processing and AF processing on the subject at the AF position determined in step S315, and displays an AF frame on the rear display unit 101.
  • the system control unit 201 switches between executing AF processing once or continuing to execute AF processing depending on whether the AF operation setting is one-shot (single point) or servo AF.
  • the system control unit 201 also updates the display of the AF frame that indicates the AF result, and, if subject tracking is set, executes subject tracking and controls to execute AF processing with the tracked subject position as the AF position.
  • step S317 the system control unit 201 determines whether the AF-on button 116 has been released from being fully pressed, that is, whether the AF-on button 116 has become half-pressed.
  • the system control unit 201 determines that the AF-on button 116 has been released from being fully pressed when the system control unit 201 no longer detects the second AF-on signal SW4 from the AF-on button 116.
  • the system control unit 201 waits until it is determined that the AF-on button 116 has been released from being fully pressed, and if it is determined that the AF-on button 116 has been released, the process proceeds to step S318.
  • step S318 the system control unit 201 determines whether the shooting operation has ended, for example by changing the operating mode of the digital camera 100, and ends the process if it determines that the shooting operation has ended, and returns to step S311 if it determines that the shooting operation has not ended.
  • step S317 If it is determined in step S317 that the AF-on button 116 has been released from full depression, the process may proceed to step S308, where the AE process and AF process may be performed again at the position of the subject frame or fixed AF frame.
  • the AE process and AF process may be continued at the position of the subject frame or fixed AF frame in steps S308 to S310.
  • step S313 if the gaze input function is disabled in step S313, the state is the same as immediately after AF is performed at the position of the subject frame or fixed AF frame by half-pressing the AF-on button 116 in steps S307 to S310, but the control process shown in FIG. 4A or FIG. 4B may be executed.
  • FIG. 4A shows the process of switching between eye AF and face AF when the gaze input function is disabled in step S313 of FIG. 3B.
  • steps S401 and S312 the same processing as in steps S301 to S312 in Figures 3A and 3B is performed.
  • step S313 If it is determined in step S313 that the eye gaze input function of the digital camera 100 is enabled, the system control unit 201 executes the processing of steps S314 and S315, and if it is determined that the eye gaze input function is not enabled, the processing proceeds to step S402.
  • step S402 the system control unit 201 determines whether AF processing for the subject's eyes (eye AF function) is enabled, and if it is determined that the eye AF function is enabled, the process proceeds to step S403, and if it is determined that the eye AF function is not enabled, the process proceeds to step S405.
  • step S403 the system control unit 201 disables the eye AF function and enables AF processing (face AF function) for the subject's face (entire face).
  • step S404 the system control unit 201 detects the subject's face using the image processing unit 224, determines the detected face position as the AF position, and in step S407 executes AE processing and AF processing for the determined AF position, and displays an AF frame on the rear display unit 101. Note that in step S404, a rectangular area including the entire subject may be detected instead of the subject's face.
  • step S405 the system control unit 201 enables the pupil AF function.
  • step S406 the system control unit 201 detects the pupil of the subject in the subject frame using the image processing unit 224, determines the detected pupil position as the AF position, and proceeds to step S407 to execute AE processing and AF processing for the determined AF position (step S316), and displays the AF frame on the rear display unit 101.
  • step S407 the same processing as in steps S316 to S318 in FIG. 3B is performed.
  • the eye AF function is switched between enabled and disabled each time the AF-on button 116 is pressed fully (AF-on button 116 is released and then pressed fully again). This allows AF processing to be performed while switching the AF position between the subject's face and the subject's eye.
  • the AF position may be switched between the subject's face, right eye, or left eye. Alternatively, the AF position may be switched between the subject's right eye and left eye each time the AF-on button 116 is pressed fully.
  • the eye AF function may be always disabled, and the eye AF function may be enabled to perform AF processing on the subject's eyes only while the AF-on button 116 is fully pressed.
  • FIG. 4B shows the process of switching the subject to be AF-targeted when the gaze input function is disabled.
  • steps S401 and S351 the same processing as in steps S301 to S312 in Figures 3A and 3B is performed.
  • step S313 If it is determined in step S313 that the eye gaze input function of the digital camera 100 is enabled, the system control unit 201 executes the processing of steps S314 and S315, and if it is determined that the eye gaze input function is not enabled, the processing proceeds to step S408.
  • step S408 the system control unit 201 searches for the subject detected in step S303, and displays a subject frame for a subject different from the subject determined as the AF position in step S309.
  • step S409 the system control unit 201 determines the subject frame displayed in step S408 as the AF position, executes AE processing and AF processing for the determined AF position in step S407, and displays the AF frame on the rear display unit 101. Note that in step S408, a rectangular area including the entire subject may be detected instead of the subject's face.
  • step S407 the same processing as in steps S316 to S318 in FIG. 3B is performed.
  • steps S408 to S409 the subject targeted for AF may be switched to another subject in sequence while the AF-on button 116 is repeatedly pressed halfway and fully.
  • a live view image is displayed on the rear display unit 101, a subject 501 is detected by the image processing unit 224, and a subject frame 502 is displayed at the position of the face of the subject 501. Also, in the screen of FIG. 5A, a gaze icon 503 is displayed at the gaze position detected by the gaze detection unit 260.
  • the user's gaze is near the upper left of the screen. Note that if the gaze input function is disabled, the gaze icon 503 does not need to be displayed.
  • a subject frame 502 is displayed around a subject 501, but if the subject cannot be detected, a fixed AF frame 510 may be displayed at a position specified by the user, or the fixed AF frame 510 may be displayed simultaneously with the subject frame 502.
  • the size of the fixed AF frame 510 can be specified by the user as desired.
  • the screen in FIG. 5B illustrates the state in which the user half-presses the AF-on button 116 on the screen in FIG. 5A.
  • the system control unit 201 performs AE processing and AF processing on the subject frame 502 of the subject 501 using the image processing unit 224, and changes the subject frame 502 to an AF frame 504.
  • AE and AF processing is performed on frame 510 in FIG. 5A, and AF frame 504 is displayed at the position of fixed AF frame 510.
  • the gaze detection process by the gaze detection unit 260 can be performed at any time, and the position of the gaze icon 503 is updated according to the user's gaze position.
  • Figure 5B illustrates a state in which the user's gaze is in the same position as in Figure 5A.
  • the screen in FIG. 5C illustrates a state in which the user's line of sight has been changed from the state in FIG. 5B to subject 505.
  • gaze detection processing can be performed by the gaze detection unit 260 at all times, similar to the example of FIG. 5B.
  • the position of the gaze icon 503 has moved to the vicinity of the subject 505, and the user's gaze has been changed from the subject 501 to another subject 505.
  • the screen in FIG. 5D illustrates the state in which the user has fully pressed the AF-on button 116 from the state in FIG. 5C.
  • the system control unit 201 determines the gaze position detected by the gaze detection unit 260 as the position of the subject 505.
  • the system control unit 201 executes AE processing and AF processing on the subject 505 at the determined gaze position using the image processing unit 224, and displays the AF frame 504.
  • gaze detection by the gaze detection unit 260 may continue, and the gaze icon 503 may continue to be displayed.
  • the screen in FIG. 5E illustrates an example of the state in which the eye AF function is enabled and AE processing and AF processing are performed on the eye of the subject 501 when the AF-on button 116 is fully pressed.
  • an eye AF icon 506 is displayed to indicate that the eye AF function is enabled. If the eye AF function is disabled, the eye AF icon 506 does not need to be displayed, or an icon indicating that the eye AF function is disabled may be displayed.
  • an eye AF frame 507 is displayed, indicating that AE processing and AF processing have been performed on the eye of the subject 501.
  • the system control unit 201 enables the pupil AF function in step S405 and displays the pupil AF icon 506.
  • the system control unit 201 performs AE processing and AF processing on the eye of the subject 501 detected by the image processing unit 224, and displays the eye AF frame 507.
  • the system control unit 201 causes the image processing unit 224 to execute AE processing and AF processing on the face of the subject 501 in step S406 in FIG. 4A, and displays the AF frame 504 on the face of the subject 501.
  • the eye AF function may be executed on the subject 501 regardless of whether the gaze input function is enabled or disabled.
  • the screen in FIG. 5F illustrates an example of a state in which the AF-on button 116 is fully pressed, the subject is changed from the state in which the AF-on button 116 is half-pressed, and AE processing and AF processing are performed.
  • a dotted frame 508 is displayed around the face of the subject 501 that was in the AF position when the AF-on button 116 was half-pressed in step S401 of FIGS. 4A and 4B (steps S307 to S310 of FIG. 3A).
  • the system control unit 201 searches for candidates for a subject other than subject 501 from among the subjects detected by the image processing unit 224. Then, it is assumed that subject 509, which is other than subject 501, is found.
  • system control unit 201 causes the image processing unit 224 to execute AE processing and AF processing on the face of the subject 509, and displays the AF frame 504.
  • the user can switch the subject to be targeted for AF simply by fully pressing the AF-on button 116.
  • the subject targeted for AF when the gaze input function is enabled, the subject targeted for AF can be switched according to the user's gaze position simply by pressing the AF-on button 116 all the way down. Also, when the gaze input function is disabled, the subject targeted for AF can be switched to eye AF or face AF, or switched, simply by pressing the AF-on button 116 all the way down.
  • the AF-on button 116 may be repeatedly pressed halfway and fully to sequentially switch between AF target subjects and perform AE processing and AF processing.
  • FIGS. 6A to 6E show examples of setting screens for assigning functions to the AF-on button 116 in the first embodiment.
  • FIG. 6A shows an example of a settings screen 601 that displays a list of functions that can be assigned to the AF-on button 116 and functions assigned to other operating members.
  • the display area 602 displays the name of the operating member corresponding to the position of the cursor 604 moved by the user using the cross key 108 or multi-controller 115, and the functions that can be assigned to the operating member.
  • Display area 603 displays the name of the operating member and the simple name of the function assigned to the operating member.
  • the AF-on button 116 is selected, the name of the AF-on button 116 and the name of the current function are displayed in the display area 602, and a cursor 604 is displayed in the display area 603 of the AF-on button 116.
  • a setting screen 605 (FIG. 6B) for setting the function to be assigned to the AF-on button 116 is displayed.
  • FIG. 6B shows an example of a setting screen 605 that is displayed when the SET button 109 is operated with the AF ON button 116 selected on the screen of FIG. 6A.
  • the display area 606 displays the names of the functions (Set 1 to Set 5) that can be executed when the AF-on button 116 is pressed halfway or fully, and the contents of the functions.
  • the display area 607 shows simple options that indicate combinations of functions that can be assigned to the AF-on button 116 and that are executed when the button is pressed halfway and fully.
  • a screen 611 is displayed for setting the function to be executed when the AF-on button 116 is pressed halfway and the function to be executed when the AF-on button 116 is pressed all the way.
  • display area 606 is updated to show the simple name and function name of the function corresponding to option 607b.
  • the setting screen 611 in FIG. 6C is displayed by touching the INFO button 609 while the cursor 604 is positioned on the option 607a.
  • FIG. 6C shows an example of a setting screen 611 for setting functions that can be executed by pressing the AF-on button 116 halfway and functions that can be executed by pressing it all the way.
  • a function display area 612 for half-pressing the AF-on button 116 and a function display area 613 for half-pressing the AF-on button 116 are displayed, and the cursor 604 can be moved and selected using the multi-controller 115 or the cross key 108.
  • the function that will be executed when the AF-on button 116 is pressed halfway can be confirmed, and in the function display area 613, the function that will be executed when the AF-on button 116 is pressed all the way can be confirmed.
  • FIG. 6D shows an example of a screen for selecting the function to be executed by half-pressing the AF-on button 116.
  • the cursor is on option 616, and option 616 "AE processing and AF processing" is selected by half-pressing the AF-on button 116.
  • the screen 605 of FIG. 6B is displayed, and a combination of functions to be executed by half-pressing the AF-on button 116 and functions to be executed by full-pressing the button can be selected.
  • the screen 611 of FIG. 6C may be displayed from the screen 601 of FIG. 6A without going through the screen 605 of FIG. 6B.
  • Figure 6E shows an example of a screen for enabling or disabling the gaze input function.
  • Selecting "Enable” in option 617 enables the gaze input function and allows gaze detection by the gaze detection unit 260 to be performed.
  • Selecting "Disable” in option 618 disables the gaze input function and allows gaze detection by the gaze detection unit 260 to be prevented from being performed.
  • the gaze input function is disabled even if the AF-on button 116 is fully pressed, so that the AE process and AF process can be performed by switching between enabling and disabling the eye AF function and switching the subject to be the AF target, as described in Figures 4A and 4B.
  • the AF-on button 116 by pressing the AF-on button 116 halfway or all the way, it is possible to selectively use a function for executing AF (autofocus) processing and AE (autoexposure) processing on a subject in a live view image, and a function for switching the AF target to a subject specified by the user's gaze input. In this way, different AF-related functions can be instructed by halfway pressing or all the way pressing the AF-on button 116, reducing the number of steps required for operation.
  • the user can set not only the function to be executed by fully pressing the AF-on button 116, but also the function to be executed by half-pressing the AF-on button 116.
  • the device configuration of the second embodiment is the same as that of the first embodiment, and the control processing of the second embodiment is partially common to that of the first embodiment, so the same processes are denoted by the same reference numerals and descriptions thereof will be omitted.
  • FIG. 7A shows an example of a function assignment setting screen 700 for the AF-on button 116.
  • the function assignment setting screen 700 for the AF-on button 116 displays items 721 to 727 as setting items to which functions can be assigned to the AF-on button. Also displayed are a cursor 701 indicating the selected item, a setting content display area 710 for the selected item, a detailed setting icon 702, and an OK icon 703.
  • the user can use the cross key 108 to move the cursor 701 to one of the items 721 to 727 to change the selected item.
  • the items 721 to 727 correspond to AFON1 to AFON7, respectively, and the combinations of functions to be assigned to the half-press and full-press of the AF-on button 116 for AFON1 to AFON7 are predefined as shown in FIG. 7B.
  • the half-press of the AF-on button for AFON1 and the full-press of the AF-on button for AFON2 which are "user settings" in FIG.
  • "exposure metering and AF start" is set as the default setting, but the function to be assigned can be changed by user selection.
  • the user can set the functions to be assigned to the half-press and full-press of the AF-on button from among the combinations AFON1 to AFON7, so it is easy to set the functions to be assigned to the two operations.
  • a function 711 that is assigned to pressing the AF-on button halfway and a function 712 that is assigned to pressing the AF-on button all the way when the selected item is set are displayed.
  • Functions 711 and 712 are displayed normally if they are functions that can be changed by the user, and are displayed grayed out if they cannot be changed. In this embodiment, functions that cannot be changed are displayed grayed out, but other methods (for example, if a function can be changed, an icon indicating that it can be changed may also be used to display the function.)
  • AFON1 (item 721) is selected by cursor 701, and for AFON1, pressing the AF-on button halfway is "User setting,” and pressing the AF-on button all the way is “Disabled.” Therefore, item 712 is displayed as grayed out and “Disabled.” Item 711 is not grayed out but is displayed normally, as it allows the user to select a function to be assigned when the AF-on button is pressed halfway. In addition, the function name displayed is "Metering and AF start,” which is the default setting in the user settings.
  • the detailed settings icon 702 indicates that pressing the INFO button (not shown) of the digital camera 100 will take you to detailed settings, and you can also touch the detailed settings icon 702 to proceed to detailed settings.
  • a detailed settings screen for the selected item is displayed. The detailed settings screen will be described later with reference to Figures 8A to 8D and Figures 9A to 9F.
  • the OK icon 703 indicates that the functions to be assigned to half-pressing the AF-on button and full-pressing the AF-on button are set by pressing the SET button 109 or by touching the OK icon 703.
  • the system control unit 201 assigns the function corresponding to the selected item, that is, the function displayed in the setting content display area 710, to half-pressing the AF-on button and full-pressing the AF-on button.
  • Figures 8A and 8B show an example of the detailed settings screen for AFON1 (item 721).
  • the detailed setting screens for AFON1 to AFON7 basically display the name of the item to be set in detail 801, the function to be assigned to half-pressing the AF-on button when the item to be set in detail is set 802, the function to be assigned to fully pressing the AF-on button 803, a cursor 804, a detailed setting icon 805, and a back icon 806.
  • FIGS. 8A and 8B are the detailed setting screens for AFON1, so an icon indicating AFON1 is displayed in the item name 801.
  • the default setting "metering and AF start” function is displayed in the half-press function 802, and "disabled” is displayed in the full-press function 803.
  • the half-press function 802 of AFON1 is normally displayed because it can be changed by the user.
  • the full-press function 803, "disabled” is displayed grayed out because it is a fixed setting that cannot be changed.
  • the cursor 804 indicates whether the half-press function 802 or the full-press function 803 is selected, and the selection of the half-press function 802 or the full-press function 803 can be changed by operating the cross key 108 or by touch operation.
  • the screen transitions to the function change screen of FIG. 8C. That is, in the case of AFON1, as shown in FIG. 8A, when the INFO button is pressed or the detailed setting icon 805 is touched while the half-press function 802 that can be set by the user is selected, as shown in FIG. 8A, the screen transitions to the function change screen. However, as shown in FIG. 8B, even if the INFO button is pressed while the full-press function 803 that cannot be set by the user is selected, the screen does not transition to the function change screen.
  • the detailed setting icon 805 may be hidden as shown in FIG. 8B, since it is not possible to transition to the function change screen. Also, when the menu button 114 is pressed or the back icon 806 is touched on the detailed setting screen, the setting of the detailed setting screen is confirmed (as the setting target) and the screen returns to the previous screen (the function assignment setting screen 700 of the AF-on button 116). The setting of the detailed setting screen is confirmed by setting the functions to be assigned to the half-press of the AF-on button and the full-press of the AF-on button when the item 801 is set for the item 801 to be set, to the functions 802 and 803, respectively.
  • FIG. 8C shows an example of the function change screen 810, which is a screen for changing the functions assigned to the operation units by user operation.
  • Item 811 indicates the operation unit to which the function selected on the function change screen 810 is set, and in the example of FIG. 8C, it shows that the function change screen is for setting the function to be assigned to half-pressing the AF-on button.
  • the function change screen 810 displays function icons corresponding to the functions that can be assigned, a cursor 813 is displayed for the currently selected function icon, and a character indicating the function for the selected function is displayed in item 812.
  • the settings on the function change screen 810 are confirmed, and the function selected on the function change screen 810 is displayed on the detailed setting screen 800 in a state where it is set for the operation unit 811 to be set.
  • Some of the functions displayed on the function change screen 810 can be further set in detail.
  • a function that allows detailed settings is selected, a detailed settings icon 814 is displayed, and pressing the INFO button or the detailed settings icon 814 displays a function detailed settings screen 820.
  • FIG. 8D shows an example of a function detail setting screen 820 for the metering/AF start function.
  • the function detail setting screen 820 displays the name 821 of the function to be set in detail, an initial setting icon 822 for returning to the initial setting, a back icon 823 for confirming the settings and returning to the previous screen (function change screen 810), setting items for the detailed settings, etc.
  • the function detail settings can be returned to the initial setting by touching the initial setting icon 822.
  • the menu button 114 is pressed or the back icon 823 is touched, the settings in the function detail setting screen 820 are reflected for the function 821 to be set in detail, and the screen returns to the function change screen 810 (switching to the display of the function change screen 810).
  • Figures 9A to 9F show examples of function change screens for AFON2 to AFON7.
  • Figure 9A shows an example of the function change screen for AFON2.
  • pressing the AF-on button halfway is set to "disabled,” while pressing the AF-on button all the way can be set by the user, so the default value of "metering and start AF" is displayed initially. Therefore, on the function change screen for AFON2, “disabled” for pressing the AF-on button halfway is displayed in a framed-out state because it cannot be changed, while pressing the AF-on button all the way is displayed normally because it can be set by the user.
  • Figure 9B shows an example of the function change screen for AFON3.
  • pressing the AF-on button halfway is set to "Start metering and AF,” and pressing the AF-on button all the way is set to "Move AF frame with line of sight.” Therefore, on the function change screen for AFON3, both pressing the AF-on button halfway and pressing the AF-on button all the way are displayed as grayed out because they cannot be set by the user.
  • FIG. 9C shows an example of the function change screen of AFON4.
  • AFON4 "Metering and AF start” is set for pressing the AF-on button halfway, and "Eye AF” is set for pressing the AF-on button all the way. Therefore, on the function change screen of AFON4, both pressing the AF-on button halfway and pressing the AF-on button all the way are displayed as grayed out because they cannot be set by the user.
  • Figure 9D shows an example of the function change screen of AFON5.
  • pressing the AF-on button halfway is set to "Start metering and AF”
  • pressing the AF-on button all the way is set to "Stop AF.” Therefore, on the function change screen of AFON5, both pressing the AF-on button halfway and pressing the AF-on button all the way are displayed as grayed out because they cannot be set by the user.
  • Figure 9E shows an example of the function change screen of AFON6.
  • pressing the AF-on button halfway is set to "Start metering and AF”
  • pressing the AF-on button all the way is set to "Change subject selection.” Therefore, on the function change screen of AFON6, both pressing the AF-on button halfway and pressing the AF-on button all the way are displayed as grayed out because they cannot be set by the user.
  • Figure 9F shows an example of the function change screen of AFON7.
  • pressing the AF-on button halfway is set to "Metering and AF start,” and pressing the AF-on button all the way is set to "ONE SHOT/SERVO switch.” Therefore, on the function change screen of AFON7, both pressing the AF-on button halfway and pressing the AF-on button all the way are displayed as grayed out because they cannot be set by the user.
  • FIGS. 10, 11A, and 11B are flowcharts showing the control process of the digital camera 100 of the second embodiment.
  • FIGS. 10, 11A and 11B are realized by the system control unit 201 expanding a program stored in the non-volatile memory 256 into the system memory 252, executing it, and controlling each component.
  • the processes in Figs. 10, 11A and 11B only excerpt the processes related to the operation of the AF-on button 116 in a shooting standby state (a state in which shooting and recording processing is not being performed due to the shutter button 102 being fully pressed in shooting mode).
  • the processes in Figs. 10, 11A and 11B are partially common to the control processing of the first embodiment (Figs. 3A, 3B, 4A and 4B), the same processes are given the same numbers and descriptions are omitted.
  • control process is started immediately after the digital camera 100 is started, or immediately after the digital camera 100 switches to a still image capture mode or a video recording mode and starts displaying a live view image, and steps S301 to S306 are executed in the same manner as in the first embodiment.
  • step S307 determines in step S307 that the AF-on button 116 is half-pressed
  • the process proceeds to step S1001. If the system control unit 201 determines that the AF-on button 116 is not half-pressed, the process returns to step S301, as in the first embodiment.
  • step S1001 the system control unit 201 determines whether the function assigned to half-pressing the AF-on button is "light metering and AF start" using the function assignment setting screen 700 of the AF-on button 116. If the system control unit 201 determines that the function assigned to half-pressing the AF-on button is "light metering and AF start”, the process proceeds to step S308. If the system control unit 201 determines that the function assigned to half-pressing the AF-on button is not "light metering and AF start”, the process proceeds to step S1002.
  • step S308 to S311 the system control unit 201 executes the same processes as in FIG. 3A of the first embodiment.
  • step S1002 the system control unit 201 determines whether the function assigned to half-pressing the AF-on button 116 is "disabled" using the function assignment setting screen 700.
  • the function assigned to half-pressing the AF-on button is "disabled,” it means that no function is assigned to be executed in response to half-pressing the AF-on button. If the system control unit 201 determines that the function assigned to half-pressing the AF-on button is "disabled,” that is, if it determines that no function is assigned, the process proceeds to step S311, and performs control so that processing is not executed in response to a half-press operation of the AF-on button 116. If the system control unit 201 determines that the function assigned to half-pressing the AF-on button is not "disabled,” the process proceeds to step S1003.
  • step S1003 the system control unit 201 executes the function assigned to half-pressing the AF-on button, and proceeds to step S311.
  • step S311 the system control unit 201 determines whether the half-press of the AF-on button 116 has been released. If the system control unit 201 determines that the half-press of the AF-on button 116 has been released, the process returns to step S301. If the system control unit 201 determines that the half-press of the AF-on button 116 has not been released, the process proceeds to step S312.
  • step S312 the system control unit 201 determines whether the AF-on button 116 has been fully pressed. If the system control unit 201 determines that the AF-on button 116 has been fully pressed, the process proceeds to step S1101. If the system control unit 201 determines that the AF-on button 116 has not been fully pressed, the process returns to step S311.
  • step S1101 the system control unit 201 determines whether the function assigned to full pressing of the AF-on button 116 is "moving the AF frame with your line of sight" on the function assignment setting screen 700. If the system control unit 201 determines that the function assigned to full pressing of the AF-on button is "moving the AF frame with your line of sight," the process proceeds to step S314.
  • step S314 to S315 the system control unit 201 executes the same processing as in FIG. 3B of the first embodiment.
  • step S316 the system control unit 201 executes AE processing and AF processing on the subject at the AF position determined in step S315, and displays an AF frame on the subject at the AF position. If the system control unit 201 determines in step S1101 that the function assigned to full pressing of the AF-on button is not "moving the AF frame with line of sight," the process proceeds to step S1102.
  • step S1102 the system control unit 201 determines whether the function assigned to full pressing of the AF-on button is "eye AF" using the AF-on button function assignment setting screen 700. If the system control unit 201 determines that the function assigned to full pressing of the AF-on button is "eye AF,” the process proceeds to step S402.
  • step S402 to S406 the system control unit 201 executes the same processes as in FIG. 4A of the first embodiment from steps S402 to S406, and then proceeds to step S316.
  • step S316 the system control unit 201 executes AE processing and AF processing on the subject at the AF position determined in step S404 or S406, displays an AF frame on the subject at the AF position, and proceeds to step S317. If the system control unit 201 determines in step S1102 that the function assigned to full pressing of the AF-on button is not "eye AF", it proceeds to step S1103.
  • step S1103 the system control unit 201 determines whether the function assigned to pressing the AF-on button all the way through the AF-on button function assignment setting screen 700 is "change subject selection.” If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way through is "change subject selection,” the process proceeds to step S1104. If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way through is not "change subject selection,” the process proceeds to step S1105.
  • step S1104 the system control unit 201 determines a subject different from the subject currently set as the AF position as a new AF position based on the subject detection result for the live view image by the image processing unit 224.
  • the subject to be the AF target is changed from the currently selected subject to another subject. If only one subject is detected by the subject detection process, the subject to be the AF target may not be changed.
  • the selection of the detected subjects is changed in an order based on the size of the subject, the position of the subject, the priority, etc., each time the AF-on button is fully pressed.
  • step S316 executes AE processing and AF processing for the subject (subject to be the AF target) at the AF position determined in S1104, and displays an AF frame on the subject at the AF position.
  • step S317 executes AE processing and AF processing for the subject (subject to be the AF target) at the AF position determined in S1104, and displays an AF frame on the subject at the AF position.
  • step S1105 the system control unit 201 determines whether the function assigned to pressing the AF-on button all the way is "ONE SHOT/SERVO switching" using the AF-on button function assignment setting screen 700. If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way is "ONE SHOT/SERVO switching," it proceeds to step S1106. If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way is not "ONE SHOT/SERVO switching,” it proceeds to step S1107.
  • step S1106 the system control unit 201 changes the current AF operation setting to servo AF if it is one-shot AF, and switches to one-shot AF if the current AF operation setting is servo AF.
  • the system control unit 201 then advances the process to step S316, and executes AE processing and AF processing with the AF operation setting switched to in step S1106.
  • step S1107 the system control unit 201 determines whether the function assigned to pressing the AF-on button all the way is "AF stop” using the AF-on button function assignment setting screen 700. If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way is "AF stop,” the process proceeds to step S1108. If the system control unit 201 determines that the function assigned to pressing the AF-on button all the way is not "AF stop,” the process proceeds to step S1109.
  • step S1108 if the AF operation setting is servo AF, the system control unit 201 suspends the servo AF process. In the case of one-shot AF, this process is not executed since the AF process is not being executed continuously. The system control unit 201 suspends the servo AF process of step S1107 while the AF-on button is fully pressed, and resumes the servo AF process in response to the operation of the AF-on button being released.
  • the system control unit 201 resumes the servo AF process in response to the release of the full press of the AF-on button 116, even if the AF-on button 116 is half-pressed. And, if another function is assigned to half-pressing the AF-on button, the servo AF process may be resumed in response to the release of both the full press and the half-press of the AF-on button 116.
  • step S1109 the system control unit 201 determines whether the function assigned to full pressing of the AF-on button is "disabled” using the AF-on button function assignment setting screen 700.
  • the function assigned to full pressing of the AF-on button is "disabled”
  • the system control unit 201 determines that the function assigned to full pressing of the AF-on button is "disabled”, that is, if it determines that no function is assigned, the process proceeds to step S317, and the system control unit 201 performs control so that processing is not executed in response to full pressing of the AF-on button.
  • the system control unit 201 determines that the function assigned to full pressing of the AF-on button is not "disabled”
  • the process proceeds to step S1110.
  • step S1110 the system control unit executes the function assigned to full pressing of the AF-on button on the AF-on button function assignment setting screen 700, and proceeds to step S317.
  • step S317 the system control unit 201 determines whether the AF-on button 116 has been released from full depression. The system control unit 201 waits until it is determined that the AF-on button 116 has been released from full depression, and if it is determined that the AF-on button 116 has been released, the process proceeds to step S318.
  • step S318 the system control unit 201 determines whether the shooting operation has ended, for example by changing the operating mode of the digital camera 100, and ends the process if it determines that the shooting operation has ended, and returns to step S311 if it determines that the shooting operation has not ended.
  • the function allocation setting screen 700 for the AF-on button 116 allows functions to be assigned to the half-press operation and the full-press operation of the AF-on button 116, respectively.
  • the functions to be assigned to the AF-on button 116 can be set in a predetermined combination, as shown in FIG. 7B.
  • the AF-on button 116 is basically an operation unit provided for issuing an instruction to "start metering and AF", so in each of the settings for AFON3 to AFON7, the "metering and AF start" function is set for the half-press operation.
  • AFON3 to AFON7 in which the "metering and AF start" function is set for the half-press operation, operability is improved by assigning processing related to the "metering and AF start” function executed by the half-press operation to the full-press operation, so a function related to AF processing is set for the full-press operation.
  • the function to change the subject that is the AF target is assigned to AFON3, 4, and 6 when fully pressed.
  • the system control unit 201 controls to display the gaze pointer while the AF-on button 116 is pressed, that is, while AF processing and AE processing (light metering processing) are being performed, regardless of the setting on the gaze pointer display setting screen.
  • the gaze pointer display setting is set to "none" or "only when waiting to shoot"
  • the gaze pointer is normally not displayed while the AF-on button 116 is pressed.
  • the user will not be able to know in advance which subject the frame will move to when the AF-on button 116 is fully pressed unless the line of sight pointer is displayed before the AF-on button 116 is fully pressed.
  • the system control unit 201 controls the display of the line of sight pointer in response to the half press of the AF-on button 116, even if the setting is such that the line of sight pointer is not displayed when the AF-on button 116 is half pressed.
  • the line of sight pointer may be displayed only when the AF-on button 116 is half pressed, or may be displayed when the AF-on button 116 is half pressed and fully pressed.
  • AF stop was set when the AF-on button 116 of AFON5 was fully pressed, but it may be set to "start/stop full-range tracking.”
  • the system control unit 201 determines whether or not AF processing for the subject's face (face AF function) is enabled. If AF processing for the subject's face (face AF function) is enabled, the AF processing for the fixed frame is changed to be enabled and the process proceeds to step S316 and subsequent steps in FIG.
  • the AF processing for the subject's face (face AF function) is enabled and the process proceeds to step S316 and subsequent steps in FIG. 11B.
  • the AF-on button 116 is fully pressed repeatedly (the AF-on button 116 is released and then fully pressed again), the AF process (face AF function) for the subject's face and the AF process for the fixed frame are alternately enabled. Therefore, the AF process can be performed while switching between the AF position on the subject's face and the position of the fixed frame.
  • the AF position may be switched between the subject's eye and the position of the fixed frame each time the AF-on button 116 is fully pressed repeatedly.
  • the user can use the function of executing AF (autofocus) processing and AE (autoexposure) processing in the live view image and the function of switching between the AF target being the subject's face or eye and the position of the fixed frame by half-pressing or fully pressing the AF-on button 116.
  • start/stop full-area tracking to the full press of the AF-on button 116, when AF is focused on the face of an unintended subject, it is possible to perform operations such as switching the AF target to the position of the fixed frame while changing the AF target to the position you originally wanted to AF, with fewer operation steps.
  • "enlargement/reduction” may be set to the full press of the AF-on button 116 of AFON5.
  • AFON5 is set on the function allocation setting screen 700 of the AF-on button 116 and the AF-on button 116 is fully pressed, the following operation is performed.
  • the system control unit 201 enlarges the live view image to the face, eyes, or fixed frame position of the subject (hereinafter, the enlargement position) while maintaining the AE processing result and AF processing result, and proceeds to the processing of step S317 and subsequent steps in FIG. 11B.
  • enlargement/reduction is effective when the AF operation is one-shot AF.
  • the enlargement position is constantly moving, so nothing is done and the processing proceeds to the processing of step S317 and subsequent steps in FIG. 11B.
  • the AF-on button 116 is fully pressed repeatedly (the AF-on button 116 is released and then fully pressed again), the enlargement of the live view image may be switched between enabled and disabled (same magnification) for the enlarged position in the live view image.
  • the enlargement magnification may be changed to 5 times, 10 times, and same magnification in that order for the enlarged position in the live view image and displayed.
  • the enlargement magnification is set to 5 times and 10 times, but the changeable magnification is not limited to this. Also, the order in which the enlargement magnification is changed may be freely changed.
  • the function assignment setting screen 700 allows one of AFON1 to AFON7 to be set as the function to be assigned in response to half-pressing and full-pressing the AF-on button 116.
  • different functions may be set in response to half-pressing and full-pressing the AF-on button 116 in the shooting mode and in the playback mode.
  • the functions set for each of the items (AFON1 to AFON7) that can be set in the function assignment setting screen 700 may differ between the shooting mode and the playback mode.
  • the number of items (AFON1 to AFON7 in FIG. 7A) that can be set in the function assignment setting screen 700 may be different between the shooting mode and the playback mode.
  • the present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program.
  • the present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置は、撮像手段と、前記撮像手段が撮像した画像内の被写体に対して所定の処理を行う処理手段と、撮影指示を行うための第1の操作部と、前記第1の操作部とは異なる第2の操作部と、前記第2の操作部に対する第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第1の押下操作に続く第2の押下操作に応じて前記所定の処理の対象を切り替えるように制御する制御手段と、を有する。

Description

撮像装置、制御方法およびプログラム
 本発明は、撮像装置を操作する技術に関する。
 デジタルカメラなどの撮像装置は、所定の操作部材に所望の機能(例えば、オートフォーカス)を割り当て、撮影時に所定の操作部材を操作することで所望の機能を実行できる。撮像装置には、オートフォーカスだけでなく、多種多様な機能が備えられており、ユーザが操作部材に割り当てられる機能も増加している。
 ユーザは、所望の機能を操作部材に割り当てることができる一方で、所望の機能を実行した後に他の機能を実行する場合には複数の操作部材を操作する必要があるため、操作の手番が増加したり、操作が困難となる場合もある。例えば、ある被写体に対して操作部材を操作してオートフォーカスを実行した後、異なる被写体に対して再度オートフォーカスを実行したい場合、複数の操作部材を操作する必要があり、変更後の被写体に対するフォーカスが間に合わず、撮影機会の損失を招く可能性がある。
 このような課題に対して、特許文献1には1つの操作部材に対する異なる操作に応じて異なる機能を実行可能とする方法が記載され、特許文献2にはユーザの視線検出位置と被写体位置とに基づいてオートフォーカスの対象の被写体を決定する方法が記載されている。
特開2001-346080号公報 特開2019-008076号公報
 特許文献1では、操作部材(シャッターボタン)の半押しで動画記録、全押しで静止画撮影が実行可能となっているが、シャッターボタンはあくまで静止画撮影機能として固定したい場合があり、その場合に特許文献1のように実行する機能を変更してしまうと、本来の静止画撮影ができなくなる。また、シャッターボタンとは異なる操作部材を用いてオートフォーカスの操作を行う場合、ユーザはシャッターボタンの操作を行わないだけで、操作の手番を低減する効果は得られない。
 特許文献2では、ユーザの意思に反して自動でオートフォーカスの対象が決定される可能性がある。
 本発明は、上記課題に鑑みてなされ、複数の押下操作が可能な1つの操作部により所定の処理に関する複数の機能を使い分けることができ、操作手番を低減できる技術を実現する。
 上記課題を解決し、目的を達成するために、本発明の撮像装置は、撮像手段と、前記撮像手段が撮像した画像内の被写体に対して所定の処理を行う処理手段と、撮影指示を行うための第1の操作部と、前記第1の操作部とは異なる第2の操作部と、前記第2の操作部に対する第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第1の押下操作に続く第2の押下操作に応じて前記所定の処理の対象を切り替えるように制御する制御手段と、を有する。
 本発明によれば、複数の押下操作が可能な1つの操作部により所定の処理に関する複数の機能を使い分けることができ、操作手番を低減できる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
図1Aは、装置構成を示す外観図である。 図1Bは、装置構成を示す外観図である。 図2は、装置構成を示すブロック図である。 図3Aは、第1の実施形態の制御処理を示すフローチャートである。 図3Bは、第1の実施形態の制御処理を示すフローチャートである。 図4Aは、第1の実施形態の視線入力機能が無効である場合の制御処理を示すフローチャートである。 図4Bは、第1の実施形態の視線入力機能が無効である場合の制御処理を示すフローチャートである。 図5Aは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図5Bは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図5Cは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図5Dは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図5Eは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図5Fは、第1の実施形態の制御処理を説明するライブビュー画面を例示する図である。 図6Aは、第1の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図6Bは、第1の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図6Cは、第1の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図6Dは、第1の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図6Eは、第1の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図7Aは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図7Bは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図8Aは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図8Bは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図8Cは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図8Dは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Aは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Bは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Cは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Dは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Eは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図9Fは、第2の実施形態において操作部材に機能を割り当てる方法を説明する図である。 図10は、第2の実施形態の制御処理を示すフローチャートである。 図11Aは、第2の実施形態の制御処理を示すフローチャートである。 図11Bは、第2の実施形態の制御処理を示すフローチャートである。 図12は、視線ポインタの表示設定画面を例示する図である。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
 以下に、本発明の撮像装置を、静止画の撮影及び動画の記録が可能なデジタル一眼レフカメラに適用した実施の形態について、添付図面を参照して詳細に説明する。なお、本実施形態においては、本発明の撮像装置をデジタルカメラに適用した例を説明するが、この例に限定されず、カメラ機能を備える装置であれば適用可能である。すなわち、本発明は、カメラ機能を備えるタブレットデバイス、携帯電話やその一種であるスマートフォン、音楽プレーヤ、ゲーム機、電子ブックリーダなどにも適用可能である。
 [第1の実施形態]
 <装置構成>図1A、図1Bおよび図2を参照して、本実施形態のデジタルカメラ100の構成および機能について説明する。
 図1Aは、レンズユニット200を取り外した状態のデジタルカメラ100の前面斜視図、図1Bはデジタルカメラ100の背面斜視図である。
 図1Aおよび図1Bにおいて、背面表示部101は、ユーザが視認可能に、画像や各種情報を表示する、ファインダー外であるカメラ本体の背面に設けられた液晶パネルや有機ELパネルなどの表示デバイスである。また、背面表示部101は、静止画撮影後の静止画再生や記録中の動画表示、およびライブビュー表示機能を併せ持っている。背面表示部101には、タッチパネル270aが設けられている。タッチパネル270aは、背面表示部101の表示面(タッチパネル270aの操作面)対する接触(タッチ操作)を検出可能なタッチ検出手段である。ファインダー外表示部243は、カメラ本体の上面に設けられた液晶パネルや有機ELパネルなどの表示デバイスであり、シャッター速度や絞りなどのカメラの様々な設定値を表示する。
 シャッターボタン102は撮影指示を行うための押しボタン式の操作部材である。モード切替スイッチ103は各種モードを切り替えるためのダイヤル式の操作部材である。モード切替スイッチ103は、システム制御部201の動作モードを、静止画撮影モード、動画記録モード、再生モードのいずれかに切り替える。静止画撮影モードには、例えば、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)、が含まれる。また、静止画撮影モードには、例えば、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモードなどが含まれる。
 モード切替スイッチ103で、静止画撮影モードに含まれる複数のモードのいずれかに直接切り替える。あるいは、モード切替スイッチ103で静止画撮影モードに一旦切り替えた後に、静止画撮影モードに含まれる複数のモードのいずれかに他の操作部材を用いて切り替えるようにしてもよい。同様に、動画記録モードや再生モードにも複数のモードが含まれていてもよい。
 端子カバー104は外部機器とデジタルカメラ100をUSBなどのケーブルを介して接続するためのコネクタ(不図示)を保護するカバー部材である。メイン電子ダイヤル105は図2で後述する操作部270に含まれる回転操作部材であり、このメイン電子ダイヤル105を回すことで、シャッター速度や絞りなどの設定値が変更できる。
 電源スイッチ106はデジタルカメラ100の電源のオン/オフを切り替える操作部材である。サブ電子ダイヤル107は、選択枠の移動や画像送りなどを行う回転操作部材である。十字キー108は、上、下、左、右からなる4方向ボタンのいずれかを押し込むことで、十字キー108の押した部分に応じた操作が可能な移動指示部材である。SETボタン109は、主に選択項目の決定などに用いられる押しボタン式の操作部材である。
 録画ボタン110は、静止画撮影モードではライブビュー表示のオン/オフを切り替え、動画記録モードでは動画撮影(記録)の開始や停止の指示に用いられる押しボタン式の操作部材である。拡大ボタン111は、ライブビュー中における拡大表示のオン/オフ、および拡大表示中の拡大率の変更を行うために用いられる押しボタン式の操作部材である。また、拡大ボタン111は、再生モードでは再生画像を拡大し、拡大率を増加させるために使用される。拡大表示をオンとした後にメイン電子ダイヤル105を操作することでライブビューの拡大または縮小を行うことができる。また、再生モードでは再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。AEロックボタン112は、撮影待機状態で押下することにより露出状態を固定することができる押しボタン式の操作部材である。
 再生ボタン113は、撮影モードと再生モードとを切り替えるために用いられる押しボタン式の操作部材である。撮影モード中に再生ボタン113を押下することで再生モードに移行し、記録媒体250に記録された画像のうち最新の画像を背面表示部101に表示させることができる。メニューボタン114は、押下されると各種の設定可能なメニュー画面が背面表示部101に表示される押しボタン式の操作部材である。ユーザは、背面表示部101に表示されたメニュー画面と、十字キー108やSETボタン109またはマルチコントローラ115を用いて直感的に各種設定を行うことができる。
 AFオンボタン116は、ライブビュー画像内の所定の被写体に対してAE(自動露出)処理およびAF(オートフォーカス)処理を実行する機能と、AF処理の対象をユーザの視線入力により指定された被写体に切り替える機能の実行を指示することが可能な操作部材である。AFオンボタン116は、後述するシャッターボタン102と同様に、操作途中(半押し)でオンとなり、第1のAFオン信号SW3を発生する第1の段階と、操作完了(全押し)でオンとなり、第2のAFオンッ信号SW4を発生する第2の段階の2段階の操作が可能な押しボタン式の操作部材である。システム制御部201は、AFオンボタン116が第1の段階への第1の操作が行われると被写体に対するAE処理、AF処理を実行し、第1の段階から続く第2の段階への操作が行われるとユーザの視線入力により指定された被写体に切り替える機能を実行する。AFオンボタン116の半押しと全押しのそれぞれの操作に応じて実行する機能は、図6Aから図6Eで後述する設定画面と、十字キー108やSETボタン109またはマルチコントローラ115を用いて割り当て可能である。なお、AFオンボタン116の半押しと全押しのそれぞれの操作に対して、AE処理、AF処理、視線入力に基づく被写体の切り替え以外の機能を割り当てることも可能である。なお、AFオンボタン116だけでなく、他の操作部材についても、実行する機能をユーザが設定可能に構成してもよい。また、シャッターボタン102についても、半押し操作については、実行する機能を変更可能としてもよい。例えば、シャッターボタン102の半押し操作に応じて、AE処理およびAF処理を実行するか否かを、ユーザ設定により変更可能としてもよい。ただし、撮影記録処理の機能が割り当てられているシャッターボタン102の全押し操作については、割り当て機能が変更されてしまうと撮影ができなくなってしまう。そのため、シャッターボタン102の全押し操作については、ユーザにより実行する機能(割り当てる機能)を変更不可とする。
 背面表示部101および後述するファインダー内表示部229は、電子ビューファインダー(以下、EVF)として上述した各種の動作モードに応じてシステム制御部201により表示制御される。
 接眼部216は、覗き込み型の接眼ファインダーである。ユーザは、接眼部216を介してファインダー内表示部229に表示された画像を視認可能であり、レンズユニット200を通じて取り込んだ被写体像の焦点や構図の確認を行うことができる。
 接眼検知部217は、接眼部216の近傍に配置され、接眼部216への何らかの物体の接近を検知することができる。接眼検知部217は、例えば赤外線近接センサが用いられる。
 通信端子210はデジタルカメラ100がレンズユニット200(図2)と通信を行うための電気的接点である。蓋118はデジタルカメラ100に対して記録媒体250を着脱するためにスロットを開閉する部材である。グリップ部117は、ユーザがデジタルカメラ100を構えた場合に右手で握りやすい形状を有する。グリップ部117を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン102、メイン電子ダイヤル105が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル107が配置されている。
 次に、図2を参照して、本実施形態のデジタルカメラ100およびレンズユニット200の内部構成について説明する。図2において、図1Aおよび図1Bと共通する構成には同じ符号を付して示している。
 図2において、レンズユニット200は撮影レンズ207を搭載し、デジタルカメラ100に対して着脱可能である。撮影レンズ207は通常、複数枚のレンズから構成されるが、ここでは簡略して1枚のレンズのみで示している。通信端子206はレンズユニット200がデジタルカメラ100と通信を行うための電気的接点である。通信端子210はデジタルカメラ100がレンズユニット200と通信を行うための電気的接点である。レンズユニット200は、通信端子206を介してシステム制御部201と通信し、内蔵されたレンズ制御部204が絞り駆動回路202を制御して絞り205を駆動し、AF駆動回路203を制御して撮影レンズ207の位置を変位させることで焦点を合わせる。
 フォーカルプレーンシャッター221は、システム制御部201の指示に応じて撮像部222での露光時間を自由に制御できる。撮像部222は被写体像を電気信号に変換するCCDやCMOS等の撮像素子で構成されたイメージセンサである。A/D変換器223は、撮像部222から出力される1画素のアナログ信号を、例えば10ビットのデジタル信号に変換する。
 画像処理部224は、A/D変換器223からのデータ、又は、メモリ制御部215からのデータに対して所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部224では、撮像した画像データを用いて測光処理および測距処理のための所定の演算処理が行われ、システム制御部201は演算結果に基づいて露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。画像処理部224では更に、撮像した画像データを用いてホワイトバランス処理のための所定の演算処理が行われ、演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。また、画像処理部224は、撮像した画像データを用いて、被写体の種類や部位や状態(種別)、被写体の位置や大きさ(領域)などを検出する被写体検出処理を行う。また、画像処理部224は、顔AFや瞳AFが可能である。顔AFとは被写体検出処理によって検出された画像内の顔に対してAFを行うことである。瞳AFとは被写体検出処理によって検出された画像内の顔に含まれる瞳に対してAFを行うことである。また、システム制御部201は、画像処理部224により検出された1つまたは複数の被写体から自動またはユーザ操作により所定の被写体を決定し、所定の被写体に対してAE処理およびAF処理の対象であることを示す枠を表示する。
 メモリ制御部215は、A/D変換器223、画像処理部224、メモリ232の間のデータの授受を制御する。A/D変換器223から出力されるデジタルデータは、画像処理部224およびメモリ制御部215を介して、あるいは、メモリ制御部215を介してメモリ232に直接書き込まれる。メモリ232は、撮像部222およびA/D変換器223から得られる画像データや、背面表示部101またはファインダー内表示部229に表示するための画像表示用のデータを格納する。メモリ232は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ232は画像表示用のメモリ(ビデオメモリ)を兼ねている。
 D/A変換器219は、メモリ232に格納されている画像表示用のデータをアナログ信号に変換して背面表示部101またはファインダー内表示部229に供給する。メモリ232に書き込まれた表示用の画像データはD/A変換器219を介して背面表示部101やファインダー内表示部229により表示される。背面表示部101やファインダー内表示部229は、表示デバイスにD/A変換器219からのアナログ信号に応じた表示を行う。このように、メモリ232に格納されたデジタル信号をアナログ信号に変換し、背面表示部101またはファインダー内表示部229に逐次転送して表示することで、ライブビュー表示(スルー画像表示)を行うEVFとして機能する。
 ファインダー外表示部243には、ファインダー外表示部駆動回路244を介して、シャッター速度や絞りなどのカメラの様々な設定値が表示される。
 不揮発性メモリ256は、電気的に消去・記録可能な、例えばEEPROMなどである。不揮発性メモリ256には、システム制御部201の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、後述するフローチャートを実行するためのプログラムのことである。
 システム制御部201は、デジタルカメラ100全体を統括して制御するCPUやMPUを備え、不揮発性メモリ256に格納されたプログラムを実行することで、後述するフローチャートの各処理を実現する。システムメモリ252はRAMなどであり、システム制御部201の動作用の定数、変数、不揮発性メモリ256から読み出したプログラムなどを展開するワークメモリとしても使用される。また、システム制御部201は、メモリ232、D/A変換器219、背面表示部101、ファインダー内表示部229などを制御することにより表示制御も行う。システムタイマー253は各種制御に用いる時間や、内蔵時計の時間を計測する計時部である。
 第1シャッタースイッチ211は、デジタルカメラ100に設けられたシャッターボタン102の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生する。システム制御部201は、第1シャッタースイッチ信号SW1を受けて画像処理部224によって、AE処理、AF処理、AWB処理、EF処理などを開始する。
 第2シャッタースイッチ212は、シャッターボタン102の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部201は、第2シャッタースイッチ信号SW2により、撮像部222からの信号読み出しから記録媒体250に画像データを書き込むまでの一連の記録処理を開始する。
 操作部270は、ユーザからの各種操作を受け付けて、システム制御部201へ通知する各種スイッチ、ボタンなどの操作部材からなり、少なくとも以下の操作部材が含まれる。シャッターボタン102、モード切替スイッチ103、メイン電子ダイヤル105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、録画ボタン110、拡大ボタン111、AEロックボタン112、再生ボタン113、メニューボタン114、マルチコントローラ115、AFオンボタン116。
 なお、操作部270に含まれる各操作部材には、メニュー画面と、十字キー108やSETボタン109またはマルチコントローラ115を用いて所望の機能を割り当てることができる。
 電源制御部280は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部280は、その検出結果およびシステム制御部201の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体250を含む各部へ供給する。
 電源部230は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Liイオン電池等の二次電池、ACアダプタ等からなる。記録媒体I/F218は、メモリカードやハードディスク等の記録媒体250とのインターフェースである。記録媒体250は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
 通信部254は、無線アンテナや有線ケーブルによって外部機器と通信可能に接続し、画像や音声の送受信を行う。通信部254は無線LAN(Local Area Network)やインターネットにも接続可能である。通信部254は撮像部222で撮像された画像データ(ライブビュー画像を含む)や、記録媒体250に記録されている画像ファイルを外部機器に送信でき、また、外部機器から画像データやその他の各種情報を受信できる。なお、通信部254は、無線LANに限らず、赤外線通信、Bluetooth(登録商標)、Bluetooth(登録商標) Low Energy、WirelessUSBなどの無線通信モジュール、あるいは、USBケーブルやHDMI(登録商標)、IEEE1394などの有線接続手段を用いてもよい。
 姿勢検知部255は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部255で検知された姿勢に基づいて、撮像部222で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像なのかを判別可能である。システム制御部201は、姿勢検知部255で検知された姿勢に応じた向き情報を撮像部222で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部255としては、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部255は、加速度センサやジャイロセンサを用いることで、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止など)を検知することも可能である。
 なお、操作部270の1つとして、背面表示部101に対するタッチ操作を検出可能なタッチパネル270aを有する。タッチパネル270aと背面表示部101とは一体的に構成することができる。例えば、タッチパネル270aを光の透過率が背面表示部101の表示を妨げないように構成し、背面表示部101の表示面の上層に取り付ける。そして、タッチパネル270aにおける入力座標と、背面表示部101の表示座標とを対応付ける。これにより、あたかもユーザが背面表示部101に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。システム制御部201はタッチパネル270aへの以下の操作、あるいは状態を検出できる。
 ・タッチパネル270aにタッチしていなかった指やペンが新たにタッチパネル270aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
 ・タッチパネル270aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
 ・タッチパネル270aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
 ・タッチパネル270aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
 ・タッチパネル270aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
 タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
 これらの操作・状態や、タッチパネル270aに指やペンがタッチしている位置座標は内部バスを通じてシステム制御部201に通知される。システム制御部201は通知された情報に基づいてタッチパネル270aにどのような操作(タッチ操作)が行われたかを判定する。
 タッチムーブについてはタッチパネル270aで移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル270aの垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作(ドラッグ)が行われたと判定するものとする。タッチパネル270aに指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル270aを指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(ドラッグに続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
 タッチパネル270aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
 接眼検知部217は接眼部216に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部201は、接眼検知部217で検知された状態に応じて、背面表示部101とファインダー内表示部229の表示(表示状態)/非表示(非表示状態)を切り替える。システム制御部201は、少なくとも撮影モード、かつ、表示先の切替が自動である場合において、非接眼中は表示先を背面表示部101とし、ファインダー内表示部229は非表示とする。また、接眼中は表示先をファインダー内表示部229とし、背面表示部101は非表示とする。
 物体が接近した場合は、接眼検知部217の投光部(図示せず)から照射された赤外光が反射して赤外線近接センサの受光部(図示せず)に入射される。赤外線近接センサで受光される赤外光の入射光量によって、接眼部216への何らかの物体の接近の検出と、物体が接眼部216からどの程度の距離まで近づいているか(接眼距離)を判別することができる。接眼部216への物体の接近を検知するとシステム制御部201がファインダー内表示部229の表示を開始させることが可能となる。これにより、ユーザが接眼部216を覗いたときにファインダー内表示部229を極力遅延なく表示可能となる。
 また、接眼検知部217は、非接眼状態(非接近状態)から、接眼部216に対して所定距離以内に近づく物体を検出した場合に接眼を検出したと判定し、システム制御部201に接眼検知通知を送信する。また、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に離眼が検出したと判定し、システム制御部201に離眼検知通知を送信する。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。これにより、システム制御部201は、接眼検知部217が検出した接眼状態もしくは離眼状態に応じて背面表示部101とファインダー内表示部229の表示制御を行う。
 なお、接眼検知部217は赤外線近接センサに限らず、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを用いてもよい。
 視線検出部260は、次のダイクロイックミラー262、結像レンズ263、視線検出センサ264、視線検出回路265、赤外発光素子266を含み、ユーザのファインダー内表示部229に対する視線の有無だけでなく視線の位置や動きを検出する。
 本実施形態のデジタルカメラ100は、視線検出部260により角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光素子266から発した赤外光が眼球(目)261(特に角膜)において反射した反射光と、眼球(目)261の瞳孔との位置関係から、視線の位置や向きを検出する方式である。その他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線の位置や向きを検出する方式がある。なお、視線の位置や向きを検出できる方式であれば、上記以外の視線検出方式を用いてもよい。本実施形態のデジタルカメラ100では、図12に例示するメニュー画面により、視線入力機能がオンの場合の、視線ポインタの表示設定が可能である。ユーザは、図12の視線ポインタの表示設定画面において、操作部270を操作して、視線ポインタの表示設定を、「する」、「撮影待機中のみ」、「しない」の中から選択して設定することができる。視線ポインタの表示設定が「する」に設定された場合は、システム制御部201は、視線入力機能がオンの場合に、視線検出部260により検出した視線位置を示す視線ポインタを、ライブビュー画像に重畳して、ファインダー内表示部229に表示するように制御する。視線ポインタを表示することで、ユーザは、現在検出されている視線位置を把握することができ、視線入力機能により位置の指定を行う場合に、どの位置が指定されるのかを事前に確認できる。視線ポインタの表示設定が「しない」に設定された場合は、システム制御部201は、視線位置を示す視線ポインタを表示しないように制御する。「撮影待機中のみ」が設定された場合は、システム制御部201は、視線入力機能がオンである場合に視線ポインタを表示するように制御する。ただし、シャッターボタン102の全押しや、シャッターボタン102の半押し等により、AF処理、AE処理の撮影準備処理を実行している間は、視線検出部260により視線を検出していても視線ポインタを非表示にする。つまり、AF処理、AE処理を実行していないときにのみ視線ポインタを表示するように制御する。AF処理、AE処理の実行中は、ユーザは被写体にピントが合っているかを確認するためにライブビュー画像を見ることが考えられるが、視線位置に視線ポインタが表示されると被写体を確認し難くなってしまうため、撮影準備処理の実行中には視線ポインタを表示しない「撮影待機中のみ」という設定を設けている。
 赤外発光素子266は、ファインダー画面内におけるユーザの視線位置を検出するための赤外光を発光するダイオードであり、ユーザの眼球(目)261に赤外光を接眼部216の中央付近に向けて照射する。赤外発光素子266から照射された赤外光は眼球(目)261で反射し、反射した赤外光はダイクロイックミラー262に到達する。ダイクロイックミラー262は赤外光だけを反射して可視光を透過させる機能を有し、光路を変更された反射赤外光は、結像レンズ263を介して視線検出センサ264の撮像面に結像する。
 結像レンズ263は視線検出光学系を構成する光学部材である。視線検出センサ264は、CCDやCMOSなどからなるイメージセンサを含む。視線検出センサ264は、入射された反射赤外光を電気信号に光電変換して視線検出回路265へ出力する。視線検出回路265は、視線検出センサ264の出力信号に基づき、ユーザの眼球(目)261の動きや瞳孔の位置からユーザの視線位置を検出し、検出した情報をシステム制御部201に出力する。視線検出センサ264は、人の目の瞳孔の検知が可能であるため、他の物体が接眼部216に接近または接触していても、人の視線が入力されていることを検知しない。これにより接眼部216は視線操作部としての機能を有するが、視線検出部は別の構成であってもよい。なお、視線検出部260による視線入力機能の有効/無効は、例えば、メニュー画面を介してユーザが設定可能である。
 システム制御部201は視線検出部260の検出結果に基づいて接眼部216への以下の操作または状態を検出できる。
・接眼部216に接眼したユーザの視線が新たに入力(検出)されたこと(視線入力の開始)
・接眼部216に接眼したユーザが視線入力している状態であること
・接眼部216に接眼したユーザが注視している状態であること
・接眼部216に接眼したユーザが入力していた視線を外したこと(視線入力の終了)
・接眼部216に接眼したユーザが何も視線入力していない状態
 これらの操作・状態や、接眼部216に視線の入力位置はシステム制御部201に通知され、システム制御部201は通知された情報に基づいて接眼部216にどのような操作(視線操作)が行われたかを判定できる。
 なお、注視とは、ユーザの視線位置が所定時間内に所定の移動量を超えなかった場合のことを指す。つまり、システム制御部201は、視線検出回路265から受け取った検出情報に基づいて、ユーザの視線がある領域に固定されている期間が所定の閾値を越えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域)であるといえる。なお、「視線がある領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。
 <制御処理>次に、図3Aから図6Eを参照して、第1の実施形態のデジタルカメラ100の制御処理について説明する。
 図3A、図3B、図4Aおよび図4Bは、第1の実施形態のデジタルカメラ100の制御処理を示すフローチャートである。図3Aおよび図3Bの処理は、デジタルカメラ100の電源がオンされ、システム制御部201が、不揮発性メモリ256に格納されたプログラムをシステムメモリ252に展開して実行し、各構成要素を制御することにより実現される。なお、図3Aおよび図3Bの処理は、デジタルカメラ100が起動した直後だけでなく、静止画撮影モードや動画記録モードに移行し、ライブビュー画像の表示が開始された直後であってもよい。図3Aおよび図3Bの処理は、撮影待機状態(撮影モードにおいてシャッターボタン102が全押しされたことによる撮影記録処理を実行していない状態)でのAFオンボタン116の操作に関する処理のみを抜粋している。つまり、図3Aおよび図3Bの処理とは別に、装置構成において説明した処理も実行される。すなわち、システム制御部201は、シャッターボタン102の半押し(SW1オン)に応じて、AE処理、AF処理、AWB処理、EF処理などの撮影準備処理を実行する。また、システム制御部201は、シャッターボタン102の全押し(SW2オン)に応じて記録処理を実行する。
 ステップS301では、システム制御部201は、撮像部222により撮像されたライブビュー画像を逐次更新しながら背面表示部101に表示する。ライブビュー画像の表示処理は、図3Aおよび図3Bの処理中継続して実行される。
 ステップS302では、システム制御部201は、画像処理部224によりライブビュー画像に対して被写体検出処理を行う。
 ステップS303では、システム制御部201は、画像処理部224の被写体検出処理によって所定の被写体が検出されたか否かを判定し、所定の被写体が検出されたと判定した場合は処理をステップS304に進め、所定の被写体が検出されたと判定しなかった場合は処理をステップS305に進める。
 ステップS304では、システム制御部201は、ステップS302で検出された所定の被写体の位置情報を画像処理部224から受け取り、背面表示部101に表示されている画像内の所定の被写体を囲むように被写体枠を表示する。なお、ユーザの操作、例えば、AFオンボタン116への全押し操作による視線位置でのAF位置の確定操作や、背面表示部101へのタッチ操作によるAF位置の指定操作により、AF対象の被写体がユーザにより選択された場合は、選択済みの被写体であることを示す被写体枠を表示してもよい。そして、ユーザにより選択された被写体ではなく、システム制御部201が自動選択した被写体の場合は通常の1重線の被写体枠を表示し、ユーザが選択した被写体である場合は2重線の被写体枠を表示し、選択済みの被写体であることが識別できるように異なる表示形態(形状や色など)で表示するようにしてもよい。また、一度ユーザに選択された被写体を、画像処理部224により追尾し、追尾した被写体位置に被写体枠を表示するようにしてもよい。
 ステップS305では、システム制御部201は、背面表示部101に表示されている画像において、ユーザが十字キー108やSETボタン109またはマルチコントローラ115を用いて指定したAF位置に対して、一定サイズの固定AF枠を表示する。なお、ステップS302で被写体が検出されない場合は、システム制御部201は、ステップS305の処理を行わず、ステップS306に処理を進めてもよい。
 ステップS306では、システム制御部201は、視線検出部260により検出されたユーザの視線位置の情報を受け取り、背面表示部101に表示されている画像に視線位置を表示する。なお、デジタルカメラ100の視線入力機能が無効にされていた場合は、ステップS306の処理を省略してもよい。
 ステップS307では、システム制御部201は、AFオンボタン116が半押しされているか否かを判定する。システム制御部201は、AFオンボタン116から第1のAFオン信号SW3を検出した場合にAFオンボタン116が半押しされていると判定する。システム制御部201は、AFオンボタン116が半押しされていると判定した場合は処理をステップS308に進め、AFオンボタン116が半押しされていないと判定した場合は処理をステップS301に戻す。
 ステップS308では、システム制御部201は、画像処理部224により得られた測光演算結果に基づく露光制御によりAE処理を実行する。
 ステップS309では、システム制御部201は、画像処理部224によりステップS303からS305の処理でAF対象として決定した被写体枠または固定AF枠をAF位置に決定する。第1の実施形態のデジタルカメラ100は、AFオンボタン116が操作されていないステップS301からS306の間は、AE/AF処理は行わず、AFオンボタン116に対して半押し操作または全押し操作が行われたタイミングで、AE/AF処理を実行する。また、シャッターボタン102が半押しされたタイミングにおいてもAE/AF処理を実行する。
 ステップS310では、システム制御部201は、画像処理部224により得られた、ステップS309で決定したAF位置の測距演算結果に基づく測距制御によりAF処理を実行し、AF処理を実行した結果を示すAF枠を背面表示部101に表示する。被写体枠や固定枠とは異なる色や形状でAF枠を表示することにより、AF処理を実行した結果を示すAF枠を表示する。なお、メニュー画面でAF動作設定が設定可能である場合、AF動作設定がワンショット(1点)AFに設定されている場合は、システム制御部201は、AFオンボタン116が半押しされたタイミングで1回だけAF処理を実行するように制御する。また、AF動作設定がサーボAFに設定されている場合は、システム制御部201は、決定したAF位置に対して、AF処理を実行し続け、AF結果を示すAF枠の表示の更新を行うように制御する。また、メニュー画面でAF動作設定がサーボAFに設定されており、さらに被写体追尾が設定されている場合は、システム制御部201は、被写体追尾を実行し、追尾した被写体位置をAF位置としてAF処理を実行するように制御する。
 ステップS311では、システム制御部201は、AFオンボタン116の半押しが解除された、つまりAFオンボタン116が操作されていない状態になったか否かを判定する。システム制御部201は、AFオンボタン116から第1のAFオン信号SW3を検出しなくなった場合にAFオンボタン116の半押しが解除されたと判定する。システム制御部201は、AFオンボタン116の半押しが解除されたと判定した場合は処理をステップS301に戻す。システム制御部201は、AFオンボタン116の半押しが解除されていないと判定した場合は処理をステップS312に進める。
 ステップS312では、システム制御部201は、AFオンボタン116が全押しされたか否かを判定する。システム制御部201は、AFオンボタン116から第2のAFオン信号SW4を検出した場合にAFオンボタン116が全半押しされていると判定する。システム制御部201は、AFオンボタン116が全押しされたと判定した場合は処理をステップS313に進める。システム制御部201は、AFオンボタン116が全押しされていないと判定した場合は処理をステップS311に戻す。
 ステップS313では、システム制御部201は、デジタルカメラ100の視線入力機能が有効であるか否かを判定し、視線入力機能が有効であると判定した場合は処理をステップS314に進め、視線入力機能が有効ではないと判定した場合は処理をステップS311に戻す。
 ステップS314では、システム制御部201は、視線検出部260により検出された視線位置を確定する。
 ステップS315では、システム制御部201は、ステップS314で確定された視線位置をAF位置に決定する。
 ステップS316では、システム制御部201は、画像処理部224により、ステップS315で決定されたAF位置の被写体に対してAE処理およびAF処理を実行し、AF枠を背面表示部101に表示する。なお、システム制御部201は、ステップS316においても、ステップS310と同様に、AF動作設定がワンショット(1点)であるか、サーボAFであるかに応じて、1回だけAF処理を実行するか、AF処理を実行し続けるかを切り替える。また、システム制御部201は、AF結果を示すAF枠の表示の更新を行ったり、被写体追尾が設定されている場合は、被写体追尾を実行し、追尾した被写体位置をAF位置としてAF処理を実行するように制御する。
 ステップS317では、システム制御部201は、AFオンボタン116の全押しが解除された、つまりAFオンボタン116が半押し状態になったか否かを判定する。システム制御部201は、AFオンボタン116から第2のAFオン信号SW4を検出しなくなった場合にAFオンボタン116の全押しが解除されたと判定する。システム制御部201は、AFオンボタン116の全押しが解除されたと判定されるまで待機し、AFオンボタン116が解除されたと判定した場合は処理をステップS318に進める。
 ステップS318では、システム制御部201は、デジタルカメラ100の動作モードが変更されるなどにより撮影動作が終了されたか否かを判定し、撮影動作が終了されたと判定した場合は処理を終了し、撮影動作が終了されていないと判定した場合は処理をステップS311に戻す。
 なお、ステップS317においてAFオンボタン116の全押しが解除されたと判定された場合、ステップS308に進み、被写体枠もしくは固定AF枠の位置でAE処理およびAF処理を再度実行してもよい。
 また、視線入力機能が無効である場合は、ステップS312でAFオンボタン116が全押しされてもステップS308からS310で被写体枠もしくは固定AF枠の位置でAE処理およびAF処理を続行するようにしてもよい。
 次に、図4Aおよび図4Bを参照して、第1の実施形態のデジタルカメラ100の視線入力機能が無効である場合の制御処理について説明する。
 図3Bでは、ステップS313で視線入力機能が無効である場合は、ステップS307からS310でAFオンボタン116の半押しにより被写体枠もしくは固定AF枠の位置でAFを実行した直後の状態となっていたが、図4Aまたは図4Bに示す制御処理を実行してもよい。
 図4Aは、図3BのステップS313で視線入力機能が無効である場合に瞳AF/顔AFを切り替える処理を示している。
 ステップS401、S312では、図3Aおよび図3BのステップS301からS312と同様の処理を行う。
 ステップS313で、デジタルカメラ100の視線入力機能が有効であると判定した場合は、システム制御部201は、ステップS314、S315の処理を実行し、視線入力機能が有効ではないと判定した場合は処理をステップS402に進める。
 ステップS402では、システム制御部201は、被写体の瞳に対するAF処理(瞳AF機能)が有効であるか否かを判定し、瞳AF機能が有効であると判定した場合は処理をステップS403に進め、瞳AF機能が有効ではないと判定した場合は処理をステップS405に進める。
 ステップS403では、システム制御部201は、瞳AF機能を無効にし、被写体の顔(顔全体)に対するAF処理(顔AF機能)を有効にする。
 ステップS404では、システム制御部201は、画像処理部224により被写体の顔を検出し、検出された顔位置をAF位置に決定し、決定されたAF位置に対して、ステップS407でAE処理およびAF処理を実行し、AF枠を背面表示部101に表示する。なお、ステップS404では、被写体の顔ではなく、被写体の全体を含む矩形領域を検出してもよい。
 ステップS405では、システム制御部201は、瞳AF機能を有効にする。
 ステップS406では、システム制御部201は、被写体枠の被写体について、画像処理部224により被写体の瞳を検出し、検出された瞳位置をAF位置に決定し、決定されたAF位置に対して、ステップS407に進み、AE処理およびAF処理を実行(ステップS316)し、AF枠を背面表示部101に表示する。
 ステップS407では、図3BのステップS316からS318と同様の処理を行う。
 なお、ステップS402からS406では、AFオンボタン116の全押しが繰り返される(AFオンボタン116の全押しが解除された後、再び全押しが実行される)度に、瞳AF機能の有効/無効が切り替えられる。そのため、AF位置を被写体の顔にするか瞳にするかを切り替えつつAF処理を実行することができる。なお、AFオンボタン116の全押しが繰り返される度に、AF位置を被写体の顔にするか瞳にするかを切り替えるのではなく、AF位置を被写体の顔、右目、左目のいずれにするかを切り替えてもよい。あるいは、AFオンボタン116の全押しが繰り返される度に、AF位置を被写体の右目と左目の間で切り替えるようにしてもよい。
 なお、ステップS402からS406において、瞳AF機能は常に無効で、AFオンボタン116が全押しされている間のみ、瞳AF機能を有効にして被写体の瞳にAF処理を実行するようにしてもよい。
 図4Bは、視線入力機能が無効である場合にAF対象の被写体を切り替える処理を示している。
 ステップS401、S351では、図3Aおよび図3BのステップS301からS312と同様の処理を行う。
 ステップS313で、デジタルカメラ100の視線入力機能が有効であると判定した場合は、システム制御部201は、ステップS314、S315の処理を実行し、視線入力機能が有効ではないと判定した場合は処理をステップS408に進める。
 ステップS408では、システム制御部201は、S303で検出された被写体を検索し、ステップS309でAF位置に決定された被写体とは異なる被写体に被写体枠を表示する。
 ステップS409では、システム制御部201は、ステップS408で表示された被写体枠をAF位置に決定し、決定されたAF位置に対して、ステップS407でAE処理およびAF処理を実行し、AF枠を背面表示部101に表示する。なお、ステップS408では、被写体の顔ではなく、被写体の全体を含む矩形領域を検出してもよい。
 ステップS407では、図3BのステップS316からS318と同様の処理を行う。
 なお、ステップS408からS409では、AFオンボタン116の半押しと全押しが繰り返される間、AF対象の被写体を順次別の被写体に切り替えてもよい。
 さらに、図4Aおよび図4Bでは、AFオンボタン116が全押しされ、視線入力機能が無効である場合に、ステップS402からS406またはステップS408からS409の処理を実行しているが、視線入力機能の有効/無効を判定しないで実行してもよい。
 次に、図5Aから図5Fを参照して、第1の実施形態の制御処理をライブビュー画面を用いて説明する。
 図5Aの画面では、背面表示部101にライブビュー画像が表示され、画像処理部224によって被写体501が検出され、被写体501の顔の位置に、被写体枠502が表示されている。また、図5Aの画面では、視線検出部260により検出された視線位置に視線アイコン503が表示されている。
 図5Aの例では、ユーザの視線が画面の左上付近にある。なお、視線入力機能が無効である場合、視線アイコン503は表示されなくてもよい。
 図5Aの例では、被写体501に被写体枠502が表示されているが、被写体が検出できない場合は、ユーザが指定した位置に固定AF枠510を表示してもよいし、固定AF枠510を被写体枠502と同時に表示してもよい。なお、固定AF枠510のサイズはユーザが任意に指定することができる。
 図5Bの画面は、図5Aの画面から、ユーザがAFオンボタン116を半押しした状態を例示している。
 システム制御部201は、画像処理部224により、被写体501の被写体枠502に対してAE処理およびAF処理を行い、被写体枠502をAF枠504に変更する。
 被写体が検出できない場合は、図5Aの枠510に対して、AE処理およびAF処理を行い、固定AF枠510の位置にAF枠504が表示される。
 上記の処理中も視線検出部260による視線検出処理は常に実行することができ、ユーザの視線位置に応じて視線アイコン503の位置が更新される。
 図5Bの例では、ユーザの視線が図5Aと同じ位置をある状態を例示している。
 図5Cの画面は、図5Bの状態から、ユーザの視線が被写体505に変更された状態を例示している。
 図5Bから図5Cまでの時間も図5Bの例と同様に視線検出部260による視線検出処理は常に実行することができる。
 図5Aの例と異なり、図5Cの例では視線アイコン503の位置が被写体505付近に移動し、ユーザの視線が被写体501から別の被写体505に変更されている。
 図5Dの画面は、図5Cの状態から、ユーザがAFオンボタン116を全押しした状態を例示している。
 システム制御部201は、視線検出部260により検出された視線位置を被写体505の位置に確定する。
 システム制御部201は、画像処理部224により、確定した視線位置の被写体505に対してAE処理およびAF処理を実行し、AF枠504を表示する。
 なお、図5Dの状態で視線位置の被写体に対してAF処理を実行した後も、視線検出部260による視線検出を続行し、視線アイコン503を表示し続けてもよい。
 図5Eの画面は、AFオンボタン116が全押しされた場合に、瞳AF機能を有効にして、被写体501の瞳に対してAE処理およびAF処理を実行した状態を例示している。
 図5Eの例では、瞳AF機能が有効であることを示す瞳AFアイコン506が表示されている。瞳AF機能が無効である場合は、瞳AFアイコン506は表示されなくてもよいし、瞳AF機能が無効であることを示すアイコンを表示してもよい。
 また、図5Eの例では、被写体501の瞳に対してAE処理およびAF処理が実行されたことを示す瞳AF枠507が表示されている。
 システム制御部201は、図4AのステップS402で視線入力機能が無効である場合は、ステップS405で瞳AF機能を有効にし、瞳AFアイコン506を表示する。
 システム制御部201は、画像処理部224により検出された被写体501の瞳に対してAE処理およびAF処理を実行し、瞳AF枠507を表示する。
 図4AのステップS403で瞳AF機能を無効にした場合は、システム制御部201は、画像処理部224により、図4AのステップS406で被写体501の顔に対してAE処理およびAF処理を実行し、被写体501の顔にAF枠504を表示する。
 なお、図5Eの状態において、視線入力機能の有効/無効に限らず、被写体501に対して瞳AF機能を実行してもよい。
 図5Fの画面は、AFオンボタン116が全押しされた場合に、AFオンボタン116が半押しされた状態から被写体が変更されてAE処理およびAF処理が実行された状態を例示している。
 図5Fの例では、図4Aおよび図4BのステップS401(図3AのステップS307からS310)でAFオンボタン116が半押しされたときにAF位置であった被写体501の顔に点線枠508が表示されている。
 その後、図4Aおよび図4BのステップS312でAFオンボタン116が全押しされた場合、システム制御部201は、画像処理部224により検出された被写体から被写体501とは異なる被写体の候補を探索する。そして、被写体501とは異なる被写体509が見つかったとする。
 この場合、システム制御部201は、画像処理部224により、被写体509の顔に対してAE処理およびAF処理を実行し、AF枠504を表示する。
 以上説明したように、ユーザは、AFオンボタン116を全押しするだけで、AF対象の被写体を切り替えることができる。
 詳しくは、視線入力機能が有効な場合は、AFオンボタン116を全押しするだけで、ユーザの視線位置に応じてAF対象の被写体を切り替えることができる。また、視線入力機能が無効な場合は、AFオンボタン116を全押しするだけで、瞳AFまたは顔AFに切り替えたり、AF対象の被写体を切り替えることができる。
 なお、AFオンボタン116の半押しおよび全押しを繰り返すことで、AF対象の被写体を順次切り替えてAE処理およびAF処理を実行してもよい。
 次に、図6Aから図6Eを参照して、第1の実施形態の操作部270に含まれる操作部材に機能を割り当てる方法について説明する。
 図6Aから図6Eは、第1の実施形態のAFオンボタン116に機能を割り当てるための設定画面を例示している。
 以下では、操作部270に含まれる操作部材に機能を割り当てる例として、AFオンボタン116を半押し・全押しした場合に実行できる機能を設定する方法を説明する。
 図6Aは、AFオンボタン116に割り当てることができる機能と、他の操作部材に割り当てられた機能の一覧を表示する設定画面601を例示している。
 表示エリア602には、ユーザが十字キー108やマルチコントローラ115を用いて移動したカーソル604の位置に対応する操作部材の名称と、操作部材に割り当てることができる機能が表示される。
 表示エリア603には、操作部材の名称と、操作部材に割り当てられている機能の簡易名称が表示される。
 図6Aの例では、AFオンボタン116が選択され、表示エリア602に、AFオンボタン116の名称と現在の機能の名称が表示され、AFオンボタン116の表示エリア603にカーソル604が表示されている。
 カーソル604の位置の表示エリア603をタッチまたはカーソル604の位置の表示エリア603が選択された状態でSETボタン109を操作すると、AFオンボタン116に割り当てる機能を設定する設定画面605(図6B)が表示される。
 図6Bは、図6Aの画面において、AFオンボタン116が選択された状態でSETボタン109が操作されたときに表示される設定画面605を例示している。
 表示エリア606には、AFオンボタン116を半押しまたは全押しした場合に実行できる機能の名称(Set1~Set5)と、機能の内容が表示される。
 表示エリア607には、AFオンボタン116に割り当てることができる半押しで実行する機能と全押しで実行する機能の組み合わせを示す選択肢が簡易表示される。
 表示エリア607の選択肢のいずれかをタッチまたは表示エリア607の選択肢のいずれかが選択された状態でSETボタン109が操作されると、AFオンボタン116の半押しで実行する機能と全押しで実行する機能を設定する画面611が表示される。
 また、表示エリア607の選択肢607aから選択肢607bにカーソルを移動すると、選択肢607bに対応した機能の簡易名称と、機能名に、表示エリア606が更新される。
 AFオンボタン116において、半押しで実行できる機能と全押しで実行できる機能を設定する場合は、選択肢607aにカーソル604を当てた状態で、INFOボタン609をタッチすることで、図6Cの設定画面611が表示される。
 図6Cは、AFオンボタン116に対して、半押しで実行できる機能と全押しで実行できる機能を設定するための設定画面611を例示している。
 画面611には、AFオンボタン116の半押しの機能表示エリア612とAFオンボタン116の半押しの機能表示エリア613が表示され、マルチコントローラ115や十字キー108を用いてカーソル604を移動させて選択することができる。
 機能表示エリア612ではAFオンボタン116を半押しした場合に実行する機能を確認することができ、機能表示エリア613ではAFオンボタン116を全押しした場合に実行する機能を確認することができる。
 図6Cの例では、AFオンボタン116を半押しした場合に実行する機能として「AE処理およびAF処理」が設定され、AFオンボタン116を全押しした場合に実行する機能として「視線でAF枠移動」が設定されている。
 機能表示エリア612にカーソル604を当て、機能選択タッチボタン614をタッチまたはSETボタン109を操作すると、図6Dの実行したい機能を選択する画面615が表示される。
 図6Dは、AFオンボタン116の半押しで実行したい機能を選択する画面を例示している。
 なお、図6Cの画面で機能表示エリア613にカーソル604を当て、機能選択タッチボタン614またはSETボタン109を操作すると、図6Dと同様のAFオンボタン116の全押しで実行したい機能を選択する画面が表示される。
 図6Dの例では、選択肢616にカーソルが当たっており、AFオンボタン116の半押しで選択肢616の「AE処理およびAF処理」が選択されている。
 例えば、図6Dの画面615において、選択肢617の「機能A」にカーソルを移動させると、AFオンボタン116の半押しで選択肢617の「機能A」を実行する設定にできる。
 なお、第1の実施形態では、図6Aの画面601でカーソル604を移動させてAFオンボタン116を選択すると、図6Bの画面605が表示され、AFオンボタン116に割り当てることができる半押しで実行する機能と全押しで実行する機能の組み合わせを選択できるようにしたが、図6Aの画面601から、図6Bの画面605を介さず、図6Cの画面611を表示するようにしてもよい。
 図6Eは、視線入力機能を有効または無効に設定するための画面を例示している。
 選択肢617の「有効」を選択すると視線入力機能を有効にし、視線検出部260による視線検出を実行することができる。選択肢618の「無効」を選択すると視線入力機能を無効にし、視線検出部260による視線検出を実行しないようにすることができる。
 第1の実施形態では、選択肢618が選択された場合、AFオンボタン116が全押しされても視線入力機能が無効であるため、図4Aおよび図4Bで説明したように瞳AF機能の有効または無効を切り替えたり、AF対象の被写体を切り替えたりして、AE処理およびAF処理を実行することができる。
 以上説明したように、第1の実施形態によれば、AFオンボタン116を半押しまたは全押しすることにより、ライブビュー画像内の被写体に対してAF(オートフォーカス)処理およびAE(自動露出)処理を実行する機能と、AF対象をユーザの視線入力により指定された被写体に切り替える機能とを使い分けることができる。このように、AFに関する異なる機能をAFオンボタン116の半押し操作、全押し操作で指示することができ、操作手番を低減できる。
 [第2の実施形態]
 第2の実施形態では、AFオンボタン116の全押しで実行される機能だけでなく、AFオンボタン116の半押しにより実行される機能もユーザが設定可能である。第2の実施形態の装置構成は、第1の実施形態と同じであり、第2の実施形態の制御処理は第1の実施形態と一部共通するため、同じ処理には同じ符号を付して説明を省略する。
 図7Aから図9Fを参照して、メニュー画面によるAFオンボタン116の機能の割り当てについて説明する。
 図7Aは、AFオンボタン116の機能割り当て設定画面700を例示している。
 AFオンボタン116の機能割り当て設定画面700には、AFオンボタンの機能割り当て可能な設定項目として、項目721~727の各項目が表示される。また、選択中の項目を示すカーソル701、選択中の項目の設定内容表示領域710、詳細設定アイコン702、OKアイコン703が表示される。
 AFオンボタン116の機能割り当て設定画面700において、ユーザは十字キー108を操作して、カーソル701を項目721~727のいずれかに移動して、選択中の項目を変更することが可能である。項目721~727は、それぞれ、AFON1~AFON7に対応しており、AFON1~AFON7は、AFオンボタン116の半押しおよび全押しに対して割り当てられる機能の組み合わせがそれぞれ図7Bのように予め決められている。ただし、図7Bにおいて「ユーザ設定」となっているAFON1のAFオンボタン半押し、AFON2のAFオンボタン全押しについては、デフォルト設定として「測光・AF開始」が設定されているが、ユーザ選択により割り当てる機能を変更可能としている。ユーザは、AFON1~AFON7の組み合わせの中から、AFオンボタン半押しおよび全押しにそれぞれ割り当てる機能を設定できるため、2つの操作に割り当てる機能を簡単に設定することができる。
 設定内容表示領域710には、選択中の項目を設定した場合にAFオンボタン半押しに割り当てられる機能711とAFオンボタン全押しに割り当てられる機能712がそれぞれ表示される。機能711と機能712の表示は、ユーザ設定により変更可能な機能の場合は通常表示、変更不可能な機能の場合はグレーアウト表示で区別して表示される。本実施形態では変更不可な機能をグレーアウト表示にして区別して表示したが、他の方法(例えば変更可能である場合に変更可能であることを示すアイコンを追加表示する等)で区別して表示してもよい。
 図7Aでは、AFON1(項目721)がカーソル701により選択されている状態であり、AFON1は、AFオンボタン半押しが「ユーザ設定」、AFオンボタン全押しが「無効」である。そのため、項目712は、グレーアウトで「無効」と表示される。項目711は、AFオンボタン半押しに対して、ユーザが割り当てる機能を選択可能であるため、グレーアウト表示ではなく通常表示で表示される。また機能名は、ユーザ設定におけるデフォルト設定である「測光・AF開始」が表示されている。
 詳細設定アイコン702は、デジタルカメラ100のINFOボタン(不図示)を押下することにより詳細設定に進むことを示しており、詳細設定アイコン702へのタッチ操作により詳細設定に進むこともできる。INFOボタンの押下または詳細設定アイコン702へのタッチ操作がされると、選択中の項目についての詳細設定画面が表示される。詳細設定画面については、図8Aから図8Dおよび図9Aから図9Fを参照して後述する。
 OKアイコン703は、SETボタン109の押下またはOKアイコン703に対するタッチ操作により、AFオンボタン半押しおよびAFオンボタン全押しに割り当てる機能を設定することを示している。
 SETボタン109の押下またはOKアイコン703に対するタッチ操作が行われると、システム制御部201は、選択中の項目に対応する機能、つまり、設定内容表示領域710に表示されている機能を、AFオンボタン半押しおよびAFオンボタン全押しに割り当てる。
 図8Aおよび図8Bは、AFON1(項目721)の詳細設定画面を例示している。
 AFON1~AFON7の詳細設定画面には、基本的に、詳細設定対象となる項目名801、詳細設定対象となる項目が設定された場合に、AFオンボタン半押しに割り当てられる機能802及びAFオンボタン全押しに割り当てられる機能803、カーソル804、詳細設定アイコン805、戻るアイコン806が表示される。
 図8Aおよび図8Bは、AFON1の詳細設定画面であるため、項目名801には、AFON1を示すアイコンが表示される。半押しの機能802には、デフォルト設定である「測光・AF開始」機能が表示され、全押しの機能803には、「無効」が表示される。AFON1の半押し機能802は、ユーザ設定により変更可能であるため、通常表示されている。これに対して、全押しの機能803である「無効」は変更できない固定の設定のため、グレーアウト表示される。カーソル804は、半押し機能802または全押し機能803のどちらを選択中であるかを示し、十字キー108への操作、または、タッチ操作により、半押し機能802、全押し機能803の選択を変更できる。INFOボタン押下または詳細設定アイコン805をタッチした場合に、カーソル804で選択中の機能が、ユーザ設定により変更可能である場合は、図8Cの機能変更画面に遷移する。つまり、図8Aおよび図8Bのように、AFON1の場合は、図8Aのように、ユーザ設定が可能な半押し機能802を選択中にINFOボタンの押下または詳細設定アイコン805がタッチされると機能変更画面に遷移する。しかしながら、図8Bのように、ユーザ設定が不可である全押し機能803を選択中にINFOボタンが押下されても、機能変更画面に遷移しない。ユーザ設定が不可である項目が選択されている場合は、機能変更画面に遷移不可なため、図8Bのように、詳細設定アイコン805を非表示にしてもよい。また、詳細設定画面において、メニューボタン114の押下または戻るアイコン806へのタッチ操作が行われると、詳細設定画面の設定を確定して(設定対象の)、前の画面(AFオンボタン116の機能割り当て設定画面700)に戻る。詳細設定画面の設定の確定は、設定対象となる項目801について、項目801が設定された場合に、AFオンボタン半押しおよびAFオンボタン全押しに対して割り当てられる機能を、機能802、803にそれぞれ設定する。
 図8Cは、機能変更画面810を例示しており、操作部に割り当てる機能をユーザ操作により変更するための画面である。項目811は、機能変更画面810において選択された機能が設定される操作部を示しており、図8Cの例では、AFオンボタン半押しに割り当てられる機能を設定するための機能変更画面であることを示している。機能変更画面810には、割り当て可能な機能に対応する機能アイコンが表示され、現在選択中の機能アイコンに対してカーソル813が表示され、選択中の機能ついて、機能を示す文字が項目812に表示される。SETボタン109の押下またはOKアイコン815へのタッチ操作が行われると、機能変更画面810の設定が確定され、機能変更画面810において選択された機能が、設定対象の操作部811に対して設定された状態で、詳細設定画面800に表示される。機能変更画面810において表示される複数の機能のうちの一部の機能については、更に詳細設定が可能な機能がある。詳細設定が可能な機能が選択された場合は、詳細設定アイコン814が表示され、INFOボタンの押下または詳細設定アイコン814の押下により、機能詳細設定画面820が表示される。
 図8Dは、測光・AF開始機能についての機能詳細設定画面820を例示している。機能詳細設定画面820には、詳細設定対象となる機能名821、初期設定に戻すための初期設定アイコン822、設定を確定し、前の画面(機能変更画面810)に戻るための戻るアイコン823、詳細設定のための設定項目等が表示される。初期設定アイコン822のへタッチ操作により、機能詳細設定を初期設定に戻すことができる。メニューボタン114の押下または戻るアイコン823のタッチ操作が行われると、詳細設定対象となる機能821について、機能詳細設定画面820における設定が反映され、機能変更画面810に戻る(機能変更画面810の表示に切り替わる)。
 図9Aから図9Fは、AFON2~AFON7の機能変更画面を例示している。
 図9Aは、AFON2の機能変更画面を例示している。AFON2では、AFオンボタン半押しには「無効」が設定されており、AFオンボタン全押しはユーザ設定が可能であるため、最初はデフォルト値の「測光・AF開始」が表示される。そのためAFON2の機能変更画面では、AFオンボタン半押しの「無効」は変更不可のためフレーアウトで表示され、AFオンボタン全押しはユーザ設定可能なため通常表示される。
 図9Bは、AFON3の機能変更画面を例示している。AFON3では、AFオンボタン半押しには「測光・AF開始」が設定されており、AFオンボタン全押しには「視線でAFフレーム移動」が設定されている。そのため、AFON3の機能変更画面では、AFオンボタン半押しおよびAFオンボタン全押しのいずれについても、ユーザ設定不可のため両方ともグレーアウトで表示される。
 図9Cは、AFON4の機能変更画面を例示している。AFON4では、AFオンボタン半押しには「測光・AF開始」が設定されており、AFオンボタン全押しには「瞳AF」が設定されている。そのため、AFON4の機能変更画面では、AFオンボタン半押しおよびAFオンボタン全押しのいずれについても、ユーザ設定不可のため両方ともグレーアウトで表示される。
 図9Dは、AFON5の機能変更画面を例示している。AFON5では、AFオンボタン半押しには「測光・AF開始」が設定されており、AFオンボタン全押しには「AF停止」が設定されている。そのため、AFON5の機能変更画面では、AFオンボタン半押しおよびAFオンボタン全押しのいずれについても、ユーザ設定不可のため両方ともグレーアウトで表示される。
 図9Eは、AFON6の機能変更画面を例示している。AFON6では、AFオンボタン半押しには「測光・AF開始」が設定されており、AFオンボタン全押しには「被写体選択変更」が設定されている。そのため、AFON6の機能変更画面では、AFオンボタン半押しおよびAFオンボタン全押しのいずれについても、ユーザ設定不可のため両方ともグレーアウトで表示される。
 図9Fは、AFON7の機能変更画面を例示している。AFON7では、AFオンボタン半押しには「測光・AF開始」が設定されており、AFオンボタン全押しには「ONE SHOT/SERVO切り替え」が設定されている。そのため、AFON7の機能変更画面では、AFオンボタン半押しおよびAFオンボタン全押しのいずれについても、ユーザ設定不可のため両方ともグレーアウトで表示される。
 また、図9Bから図9FのようにAFON3~AFON7は、AFオンボタン半押しには「測光・AF開始」が設定されており変更不可である。しかしながら、「測光・AF開始」は詳細設定が可能な機能である。そのため、AFON3~7の機能変更画面に詳細設定アイコンを表示し、詳細設定アイコンへのタッチ操作またはINFOボタンへの押下により、図8Dのような機能詳細設定画面820を表示して機能の詳細設定ができるようにしている。
 図10、図11Aおよび図11Bは、第2の実施形態のデジタルカメラ100の制御処理を示すフローチャートである。
 図10,図11Aおよび図11Bの処理は、システム制御部201が、不揮発性メモリ256に格納されたプログラムをシステムメモリ252に展開して実行し、各構成要素を制御することにより実現される。なお、図10、図11Aおよび図11Bの処理は、撮影待機状態(撮影モードにおいてシャッターボタン102が全押しされたことによる撮影記録処理を実行していない状態)でのAFオンボタン116の操作に関する処理のみを抜粋している。また、図10、図11Aおよび図11Bの処理は、第1の実施形態の制御処理(図3A、図3B、図4Aおよび図4B)と一部共通するため、同じ処理には同じ番号を付して説明を省略する。
 まず、デジタルカメラ100が起動した直後、または、静止画撮影モードや動画記録モードに移行し、ライブビュー画像の表示が開始された直後に制御処理が開始され、第1の実施形態と同様にステップS301からS306の処理が実行される。
 ステップS307において、システム制御部201は、AFオンボタン116が半押しされていると判定した場合は処理をステップS1001に進め、AFオンボタン116が半押しされていないと判定した場合は第1の実施形態と同様に処理をステップS301に戻す。
 ステップS1001では、システム制御部201は、AFオンボタン116の機能割り当て設定画面700によって、AFオンボタン半押しに割り当てられた機能が「測光・AF開始」であるか否かを判定する。システム制御部201はAFオンボタン半押しに割り当てられた機能が「測光・AF開始」と判定した場合は処理をステップS308に進める。システム制御部201はAFオンボタン半押しに割り当てられた機能が「測光・AF開始」ではないと判定した場合は、処理をステップS1002に進める。
 ステップS308からS311では、システム制御部201は、第1の実施形態の図3Aと同様のステップS308からS311の処理を実行する。
 ステップS1002では、システム制御部201は、AFオンボタン116の機能割り当て設定画面700によって、AFオンボタン半押しに割り当てられた機能が「無効」であるか否かを判定する。ここで、AFオンボタン半押しに割り当てられた機能が「無効」である場合とは、AFオンボタン半押しに応じて実行する機能が割り当てられていないことを意味する。システム制御部201は、AFオンボタン半押しに割り当てられた機能が「無効」と判定した場合、つまり、機能が割り当てられていない、と判定した場合は処理をステップS311に進め、AFオンボタン116の半押し操作に対して処理を実行しないように制御する。システム制御部201は、AFオンボタン半押しに割り当てられた機能が「無効」ではないと判定した場合は処理をステップS1003に進める。
 ステップS1003では、システム制御部201は、AFオンボタン半押しに割り当てられた機能を実行し、処理をステップS311に進める。
 ステップS311では、システム制御部201は、AFオンボタン116の半押しが解除されたか否かを判定する。システム制御部201は、AFオンボタン116の半押しが解除されたと判定した場合は処理をステップS301に戻す。システム制御部201は、AFオンボタン116の半押しが解除されていないと判定した場合は処理をステップS312に進める。
 ステップS312では、システム制御部201は、AFオンボタン116が全押しされたか否かを判定する。システム制御部201は、AFオンボタン116が全押しされたと判定した場合は処理をステップS1101に進める。システム制御部201は、AFオンボタン116が全押しされていないと判定した場合は処理をステップS311に戻す。
 ステップS1101では、システム制御部201は、AFオンボタン116の機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が「視線でAFフレーム移動」であるか否かを判定する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「視線でAFフレーム移動」であると判定した場合は処理をステップS314に進める。
 ステップS314からS315では、システム制御部201は、第1の実施形態の図3Bと同様のステップS314からS315の処理を実行する。
 ステップS316では、システム制御部201は、ステップS315で決定したAF位置の被写体に対して、AE処理およびAF処理を実行し、AF位置の被写体にAF枠を表示する。システム制御部201は、ステップS1101においてAFオンボタン全押しに割り当てられた機能が「視線でAFフレーム移動」ではないと判定した場合は処理をステップS1102に進める。
 ステップS1102では、システム制御部201は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が「瞳AF」であるか否かを判定する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「瞳AF」であると判定した場合は処理をステップS402に進める。
 ステップS402からS406では、システム制御部201は、第1の実施形態の図4Aと同様のステップS402からS406の処理を実行し、その後、処理をステップSS316に進める。ステップS316では、システム制御部201は、ステップS404またはS406で決定したAF位置の被写体に対して、AE処理およびAF処理を実行し、AF位置の被写体にAF枠を表示し、処理をステップS317に進める。システム制御部201は、ステップS1102においてAFオンボタン全押しに割り当てられた機能が「瞳AF」ではないと判定した場合は処理をステップS1103に進める。
 ステップS1103では、システム制御部201は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が、「被写体選択変更」であるか否かを判定する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「被写体選択変更」であると判定した場合は処理をステップS1104に進める。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「被写体選択変更」ではないと判定した場合は処理をステップS1105に進める。
 ステップS1104では、システム制御部201は、画像処理部224によるライブビュー画像に対する被写体検出結果に基づいて、現在AF位置として設定されている被写体とは異なる被写体を新たなAF位置として決定する。つまり、AF対象となる被写体を、現在選択されている被写体から他の被写体に変更する。被写体検出処理により1つの被写体しか検出できていない場合はAF対象の被写体を変更しないようにしてもよい。また、2以上の被写体が検出されている場合は、AFオンボタンが全押しされる度に、検出されている被写体を、被写体の大きさ、被写体の位置、優先度等に基づく順で、被写体の選択が変更されるようにする。そして、システム制御部201は、処理をステップS316に進め、S1104で決定されたAF位置の被写体(AF対象の被写体)に対して、AE処理およびAF処理を実行し、AF位置の被写体にAF枠を表示する。その後、システム制御部201は、処理をステップS317に進める。
 ステップS1105では、システム制御部201は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が「ONE SHOT/SERVO切り替え」であるか否かを判定する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「ONE SHOT/SERVO切り替え」であると判定した場合は処理をステップS1106に進める。システム制御部201は、AFオンボタン押しに割り当てられた機能が「ONE SHOT/SERVO切り替え」ではないと判定した場合は処理をステップS1107に進める。
 ステップS1106では、システム制御部201は、現在のAF動作設定がワンショットAFの場合はサーボAFに変更し、現在のAF動作設定がサーボAFの場合はワンショットAFに切り替える。そして、システム制御部201は、処理をステップS316に進め、ステップS1106で切り替えたAF動作設定で、AE処理及びAF処理を実行する。
 ステップS1107では、システム制御部201は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が「AF停止」であるか否かを判定する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「AF停止」であると判定した場合は処理をステップS1108に進める。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「AF停止」ではないと判定した場合は処理をステップS1109に進める。
 ステップS1108では、システム制御部201は、AF動作設定がサーボAFの場合は、サーボAF処理を一時停止する。ワンショットAFの場合は、AF処理が継続して実行されていないため、本処理を実行しない。システム制御部201は、AFオンボタンが全押しされている間、ステップS1107のサーボAF処理を一時停止し、AFオンボタンへの操作が解除されたことに応じて、サーボAF処理を再開する。あるいは、システム制御部201は、AFオンボタン半押しに「測光・AF開始」の機能が割り当てられている場合は、AFオンボタン116の全押しの解除に応じて、AFオンボタン116が半押しされていたとしても、サーボAF処理を再開する。そして、AFオンボタン半押しに他の機能が割り当てられている場合は、AFオンボタン116の全押しおよび半押しの両方が解除されたことに応じて、サーボAF処理を再開するようにしてもよい。
 ステップS1109では、システム制御部201は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能が「無効」であるか否かを判定する。ここで、AFオンボタン全押しに割り当てられた機能が「無効」である場合とは、AFオンボタン全押しに応じて実行する機能が割り当てられていないことを意味する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「無効」であると判定した場合、つまり、機能が割り当てられていない、と判定した場合は処理をステップS317に進め、システム制御部201は、AFオンボタンの全押しに対して処理を実行しないように制御する。システム制御部201は、AFオンボタン全押しに割り当てられた機能が「無効」ではないと判定した場合は処理をステップS1110に進める。
 ステップS1110では、システム制御部は、AFオンボタンの機能割り当て設定画面700によって、AFオンボタン全押しに割り当てられた機能を実行し、処理をステップS317に進める。
 ステップS317では、システム制御部201は、AFオンボタン116の全押しが解除されたか否かを判定する。システム制御部201は、AFオンボタン116の全押しが解除されたと判定されるまで待機し、AFオンボタン116が解除されたと判定した場合は処理をステップS318に進める。
 ステップS318では、システム制御部201は、デジタルカメラ100の動作モードが変更されるなどにより撮影動作が終了されたか否かを判定し、撮影動作が終了されたと判定した場合は処理を終了し、撮影動作が終了されていないと判定した場合は処理をステップS311に戻す。
 以上のように、第2の実施形態によれば、AFオンボタン116の機能割り当て設定画面700によって、AFオンボタン116の半押し操作および全押し操作に対してそれぞれ機能を割り当てることができる。AFオンボタン116に割り当てる機能としては、図7Bのように、予め決められた組み合わせで設定可能である。AFオンボタン116は、基本的には、「測光・AF開始」の指示を行うために設けられた操作部であるため、AFON3~AFON7の各設定において、半押し操作には「測光・AF開始」機能が設定されている。そして、半押し操作に「測光・AF開始」機能が設定されているAFON3~AFON7については、全押し操作に対しては、半押し操作により実行される「測光・AF開始」機能に関連する処理を割り当てた方が操作性が向上するため、全押し操作にはAF処理に関する機能が設定されている。また、「測光・AF開始」機能を実行した後、AF対象となる被写体を変更する操作を行うことがよくあるため、AFON3、4,6には、全押し操作に、AF対象となる被写体を変更するための機能が割り当てられている。
 AFオンボタン116の半押し操作に「測光・AF開始」機能が設定され、全押し操作に「視線でAFフレーム移動」が設定された場合、つまり、AFオンボタン116の機能割り当て設定画面700においてAFON3が設定された場合は、視線ポインタの表示について、以下の処理を行う。AFON3が設定された場合、システム制御部201は、AFONボタン116の押下している間、つまり、AF処理、AE処理(測光処理)を行っている間、視線ポインタの表示設定画面における設定に関わらず、視線ポインタを表示するように制御する。AFオンボタン116半押し操作に「測光・AF開始」機能が設定され、視線ポインタの表示設定として、「しない」、「撮影待機時のみ」が設定されている場合は、通常であれば、AFONボタン116が押下されている間は、視線ポインタは表示されない。しかしながら、AFオンボタン116の全押し操作に「視線でAFフレーム移動」が設定されている場合は、AFオンボタン116の全押し操作前に視線ポインタを表示しないと、ユーザは、全押しによりどの被写体にフレーム枠が移動するのかを事前に把握できなくなってしまう。そこで、AFオンボタン116の全押し操作に「視線でAFフレーム移動」が設定されている場合は、システム制御部201は、AFONボタン116の半押し操作時に視線ポインタを表示しない設定になっていたとしても、AFONボタン116の半押し操作に応じて、視線ポインタを表示させるように制御する。なお、AFオンボタン116半押し操作時にのみ視線ポインタを表示するようにしてもよいし、AFオンボタン116半押し半押し及び全押し操作時に視線ポインタを表示するようにしてもよい。
 第2の実施形態では、AFON5のAFオンボタン116の全押しに「AF停止」を設定したが、「全域トラッキングの開始/停止」にしてもよい。この場合、AFオンボタンの機能割り当て設定画面700でAFON5を設定し、AFオンボタン116が全押しされた場合、以下の動作を行う。AFオンボタン116の全押し操作に割り当てられた機能が「全域トラッキングの開始/停止」である場合、システム制御部201は、被写体の顔に対するAF処理(顔AF機能)を有効であるか否かを判定する。被写体の顔に対するAF処理(顔AF機能)が有効である場合、固定枠に対するAF処理を有効にするよう変更して図11BのステップS316以降の処理に進み、そうでない場合は、被写体の顔に対するAF処理(顔AF機能)を有効にして図11BのステップS316以降の処理に進む。なお、AFオンボタン116の全押しが繰り返される(AFオンボタン116の全押しが解除された後再び全押しが実行される)度に、被写体の顔に対するAF処理(顔AF機能)を有効にするか、固定枠に対するAF処理を有効にするかを交互に切り替えられる。そのため、AF位置を被写体の顔にするか固定枠の位置にするかを切り替えつつAF処理を実行することができる。なお、瞳AF機能が有効である場合、AFオンボタン116の全押しが繰り返される度に、AF位置を被写体の瞳にするか固定枠の位置にするかを切り替えるようにしてもよい。このように、ユーザは、AFオンボタン116を半押しまたは全押しすることにより、ライブビュー画像内においてAF(オートフォーカス)処理およびAE(自動露出)処理を実行する機能と、AF対象を被写体の顔、もしくは瞳にするか固定枠の位置にするかを切り替える機能とを使い分けることができる。AFオンボタン116の全押しに「全域トラッキングの開始/停止」を割り当てることにより、意図しない被写体の顔にAFされた場合に、固定枠の位置へAF対象を切り替えつつ本来AFしたい位置にAF対象を変更するといった操作を、少ない操作手番で行うことができる。
 さらに、AFON5のAFオンボタン116の全押しに「拡大/縮小」を設定できるようにしてもよい。この場合、AFオンボタン116の機能割り当て設定画面700でAFON5を設定し、AFオンボタン116が全押しされた場合、以下の動作を行う。AFオンボタン116の全押し操作に割り当てられた機能が「拡大/縮小」である場合、システム制御部201は、AE処理結果・AF処理結果を維持したまま被写体の顔、瞳、または固定枠の位置(以降、拡大位置)に対してライブビュー画像を拡大し、図11BのステップS317以降の処理に進む。なお、「拡大/縮小」は、AF動作がワンショットAFである場合に有効である。AF動作がサーボAFである場合は、拡大位置が常に移動し続けるため、何もせずに図11BのステップS317以降の処理に進む。AFオンボタン116の全押しが繰り返される(AFオンボタン116の全押しが解除された後再び全押しが実行される)度に、ライブビュー画像内の拡大位置に対してライブビュー画像の拡大を有効/無効(等倍率)を切り替えられるようにしてもよい。また、AFオンボタン116の全押しが繰り返される(AFオンボタン116の全押しが解除された後再び全押しが実行される)度に、ライブビュー画像内の拡大位置に対して、拡大倍率を5倍、10倍、等倍の順に変更して表示するようにしてもよい。第2の実施形態では、拡大倍率を5倍、10倍の値にしたが、変更できる倍率はこれに限定されない。また、拡大倍率を変更する順番も自由に変更できるようにしてもよい。このように、AFオンボタン116を半押しまたは全押しすることにより、ライブビュー画像内においてAF(オートフォーカス)処理およびAE(自動露出)処理を実行する機能と、ライブビュー画像内の拡大位置に対して拡大/縮小表示する機能とを使い分けることができる。AFオンボタン116の全押しに「拡大/縮小」を割り当てることにより、ユーザがAFオンボタン116の全押しをすることでライブビュー画像を拡大表示し、AFのピントが合っているかを確認することを少ない操作手番で行うことができる。
 上述の実施形態においては、機能割り当て設定画面700により、AFオンボタン116の半押し、全押し操作に対して割り当てる機能として、AFON1~AFON7のいずれか1つを設定可能とした。しかしながら、撮影モードと再生モードとで、それぞれ、AFオンボタン116の半押し、全押し操作に対して異なる機能を設定可能としてもよい。また、撮影モードと再生モードとで、機能割り当て設定画面700において設定可能な項目(AFON1~AFON7)それぞれの項目に設定される機能を相違させてもよい。また、撮影モードと再生モードとで、機能割り当て設定画面700において設定可能な項目(図7AではAFON1~AFON7)の数を変えてもよい。
 [他の実施形態]
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 また、上述した実施形態を組み合わせて実現してもよい。
 発明は上記実施形態に制限されるものではなく、発明の精神および範囲から離脱することなく、様々な変更および変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
 本願は、2022年11月1日提出の日本国特許出願特願2022-175677並びに2023年10月12日提出の日本国特許出願特願2023-176879を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
100…デジタルカメラ、101…背面表示部、116…AFオンボタン、201…システム制御部、222…撮像部、224…画像処理部、260…視線検出部

Claims (20)

  1.  撮像手段と、
     前記撮像手段が撮像した画像内の被写体に対して所定の処理を行う処理手段と、
     撮影指示を行うための第1の操作部と、
     前記第1の操作部とは異なる第2の操作部と、
     前記第2の操作部に対する第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第1の押下操作に続く第2の押下操作に応じて前記所定の処理の対象を切り替えるように制御する制御手段と、を有することを特徴とする撮像装置。
  2.  ユーザの視線位置を検出する視線検出手段を有し、
     前記制御手段は、前記第2の操作部に対する前記第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第2の押下操作に応じて前記所定の処理の対象をユーザの視線位置に応じた被写体に切り替えるように制御することを特徴とする請求項1に記載の撮像装置。
  3.  前記制御手段は、前記第2の操作部に対する前記第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第2の押下操作に応じて前記所定の処理の対象を前記第1の被写体のうちの顔全体とするか瞳とするかを切り替えるように制御することを特徴とする請求項1に記載の撮像装置。
  4.  前記制御手段は、前記第2の操作部に対する前記第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第2の押下操作に応じて前記所定の処理の対象を、前記第1の被写体の顔全体、右目、左目のいずれにするかを切り替えるように制御することを特徴とする請求項3に記載の撮像装置。
  5.  前記制御手段は、前記第2の操作部に対する前記第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第2の押下操作に応じて前記所定の処理の対象を、前記第1の被写体の右目とするか左目とするかを切り替えるように制御することを特徴とする請求項1に記載の撮像装置。
  6.  前記第2の操作部に対する前記第1の押下操作は、前記第2の操作部に対する半押し操作であり、前記第2の操作部に対する前記第2の押下操作は、前記第2の操作部に対する全押し操作であることを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記撮像手段が撮像した画像から被写体を検出する被写体検出手段を有し、
     前記第1の被写体は、前記被写体検出手段により決定された被写体またはユーザにより指定された被写体であることを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  8.  前記視線検出手段による視線の検出に基づく視線入力機能を有効または無効に設定する手段を有し、
     前記制御手段は、前記視線入力機能が無効に設定されているときに、前記第2の操作部に対する前記第2の押下操作に応じて、ユーザの視線位置に応じた前記所定の処理の対象の被写体の切り替えを行わずに、前記第1の被写体の瞳に対して前記所定の処理を実行することを特徴とする請求項2に記載の撮像装置。
  9.  前記視線入力機能が無効に設定されているときに、前記第2の操作部に対する前記第1の押下操作と前記第2の押下操作が繰り返される場合、前記制御手段は、前記第2の操作部に対して前記第2の押下操作が行われるごとに前記所定の処理の対象を前記第1の被写体の瞳と前記第1の被写体の顔のいずれかに切り替えることを特徴とする請求項8に記載の撮像装置。
  10.  前記視線検出手段による視線の検出に基づく視線入力機能を有効または無効に設定する手段を有し、
     前記制御手段は、前記視線入力機能が無効に設定されているときに前記第2の操作部に対して前記第2の押下操作が行われた場合には、前記第1の被写体とは異なる被写体であってユーザの視線位置に関わらずに決定される被写体に対して前記所定の処理を実行することを特徴とする請求項2に記載の撮像装置。
  11.  前記第2の操作部に対する前記第1の押下操作と前記第2の押下操作が繰り返される場合、前記制御手段は、前記第2の操作部に対して前記第2の押下操作が行われるごとに前記所定の処理の対象の被写体を切り替えることを特徴とする請求項10に記載の撮像装置。
  12.  前記制御手段は、前記第2の操作部に対して前記第2の押下操作が行われた後、前記第1の押下操作が行われた状態に戻った場合、前記第2の押下操作に応じて切り替えられた前記所定の処理の対象の被写体に対して、前記所定の処理を実行することを特徴とする請求項1から11のいずれか1項に記載の撮像装置。
  13.  前記制御手段は、前記第1の操作部に対する前記第1の押下操作に応じて、画像内の被写体に対して前記所定の処理を実行し、前記第1の操作部に対する前記第2の押下操作に応じて前記撮像手段により画像を撮像して記録する記録処理を実行するように制御することを特徴とする請求項1から12のいずれか1項に記載の撮像装置。
  14.  前記第2の操作部に対して、前記第2の操作部に対する前記第1の押下操作に応じて実行する第1の機能、および、前記第2の操作部にする前記第2の押下操作に応じて実行する第2の機能を、ユーザ操作に応じて割り当てる割り当て手段を有することを特徴とする請求項1から13のいずれか1項に記載の撮像装置。
  15.  前記撮像装置の操作部に対する操作に応じて実行する機能をユーザ操作に応じて割り当てる割り当て手段を有し、
     前記制御手段は、前記第1の操作部に対する前記第1の押下操作に応じて、画像内の被写体に対して前記所定の処理を実行し、前記第1の操作部に対する前記第2の押下操作に応じて前記撮像手段により画像を撮像して記録する記録処理を実行するように制御し、
     前記割り当て手段は、前記第2の操作部に対する前記第2の押下操作に応じて実行する機能をユーザ操作に応じて割り当て可能とし、前記第1の操作部に対する前記第2の押下操作に応じて実行する機能のユーザ操作に応じた割り当ては不可とすることを特徴とする請求項1から13のいずれか1項に記載の撮像装置。
  16.  前記制御手段は、前記第2の操作部が操作されていないときは、前記所定の処理を実行せず、前記第2の操作部に対する前記第1の押下操作に応じて前記所定の処理を実行するように制御することを特徴とする請求項1から15のいずれか1項に記載の撮像装置。
  17.  前記所定の処理は、前記画像内の被写体に対して測光を行い、フォーカスを合わせる処理であることを特徴とする請求項1から16のいずれか1項に記載の撮像装置。
  18.  前記第1の操作部は、シャッターボタンであることを特徴とする請求項1から17のいずれか1項に記載の撮像装置。
  19.  撮像装置の制御方法であって、
     前記撮像装置は、
     撮像手段と、
     前記撮像手段が撮像した画像内の被写体に対して所定の処理を行う処理手段と、
     撮影指示を行うための第1の操作部と、
     前記第1の操作部とは異なる第2の操作部と、を有し、
     前記制御方法は、
     前記第2の操作部に対する第1の押下操作に応じて画像内の第1の被写体に対して前記所定の処理を実行し、前記第2の操作部に対する前記第1の押下操作に続く第2の押下操作に応じて前記所定の処理の対象を切り替えるように制御するステップを有することを特徴とする制御方法。
  20.  コンピュータを、請求項1から18のいずれか1項に記載された撮像装置として機能させるためのプログラム。
PCT/JP2023/038676 2022-11-01 2023-10-26 撮像装置、制御方法およびプログラム WO2024095888A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022175677 2022-11-01
JP2022-175677 2022-11-01
JP2023176879A JP2024066463A (ja) 2022-11-01 2023-10-12 撮像装置、制御方法およびプログラム
JP2023-176879 2023-10-12

Publications (1)

Publication Number Publication Date
WO2024095888A1 true WO2024095888A1 (ja) 2024-05-10

Family

ID=90930369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/038676 WO2024095888A1 (ja) 2022-11-01 2023-10-26 撮像装置、制御方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2024095888A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014017665A (ja) * 2012-07-09 2014-01-30 Canon Inc 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP2020181513A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器及びその制御方法
JP2020181450A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記録媒体
JP2021067853A (ja) * 2019-10-24 2021-04-30 キヤノン株式会社 撮像装置およびその制御方法
JP2021083041A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 撮像制御装置、撮像制御装置の制御方法、プログラム、記憶媒体
JP2021087068A (ja) * 2019-11-26 2021-06-03 キヤノン株式会社 電子機器及び電子機器の制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014017665A (ja) * 2012-07-09 2014-01-30 Canon Inc 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP2020181513A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器及びその制御方法
JP2020181450A (ja) * 2019-04-26 2020-11-05 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記録媒体
JP2021067853A (ja) * 2019-10-24 2021-04-30 キヤノン株式会社 撮像装置およびその制御方法
JP2021083041A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 撮像制御装置、撮像制御装置の制御方法、プログラム、記憶媒体
JP2021087068A (ja) * 2019-11-26 2021-06-03 キヤノン株式会社 電子機器及び電子機器の制御方法

Similar Documents

Publication Publication Date Title
CN107037920B (zh) 电子设备及其控制方法
JP7321786B2 (ja) 電子機器およびその制御方法
WO2018021165A4 (ja) 電子機器およびその制御方法
WO2020255675A1 (ja) 電子機器およびその制御方法
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
US20220321770A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7301615B2 (ja) 電子機器およびその制御方法
JP7346375B2 (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
JP7465129B2 (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
JP7492349B2 (ja) 撮像装置およびその制御方法、プログラム、並びに記憶媒体
JP7490372B2 (ja) 撮像制御装置及びその制御方法
CN112040095B (zh) 电子装置、电子装置的控制方法及存储介质
US11442244B2 (en) Imaging device
JP7475187B2 (ja) 表示制御装置および方法、プログラム、記憶媒体
WO2024095888A1 (ja) 撮像装置、制御方法およびプログラム
JP2021092958A (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
JP7451255B2 (ja) 電子機器及びその制御方法
JP2021097356A (ja) 撮像制御装置
JP2024066463A (ja) 撮像装置、制御方法およびプログラム
JP7277306B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
WO2023007904A1 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US20200404158A1 (en) Electronic device
JP2021018634A (ja) 電子機器およびその制御方法