WO2022158280A1 - 撮影装置、撮影制御方法、及び、プログラム - Google Patents

撮影装置、撮影制御方法、及び、プログラム Download PDF

Info

Publication number
WO2022158280A1
WO2022158280A1 PCT/JP2021/048960 JP2021048960W WO2022158280A1 WO 2022158280 A1 WO2022158280 A1 WO 2022158280A1 JP 2021048960 W JP2021048960 W JP 2021048960W WO 2022158280 A1 WO2022158280 A1 WO 2022158280A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
start position
focus
function
imaging device
Prior art date
Application number
PCT/JP2021/048960
Other languages
English (en)
French (fr)
Inventor
高弘 佐藤
裕 君島
洋平 高田
孝之 細川
晃 福田
英二 中村
輝俊 中川
誠 倉橋
明子 吉本
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202180091027.4A priority Critical patent/CN116803093A/zh
Priority to US18/259,448 priority patent/US20240064402A1/en
Priority to JP2022576586A priority patent/JPWO2022158280A1/ja
Priority to EP21921381.6A priority patent/EP4283972A1/en
Publication of WO2022158280A1 publication Critical patent/WO2022158280A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • the present technology relates to a photographing device, a photographing control method, and a program, and particularly relates to a photographing device, a photographing control method, and a program that track a subject.
  • an imaging device stores a tracking start position by moving a tracking start frame before tracking, and starts tracking from the tracking start position that was stored before tracking after the end of tracking. For example, if the tracking target is lost due to being hidden behind another subject during tracking, tracking is resumed from the tracking start position stored before tracking (see, for example, Patent Document 1).
  • This technology was developed in view of this situation, and enables tracking to be resumed from an appropriate position after tracking ends.
  • An imaging device includes a focus control unit that tracks a tracking target and controls a tracking function that keeps the tracking target in focus, and moves a tracking start position during tracking based on a predetermined condition. and a setting unit for causing the
  • a shooting control method tracks a tracking target, controls a tracking function that keeps the tracking target in focus, and moves a tracking start position during tracking based on a predetermined condition.
  • a program tracks a tracking target, controls a tracking function that keeps the tracking target in focus, and causes a computer to perform processing for moving a tracking start position during tracking based on a predetermined condition. let it run.
  • a tracking target is tracked, a tracking function that keeps the tracking target in focus is controlled, and a tracking start position is moved during tracking based on a predetermined condition.
  • FIG. 4 is a diagram showing an example of zones of a focus area;
  • FIG. 4 is a diagram for explaining a first example of a method of moving a tracking start position;
  • FIG. 10 is a diagram for explaining a second example of a method of moving the tracking start position;
  • FIG. 11 is a diagram for explaining a third example of a method of moving the tracking start position; 4 is a flowchart for explaining focus standard processing;
  • FIG. 10 is a diagram showing a first example of a screen for setting the OFF while pressing function;
  • FIG. 10 is a diagram showing a second example of a setting screen for the OFF while pressing function;
  • FIG. 10 is a diagram for explaining a first example of a method of setting a tracking position when tracking fails;
  • FIG. 11 is a diagram for explaining a second example of a method of setting a tracking position when tracking fails;
  • FIG. 11 is a diagram for explaining a third example of a method of setting a tracking position when tracking fails;
  • Embodiment >> An embodiment of the present technology will be described with reference to FIGS. 1 to 14. FIG.
  • FIG. 1 is a block diagram showing an embodiment of an imaging device 1 to which the present technology is applied.
  • the imaging device 1 includes a processor 11, an optical unit 12, an image sensor 13, an operation unit 14, a sensing unit 15, a display unit 16, a storage unit 17, a communication unit 18, an external interface (I/F) 19, and a drive 20. Prepare.
  • the processor 11 through drive 20 are connected to a bus and perform necessary communication with each other.
  • the processor 11 includes processors such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).
  • the processor 11 performs various processes by executing programs installed in the storage unit 17 .
  • the optical unit 12 includes an optical element such as a lens, and forms an image of incident light from a subject on the light receiving surface of the imaging element 13 .
  • the imaging element 13 is configured by, for example, a CMOS image sensor or the like.
  • the imaging device 13 captures the image of the subject formed by the optical unit 12, and outputs the obtained image data onto the bus.
  • the operation unit 14 is composed of physical keys (including a keyboard), a mouse, a touch panel, and the like.
  • the operation unit 14 outputs an operation signal corresponding to the user's operation onto the bus.
  • the sensing unit 15 includes various sensors, and outputs sensor data output from each sensor onto the bus.
  • the sensing unit 15 includes, for example, sensors for detecting movement of the imaging device 1, such as an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, a GNSS (Global Navigation Satellite System) receiver, and the like.
  • sensors for detecting movement of the imaging device 1 such as an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, a GNSS (Global Navigation Satellite System) receiver, and the like.
  • GNSS Global Navigation Satellite System
  • the display unit 16 is composed of, for example, a touch panel, etc., and displays an image according to data supplied from the bus.
  • the touch panel as the operation unit 14 is made of a transparent member and can be configured integrally with the display unit 16 .
  • the user can input information by operating icons, buttons, and the like displayed on the display unit 16 .
  • the storage unit 17 has, for example, a volatile memory, and temporarily stores programs executed by the processor 11 and necessary data.
  • the storage unit 17 includes, for example, a hard disk or nonvolatile memory, and stores programs executed by the processor 11 and necessary data.
  • the communication unit 18 includes a communication circuit, an antenna, etc., and communicates with various external devices.
  • the external I/F 19 is an interface for exchanging data with various external devices.
  • the drive 20 is capable of attaching and detaching a removable medium 20A such as a memory card, and drives the removable medium 20A attached there.
  • a removable medium 20A such as a memory card
  • the program executed by the processor 11 can be recorded in the storage unit 17 in advance.
  • the program can be stored (recorded) in the removable medium 20A, provided as so-called package software, and installed in the imaging device 1 from the removable medium 20A.
  • the program can be downloaded from a server (not shown) or the like via the communication unit 18 and installed in the imaging device 1 .
  • the processor 11 executes a program installed in the imaging device 1 to perform an image processing unit 31, a recognition unit 32, a setting unit 33, a focus control unit 34, an imaging control unit 35, a display control unit 36, and communication control. Part 37 is realized.
  • the image processing unit 31 performs various types of image processing (for example, noise removal, etc.) on the image data obtained by the imaging device 13 .
  • the image processing unit 31 outputs image data after image processing onto the bus.
  • the recognition unit 32 performs recognition processing of various subjects in the image based on the image data after image processing by the image processing unit 31 .
  • the recognition unit 32 recognizes the type, position, movement, etc. of the subject in the image.
  • the setting unit 33 performs various setting processes for the photographing device 1 based on the operation signal from the operation unit 14 and the result of subject recognition processing by the recognition unit 32 .
  • the setting unit 33 performs processing for setting a tracking start position, which is a reference position for starting tracking, when executing a tracking function that tracks an in-focus subject (tracking target) and keeps the focus on. .
  • the focus control unit 34 controls the focus of the photographing device 1 by controlling the optical unit 12 based on the setting state of the photographing device 1 by the setting unit 33, the operation signal from the operation unit 14, and the like.
  • the focus control unit 34 controls AF (Auto Focus) for automatically focusing on a subject within the angle of view and the tracking function described above.
  • the photographing control unit 35 controls the photographing of the subject by controlling the optical unit 12 and the image sensor 13 based on the setting state of the photographing apparatus 1 by the setting unit 33, the operation signal from the operation unit 14, and the like. .
  • the display control unit 36 controls the display of the display unit 16.
  • the display control unit 36 can display a through image based on image data obtained by the imaging device 13 and subjected to image processing by the image processing unit 31, an image based on image data stored in the storage unit 17 or the removable medium 20A, and a , and controls the display by the display unit 16 of various setting screens and the like.
  • the communication control unit 37 controls communication by the communication unit 18.
  • FIG. 2 is a perspective view of the photographing device 1 as seen from the rear.
  • FIG. 3 is an enlarged view of the multi-selector 54 of the photographing device 1.
  • FIG. 4A and 4B are a front perspective view of the photographing apparatus 1 with the lens unit 71 attached, and a side view of the tip of the lens unit 71.
  • FIG. 4A and 4B are a front perspective view of the photographing apparatus 1 with the lens unit 71 attached, and a side view of the tip of the lens unit 71.
  • the photographing device 1 includes a monitor 51, a shutter button 52, an AF button 53, a multi-selector 54, a function button 55, a control wheel 56, an AEL button 57, and custom buttons 58 to 61.
  • the lens unit 71 has a lens button 81 .
  • the monitor 51 is arranged at the lower left of the rear surface of the photographing device 1 .
  • the monitor 51 is configured by a touch panel, for example, and constitutes a part of the operation section 14 and the display section 16 .
  • the monitor 51 displays a through image based on image data obtained by the imaging device 13 and subjected to image processing by the image processing unit 31, an image based on image data stored in the storage unit 17 or the removable medium 20A, and , to display various setting screens.
  • the user can perform various operations on the monitor 51, which is a touch panel.
  • the user can move the focus area frame to the touched position by touching the monitor 51 .
  • a focus area frame is a frame displayed on the monitor 51 to indicate the focus area.
  • the shutter button 52 is arranged at the right front corner of the top surface of the photographing device 1 .
  • the shutter button 52 can be half-pressed and fully-pressed. AF is executed by half-pressing the shutter button 52 . Further, when the tracking function is set to ON, the tracking function is executed by half-pressing the shutter button 52 . By fully pressing the shutter button 52, a still image or moving image is captured, and the obtained image data is stored in the storage unit 17 or the removable medium 20A.
  • the AF button 53 is arranged near the upper right corner of the monitor 51 on the back of the imaging device 1 . AF is executed by pressing the AF button 53 . Further, when the tracking function is set to ON, the tracking function is executed by pressing the AF button 53 .
  • the multi-selector 54 is arranged on the right side of the monitor 51 and below the AF button 53 .
  • the multi-selector 54 as shown in FIG. 3, is composed of a lever-shaped button, and can be pressed in the center or tilted up, down, left, or right.
  • the focus standard function is assigned in advance to the center of the multi-selector 54 .
  • the focus standard function is, for example, a function that allows the focus area to be moved or the like simply by pressing a button to which the focus standard is assigned. Further, for example, the user can move the focus area frame displayed on the monitor 51 by tilting the multi-selector 54 up, down, left, or right.
  • the function button 55 is arranged on the right side of the monitor 51 and below the multi-selector 54.
  • the function button 55 is used to display a function menu on the monitor 51, for example.
  • the control wheel 56 is arranged on the right side of the monitor 51 and below the function buttons 55 .
  • the control wheel 56 can be operated by pressing the center button, rotating the surrounding wheels, and pressing the top, bottom, left, and right of the wheel.
  • the control wheel 56 is used, for example, to operate various menus displayed on the monitor 51 .
  • the AEL button 57 is arranged near the upper right corner of the imaging device 1 .
  • the AEL button is used, for example, to operate an AE (exposure) lock function.
  • the custom button 58 and the custom button 59 are arranged side by side behind the shutter button 52 on the top surface of the photographing device 1 .
  • the custom button 60 is arranged near the upper left corner of the monitor 51 on the back of the imaging device 1 .
  • the custom button 61 is arranged near the lower right corner on the back of the imaging device 1 .
  • the lens button 81 (FIG. 4) is arranged slightly behind the tip of the lens unit 71 and slightly lower on the left side surface.
  • the custom buttons 58 to 61 and the lens button 81 are not set for specific uses, and can be assigned desired functions by the user.
  • the AF button 53, the center of the multi-selector 54, the function button 55, the center button of the control wheel 56, the left, right, and bottom wheels of the control wheel 56, and the AEL button 57 are assigned in advance by the user. You can assign any desired function other than the functions provided.
  • Buttons to which the user can assign desired functions are hereinafter referred to as custom keys.
  • the user can assign a focus standard function to any custom key, or a hold-while-off function as described below.
  • a custom key to which the focus standard function is assigned is hereinafter referred to as a focus standard key.
  • a custom key to which an off-while-press function is assigned is hereinafter referred to as an off-while-press key.
  • the imaging device 1 has, for example, four types of focus modes: single AF (Auto Focus), continuous AF (Auto Focus), DMF (Direct Manual Focus), and MF (Manual Focus).
  • Single AF is a mode in which the subject within the focus area is automatically focused, and the focus position is fixed when the focus is achieved.
  • Continuous AF is a mode in which focusing is continued while AF is being performed (for example, while the shutter button 52 is half-pressed or the AF button 53 is pressed).
  • the focus position moves according to the movement of the focused subject.
  • the tracking function can be used. By setting the tracking function to ON, the tracking target is tracked, and the tracking target is kept in focus. Even if the focus mode is set to continuous AF mode, if the tracking function is set to off, for example, if another subject appears closer than the focused subject, Focus shifts to another subject.
  • DMF is a mode in which the user can manually fine-tune the focus position after focusing with AF.
  • MF is a mode in which focusing is performed manually.
  • the photographing device 1 can set five types of focus areas: wide, zone, center, flexible spot, and extended flexible spot.
  • the entire display range of the monitor 51 is set as the focus area. Then, AF is performed on the imaging range corresponding to the entire display range of the monitor 51 .
  • the display range (that is, the shooting range (angle of view)) of the monitor 51 is divided into zones Z1 to Z9, which are specified by the user. zone is set as the focus area. Then, AF is executed for the photographing range corresponding to the designated zone. It should be noted that if focusing fails within the specified zone, the entire display range of the monitor 51 is set as the focus area.
  • the focus area When the focus area is set at the center, the vicinity of the center of the monitor 51 is set as the focus area. Then, AF is performed on a photographing range corresponding to the vicinity of the center of the monitor 51 as a target. It should be noted that if focusing fails near the center of the monitor 51, the entire display range of the monitor 51 is set as the focus area.
  • a focus area frame is displayed on the monitor 51 .
  • a user can move the focus area frame to a desired position within the monitor 51 .
  • the inside of the focus area frame is set as the focus area, and AF is performed on the shooting range corresponding to the focus area frame. Note that if focusing fails within the focus area frame, the entire display range of the monitor 51 is set as the focus area.
  • a focus area frame is displayed on the monitor 51 in the same way as when it is set to the flexible spot.
  • a user can move the focus area frame to a desired position within the monitor 51 .
  • the inside of the focus area frame is set as the focus area, and AF is performed on the shooting range corresponding to the focus area frame.
  • a predetermined range around the focus area frame is set as the focus area.
  • AF is performed on a shooting range corresponding to a predetermined range around the focus area frame. If focusing fails within a predetermined range around the focus area frame, the entire display range of the monitor 51 is set as the focus area.
  • the tracking function is set to ON, regardless of the focus area setting, after focusing, the focus position will move according to the movement of the tracking target.
  • the flexible spot and the extended flexible spot are collectively referred to as the spot system.
  • the face/eye priority AF function is a function that preferentially focuses on the face or eyes within the focus area.
  • the face/eye priority AF function when the face/eye priority AF function is set to ON and an eye is recognized within the focus area, the recognized eye is brought into focus. Note that when a plurality of pupils are recognized, one of the pupils is brought into focus based on a predetermined condition.
  • the recognized face is brought into focus. Note that when a plurality of faces are recognized, one of the faces is brought into focus based on a predetermined condition.
  • the tracking start position is a position where the focus is adjusted and tracking is started when tracking is started.
  • the tracking start position can be set both before and during tracking.
  • FIG. 6 to 8 show examples in which the focus area is set to a spot system. 6 to 8, a through image (not shown) is displayed on the monitor 51, and the focus area frame Fa and the focus frame Fb are superimposed on the through image.
  • FIG. 6 shows an example in which the tracking start position can be set at the tracking position where the tracking target is in focus during tracking.
  • FIG. 6A shows a display example of the monitor 51 before tracking.
  • a focus area frame Fa is displayed on the monitor 51 .
  • the user can move the focus area frame Fa to any position within the monitor 51 by using the multi-selector 54 or touching the monitor 51 .
  • the focus area frame Fa indicates the area targeted for AF execution and also indicates the tracking start position. That is, when the AF is executed, after the subject within the range of the focus area frame Fa is focused, the focused subject is set as the tracking target, and the focus position is moved according to the movement of the tracking target.
  • the setting unit 33 sets the position of the focus area frame Fa as the tracking start position.
  • FIG. 6B shows a display example of the monitor 51 at the start of tracking.
  • the subject within the focus area frame Fa is focused, and a focus frame Fb indicating the focused position is displayed.
  • the focus area frame Fa remains displayed.
  • FIG. 6C shows a display example of the monitor 51 during tracking.
  • the focus frame Fb moves according to the movement of the tracking target. Therefore, the focus frame Fb indicates the tracking position, which is the position where the focus is moved according to the movement of the tracking target. At this time, the focus area frame Fa remains at the same position without moving.
  • FIG. 6D shows a display example of the monitor 51 when the user performs a predetermined operation during tracking (for example, when the focus standard key is pressed).
  • the focus area frame Fa moves to the position of the focus frame Fb when the user performs the predetermined operation.
  • the setting unit 33 sets the position where the focus area frame Fa is displayed as the tracking start position.
  • the user can easily move the reference position (tracking start position) for resuming tracking after the end of tracking to the current tracking position.
  • the focus area when the focus area is set to a zone, when the user performs a predetermined operation during tracking (for example, when the focus standard key is pressed), the focus area is set to the zone where the center of the focus frame Fb exists. Moving. For example, in the case of FIG. 6, the center of the focus frame Fb when the user performs the predetermined operation is within zone Z4 in FIG. 5, so the focus area moves to zone Z4. Then, the setting unit 33 sets the zone Z4 as the tracking start position.
  • the user can easily move the reference position (tracking start position) for resuming tracking after the end of tracking to the zone containing the current tracking position.
  • FIG. 7 shows an example in which the tracking start position can be set to any position during tracking.
  • FIGS. 7A to 7C show examples similar to those of FIGS. 6A to 6C, and the description thereof will be omitted.
  • the user can move the focus area frame Fa to any position within the monitor 51 by using the multi-selector 54 or touching the monitor 51 during tracking.
  • the user can move the focus area frame Fa to a position different from the focus frame Fb, as shown in FIG. 7D.
  • the setting unit 33 sets the position of the focus area frame Fa as the tracking start position.
  • the user can easily move the reference position (tracking start position) for resuming tracking after the end of tracking to a specified position during tracking.
  • the setting unit 33 sets the zone specified by the user as the tracking start position.
  • the user can easily move the reference position (tracking start position) for resuming tracking after the end of tracking to the specified zone.
  • FIG. 8 shows an example in which the tracking start position automatically moves to the tracking position when tracking ends.
  • FIGS. 8A to 8C show examples similar to those of FIGS. 6A to 6C, and the description thereof will be omitted.
  • FIG. 8D shows a display example of the monitor 51 at the end of tracking.
  • the focus control unit 34 ends tracking when the tracking target is lost, focusing fails, or AF is set to OFF.
  • the focus frame Fb disappears and the focus area frame Fa moves to the position where the focus frame Fb was displayed at the end of tracking.
  • the setting unit 33 sets the position where the focus area frame Fa is displayed as the tracking start position.
  • the reference position (tracking start position) for resuming tracking after the end of tracking automatically moves to the tracking position at the end of tracking.
  • the focus area moves to the zone where the center of the focus frame Fb exists when tracking ends.
  • the center of the focus frame Fb at the end of tracking exists within zone Z4 in FIG. 5, so the focus area moves to zone Z4.
  • the setting unit 33 sets the zone Z4 as the tracking start position.
  • the reference position (tracking start position) for resuming tracking after the end of tracking automatically moves to the zone containing the tracking position at the end of tracking.
  • the function of automatically moving the tracking start position to the tracking position at the end of tracking can be set on or off in advance by the user, for example.
  • the setting unit 33 may control the movement of the tracking start position at the end of tracking based on the type of subject recognized by the recognition unit 32. Specifically, the setting unit 33 satisfies at least one condition of a case where a predetermined type of subject is recognized by the recognition unit 32 and a case where the recognition unit 32 does not recognize a predetermined type of subject. Based on this, the movement of the tracking start position at the end of tracking may be controlled.
  • the setting unit 33 moves the tracking start position to the tracking position when the recognition unit 32 recognizes a predetermined type of subject at the end of tracking.
  • the setting unit 33 moves the tracking start position to the tracking position if the recognition unit 32 does not recognize the predetermined type of subject at the end of tracking.
  • the recognition unit 32 if the recognition unit 32 has recognized the first type of subject or if the recognition unit 32 has not recognized the second type of subject at the end of tracking, the setting unit 33 sets the tracking start position to the tracking start position. to the tracking position.
  • the function of controlling the movement of the tracking start position at the end of tracking based on the type of the recognized subject can be set on or off in advance by the user, for example.
  • the types of subjects that are the conditions for this function for example, people, animals, birds, cars, etc. are assumed. Furthermore, the type of subject may be classified into detailed parts of the object (for example, human face, animal eyes, etc.).
  • the user may be able to set the type of subject that is the condition for the function. For example, the user may select the subject type that is the condition for the function from among a plurality of candidates.
  • the setting method in FIG. 6 and the setting method in FIG. 7 can be combined.
  • the user can move the tracking start position to the tracking position by pressing the focus standard key (for example, the center of the multi-selector 54) during tracking.
  • the user can move the tracking start position to a specified position by tilting the multi-selector 54 up, down, left, or right, or by touching the monitor 51 .
  • the setting method of FIG. 6 or 7 and the setting method of FIG. 8 cannot be combined. This is because even if the tracking start position is moved by the setting method shown in FIG. 6 or 7 during tracking, the tracking start position automatically moves to the tracking position when tracking ends by the setting method shown in FIG.
  • the user may be allowed to set the ON method among the setting methods shown in FIGS.
  • the user can turn on the setting method of FIG. 6 and the setting method of FIG. 7 at the same time, but the setting method of FIG. 6 or 7 and the setting method of FIG. 8 cannot be turned on at the same time.
  • the setting method of FIG. 8 becomes effective.
  • the predetermined type of subject is not recognized, at least one of the setting methods of FIGS. 6 and 7 is effective.
  • the setting method of FIG. 8 is effective. become.
  • at least one of the setting methods of FIGS. 6 and 7 becomes effective.
  • the focus area frame is displayed during tracking in the same display mode as before tracking as shown in B and C of FIG. be.
  • the number of frames displayed on the monitor 51 may increase, making it difficult to see the subject.
  • the display control unit 36 may change the display mode of the focus area frame before tracking and during tracking.
  • the display control unit 36 may change the color of the focus area frame to an inconspicuous color (eg, translucent, gray, etc.) during tracking.
  • the display control unit 36 may change the shape of the focus area frame during tracking.
  • the display control unit 36 may stop displaying the focus area frame (delete the focus area frame) during tracking based on user settings. In this case, for example, if the focus area frame (tracking start position) moves during tracking (for example, if an operation to move the focus area frame is performed, or if the focus area frame moves to the tracking position), temporarily display the focus area frame.
  • step S1 the setting unit 33 determines whether the focus area is set to a spot system or a zone. If it is determined that the focus area is set to the spot system or zone, the process proceeds to step S2.
  • step S2 the setting unit 33 determines whether tracking is in progress. If it is determined that tracking is in progress, the process proceeds to step S3.
  • step S3 the setting unit 33 moves the focus area to the tracking position.
  • the setting unit 33 moves the focus area frame to the current position of the focus frame as described above with reference to FIG.
  • the setting unit 33 moves the focus area to the zone where the center of the current focus frame exists.
  • the user can easily move the focus area, that is, the position where tracking is resumed after the end of tracking, to the tracking position by pressing the focus standard key during tracking.
  • step S2 determines whether tracking is not being performed. If it is determined in step S2 that tracking is not being performed, the process proceeds to step S4.
  • step S ⁇ b>4 the setting unit 33 moves the focus area to the center of the monitor 51 .
  • the setting unit 33 moves the focus area frame to the center of the monitor 51 when the focus area is set to the spot system.
  • the setting unit 33 moves the focus area to zone Z5 in FIG.
  • the user can move the focus area to the center of the monitor 51 by pressing the focus standard key when tracking is not being performed. Therefore, when the tracking function is set to ON, the tracking start position moves to the center of the monitor 51 .
  • step S1 determines in step S1 that the focus area is set to wide or center. If the setting unit 33 determines in step S1 that the focus area is set to wide or center, the process proceeds to step S5.
  • step S5 the setting unit 33 determines whether or not another function is assigned to the focus standard key. If it is determined that another function is assigned to the focus standard key, the process proceeds to step S6.
  • step S6 the imaging device 1 executes the assigned function. For example, if a function to temporarily turn on the tracking function is assigned, the tracking function is set to on until the focus standard key is pressed again. For example, when a function to temporarily turn on AF is assigned, AF is performed while the focus standard key is pressed.
  • step S5 determines whether other function is assigned to the focus standard key. If it is determined in step S5 that no other function is assigned to the focus standard key, the process of step S5 is skipped and the focus standard process ends.
  • the off-while-press function is a function that temporarily turns off at least one of the tracking function and face/eye priority AF function by pressing a custom key to which the off-while-press function is assigned (off-while-press key). be.
  • FIGS. 10 and 11 show examples of setting screens for the off-while-pressing function displayed on the monitor 51.
  • FIG. 10 and 11 show examples of setting screens for the off-while-pressing function displayed on the monitor 51.
  • the off-while-pressing function is classified into 6 types according to the combination of the operation method and the function to turn off.
  • the off function while pressing is the tracking off function while pressing, the tracking off function when pressing again, the tracking while pressing and face/eye priority AF off function, the tracking when pressing again and face/eye priority AF off function, the face while pressing /eye priority AF off function, and re-press face/eye priority AF off function.
  • FIG. 10 shows an example of a setting screen that displays a selectable list of 6 types of off-hold functions.
  • the tracking OFF function while pressing is set to ON. If the track-while-off function is set to ON, the tracking function is turned off while the OFF-while-press key is pressed.
  • the re-press tracking off function When “re-press tracking off” is selected, the re-press tracking off function is set to on. When the re-press tracking off function is set to on, the tracking function is turned off from when the off-while-press key is pressed until it is pressed again.
  • the tracking while pressing and face/eye priority AF off function are set to ON.
  • the tracking function and the face/eye priority AF function are turned off while the OFF while pressing key is pressed.
  • the re-press tracking and face/eye priority AF off function are set to on.
  • the tracking function and the face/eye priority AF function are turned off from when the OFF key is pressed until it is pressed again.
  • the face/eye priority AF off function When "face off while pressed" is selected, the face/eye priority AF off function is set to ON while pressed. When the face/eye priority AF off function is set to on while the key is pressed, the face/eye priority AF function is turned off while the off key is pressed.
  • the repressed face/eye priority AF off function is set to on.
  • the re-pressing face/eye priority AF OFF function is set to ON, the face/eye priority AF function is OFF from when the OFF key is pressed until it is pressed again.
  • a radio button is displayed that allows you to select one of the items “during pressing” and “re-pressing”. If “hold while” is selected, the off while hold function will be executed while the off while hold key is pressed. On the other hand, if “re-press” is selected, the off-while-press function is executed from when the off-while-press key is pressed until it is pressed again.
  • check boxes are displayed that allow selection of either or both of "tracking OFF" and “face/eye priority OFF”. If “tracking OFF” is selected, the tracking function will be turned off while the off while pressing function is being performed. When “face/eye priority OFF” is selected, the face/eye priority AF function is turned off while the OFF while pressing function is being executed.
  • the imaging device 1 has a face priority AF function or an eye priority AF function instead of the face/eye priority AF function, the face priority AF function or the eye priority AF function is temporarily turned off by the above function.
  • the face-priority AF function is a function that preferentially focuses on a face within a focus area.
  • the pupil-priority AF function is a function that gives priority to focusing on the pupil within the focus area.
  • FIG. 12 shows an example of shooting a boxing match between boxer 101 and boxer 102 .
  • the focus frame Fb is displayed at the position of the face of the boxer 101, and the face of the boxer 101 is tracked.
  • the focus control unit 34 cannot track the face of the boxer 101.
  • a position different from the face of the boxer 101 is focused, and the focus frame Fb is displayed at that position.
  • the tracking function and the face/eye priority AF function are temporarily turned off.
  • AF is executed for the range of the focus area frame, and the subject within the focus area frame is brought into focus. Therefore, for example, the user can quickly refocus on the face of the boxer 101 by setting the focus area frame Fa at the position shown in FIG. 12C during tracking.
  • FIG. 13 shows an example in which a sumo wrestling match between wrestlers 121 and 122 is being filmed.
  • the focus frame Fb is displayed at the position of the face of the sumo wrestler 121, and the face of the sumo wrestler 121 is tracked.
  • the tracking function and the face/eye priority AF function are temporarily turned off.
  • AF is executed for the range of the focus area frame, and the subject within the focus area frame is brought into focus. Therefore, for example, the user can quickly refocus on the wrestler 121's face by setting the focus area frame Fa at the position shown in FIG. 13C during tracking.
  • FIG. 14 shows an example in which a running dog 141 is photographed and the right eye of the dog 141 is tracked.
  • FIG. 14A tracking of the dog 141's right eye has failed, and the focus frame Fb has shifted to a position different from that of the dog 141's right eye.
  • a focus area frame Fa is arranged on the right eye of the dog 141 .
  • the tracking function and the face/eye priority AF function are temporarily turned off.
  • the focus frame Fb disappears, and AF is performed within the range of the focus area frame Fa.
  • FIG. 14C the right eye of dog 141 can be refocused quickly.
  • users of the photographing apparatus 1 are divided into users who half-press the shutter button 52 and users who press the AF button 53 when executing the AF function.
  • the user who presses the AF button 53 presses the focus standard key and the OFF key while pressing with the thumb or index finger of the right hand. Therefore, it is desirable to assign the focus standard key and the off-while-pressing key to any one of the custom keys on the top surface and the back surface of the photographing apparatus 1 excluding the custom button 60 . In particular, it is desirable to assign the focus standard key to the center of the multi-selector 54 .
  • the user can move the tracking start position not only before tracking but also during tracking.
  • the tracking start position not only before tracking but also during tracking.
  • the display mode of the focus frame indicating the focus position and tracking position and the focus area frame indicating the focus area and tracking start position described above are examples, and can be changed as necessary.
  • a display mode other than a frame may be used.
  • the display mode may be changed between showing the focus position and showing the tracking position.
  • the display mode may be changed depending on whether the focus area is indicated or the tracking position is indicated.
  • This technology can also be applied to, for example, a photographing device with a photographing function, such as a smartphone, tablet terminal, or mobile phone.
  • the series of processes described above can be executed by hardware or by software.
  • a program that constitutes the software is installed in the computer.
  • the computer includes, for example, a computer built into dedicated hardware and a general-purpose personal computer capable of executing various functions by installing various programs.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • this technology can take the configuration of cloud computing in which one function is shared by multiple devices via a network and processed jointly.
  • each step described in the flow chart above can be executed by a single device, or can be shared and executed by a plurality of devices.
  • one step includes multiple processes
  • the multiple processes included in the one step can be performed by one device or shared by multiple devices.
  • a focus control unit that tracks a tracking target and controls a tracking function that keeps the tracking target in focus; and a setting unit that moves a tracking start position during tracking based on a predetermined condition.
  • the setting unit moves the tracking start position during tracking based on a user operation.
  • the setting unit moves the tracking start position to a tracking position when a first user operation is performed during tracking.
  • the setting unit moves the tracking start position to a position specified by a second user operation during tracking.
  • the setting unit divides an imaging range into a plurality of zones, and moves the tracking start position to the zone including the tracking position when the first user operation is performed; Imaging device as described.
  • the setting unit based on at least one condition of a case where the recognition unit recognizes a first type of subject and a case where the recognition unit does not recognize a second type of subject, (9) The photographing device according to (9), which controls the movement of the tracking start position at the end of tracking. (11) (10), wherein the setting unit sets the type of subject selected by the user as the first type of subject or the second type of subject. (12) The photographing apparatus according to any one of (1) to (11), further comprising a display control unit that controls display of the tracking start position superimposed on the through image. (13) (12) The photographing device according to (12), wherein the display control unit changes a display mode of the tracking start position before tracking and during tracking.
  • Tracking a tracking target and controlling a tracking function that keeps the tracking target in focus A photographing control method for moving a tracking start position during tracking based on a predetermined condition.
  • Tracking a tracking target and controlling a tracking function that keeps the tracking target in focus A program for causing a computer to execute processing to move the tracking start position during tracking based on predetermined conditions.

Abstract

本技術は、追尾終了後に適切な位置から追尾を再開できるようにする撮影装置、撮影制御方法、及び、プログラムに関する。 撮影装置は、追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行うフォーカス制御部と、所定の条件に基づいて、追尾中に追尾開始位置を移動させる設定部とを備える。本技術は、例えば、追尾機能を備える撮影装置に適用できる。

Description

撮影装置、撮影制御方法、及び、プログラム
 本技術は、撮影装置、撮影制御方法、及び、プログラムに関し、特に、被写体の追尾を行う撮影装置、撮影制御方法、及び、プログラムに関する。
 近年、追尾対象となる被写体を追尾(トラッキング)し、ピントを追尾対象に合わせ続ける追尾機能を備えた撮影装置が普及している。
 また、追尾前に追尾開始枠を動かすことにより追尾開始位置を記憶するとともに、追尾終了後に、追尾前に記憶した追尾開始位置から追尾を開始する撮影装置が提案されている。例えば、追尾中に追尾対象が他の被写体の陰に隠れる等により見失われた場合、追尾前に記憶した追尾開始位置から追尾が再開される(例えば、特許文献1参照)。
特開2019-22116号公報
 しかしながら、特許文献1に記載の発明では、例えば、記憶している追尾開始位置から離れた場所において追尾対象が再度現れた場合、すぐに追尾対象にピントを合わせ、追尾することが困難である。
 本技術は、このような状況に鑑みてなされたものであり、追尾終了後に適切な位置から追尾を再開できるようにするものである。
 本技術の一側面の撮影装置は、追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行うフォーカス制御部と、所定の条件に基づいて、追尾中に追尾開始位置を移動させる設定部とを備える。
 本技術の一側面の撮影制御方法は、追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、所定の条件に基づいて、追尾中に追尾開始位置を移動させる。
 本技術の一側面のプログラムは、追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、所定の条件に基づいて、追尾中に追尾開始位置を移動させる処理をコンピュータに実行させる。
 本技術の一側面においては、追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御が行われ、所定の条件に基づいて、追尾中に追尾開始位置が移動される。
本技術を適用した撮影装置の一実施の形態を示すブロック図である。 撮影装置を後方から見た斜視図である。 撮影装置のマルチセレクタの拡大図である。 レンズユニットを装着した撮影装置を前方から見た斜視図、及び、レンズユニットの先端部の側面図である。 フォーカスエリアのゾーンの例を示す図である。 追尾開始位置の移動方法の第1の例を説明するための図である。 追尾開始位置の移動方法の第2の例を説明するための図である。 追尾開始位置の移動方法の第3の例を説明するための図である。 フォーカススタンダード処理を説明するためのフローチャートである。 押す間オフ機能の設定画面の第1の例を示す図である。 押す間オフ機能の設定画面の第2の例を示す図である。 追尾が失敗した時の追尾位置の設定方法の第1の例を説明するための図である。 追尾が失敗した時の追尾位置の設定方法の第2の例を説明するための図である。 追尾が失敗した時の追尾位置の設定方法の第3の例を説明するための図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.その他
 <<1.実施の形態>>
 図1乃至図14を参照して、本技術の実施の形態について説明する。
  <撮影装置1の構成例>
 図1は、本技術を適用した撮影装置1の一実施の形態を示すブロック図である。
 撮影装置1は、プロセッサ11、光学部12、撮像素子13、操作部14、センシング部15、表示部16、記憶部17、通信部18、外部インタフェース(I/F)19、及び、ドライブ20を備える。プロセッサ11乃至ドライブ20は、バスに接続されており、相互に、必要な通信を行う。
 プロセッサ11は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサを備える。プロセッサ11は、記憶部17にインストールされたプログラムを実行することで、各種の処理を行う。
 光学部12は、レンズ等の光学素子を備え、被写体からの入射光を撮像素子13の受光面に結像させる。
 撮像素子13は、例えば、CMOSイメージセンサ等により構成される。撮像素子13は、光学部12により結像された被写体の像の撮像を行い、得られた画像データを、バス上に出力する。
 操作部14は、物理的なキー(キーボードを含む)や、マウス、タッチパネル等で構成される。操作部14は、ユーザの操作に応じて、その操作に対応する操作信号を、バス上に出力する。
 センシング部15は、各種のセンサを備え、各センサから出力されるセンサデータを、バス上に出力する。センシング部15は、例えば、撮影装置1の動きを検出するためのセンサ、例えば、加速度センサ、角速度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)受信機等を備える。
 表示部16は、例えば、タッチパネル等で構成され、バスから供給されるデータに応じて、画像を表示する。
 ここで、例えば、操作部14としてのタッチパネルは、透明な部材で構成され、表示部16と一体的に構成することができる。これにより、ユーザは、表示部16に表示されたアイコンやボタン等を操作するような形で、情報を入力することができる。
 記憶部17は、例えば、揮発性メモリを備え、プロセッサ11が実行するプログラムや、必要なデータを一時記憶する。記憶部17は、例えば、ハードディスクや不揮発性メモリを備え、プロセッサ11が実行するプログラムや、必要なデータを記憶する。
 通信部18は、通信回路及びアンテナ等を備え、各種の外部の装置と通信を行う。
 外部I/F19は、各種の外部の装置との間で、データをやりとりするためのインタフェースである。
 ドライブ20は、例えば、メモリカード等のリムーバブルメディア20Aの着脱が可能になっており、そこに装着されたリムーバブルメディア20Aを駆動する。
 以上のように構成される撮影装置1において、プロセッサ11が実行するプログラムは、記憶部17にあらかじめ記録しておくことができる。
 また、プログラムは、リムーバブルメディア20Aに格納(記録)して、いわゆるパッケージソフトウエアとして提供し、リムーバブルメディア20Aから撮影装置1にインストールすることができる。
 その他、プログラムは、通信部18を介して、図示せぬサーバ等からダウンロードし、撮影装置1にインストールすることができる。
 プロセッサ11は、撮影装置1にインストールされたプログラムを実行することにより、画像処理部31、認識部32、設定部33、フォーカス制御部34、撮影制御部35、表示制御部36、及び、通信制御部37を実現する。
 画像処理部31は、撮像素子13により得られた画像データに対して各種の画像処理(例えば、ノイズ除去等)を行う。画像処理部31は、画像処理後の画像データを、バス上に出力する。
 認識部32は、画像処理部31による画像処理後の画像データに基づく画像内の各種の被写体の認識処理を行う。例えば、認識部32は、画像内の被写体の種類、位置、動き等を認識する。
 設定部33は、操作部14からの操作信号、及び、認識部32による被写体の認識処理の結果等に基づいて、撮影装置1の各種の設定処理を行う。例えば、設定部33は、ピントの合った被写体(追尾対象)を追尾して、ピントを合わせ続ける追尾機能の実行時に、追尾を開始する基準となる位置である追尾開始位置の設定処理等を行う。
 フォーカス制御部34は、設定部33による撮影装置1の設定状態、及び、操作部14からの操作信号等に基づいて、光学部12を制御することにより、撮影装置1のフォーカスの制御を行う。例えば、フォーカス制御部34は、画角内の被写体に自動的にピントを合わせるAF(Auto Focus)、及び、上述した追尾機能の制御を行う。
 撮影制御部35は、設定部33による撮影装置1の設定状態、及び、操作部14からの操作信号等に基づいて、光学部12及び撮像素子13を制御することにより、被写体の撮影を制御する。
 表示制御部36は、表示部16の表示の制御を行う。例えば、表示制御部36は、撮像素子13により得られ、画像処理部31により画像処理が行われた画像データに基づくスルー画、記憶部17又はリムーバブルメディア20Aに記憶されている画像データに基づく画像、及び、各種の設定画面等の表示部16による表示を制御する。
 通信制御部37は、通信部18による通信の制御を行う。
  <AF及び追尾機能用の操作部材>
 次に、図2乃至図4を参照して、操作部14に含まれ、撮影装置1のAF及び追尾機能の操作に用いられる操作部材について説明する。
 図2は、撮影装置1を後方から見た斜視図である。図3は、撮影装置1のマルチセレクタ54の拡大図である。図4は、レンズユニット71を装着した撮影装置1を前方から見た斜視図、及び、レンズユニット71の先端部の側面図である。
 撮影装置1は、モニタ51、シャッタボタン52、AFボタン53、マルチセレクタ54、ファンクションボタン55、コントロールホイール56、AELボタン57、及び、カスタムボタン58乃至カスタムボタン61を備えている。レンズユニット71は、レンズボタン81を備えている。
 モニタ51は、撮影装置1の背面の左下に配置されている。モニタ51は、例えば、タッチパネルにより構成され、操作部14及び表示部16の一部を構成する。例えば、モニタ51は、撮像素子13により得られ、画像処理部31により画像処理が行われた画像データに基づくスルー画、記憶部17又はリムーバブルメディア20Aに記憶されている画像データに基づく画像、及び、各種の設定画面等を表示する。
 また、例えば、ユーザは、タッチパネルであるモニタ51に対して各種の操作を行うことができる。例えば、ユーザは、モニタ51をタッチすることにより、タッチした位置にフォーカスエリア枠を移動させることができる。
 ここで、フォーカスエリアとは、詳細は後述するが、AFを実行する対象となるエリアである。フォーカスエリア枠とは、フォーカスエリアを示すためにモニタ51に表示される枠である。
 シャッタボタン52は、撮影装置1の天面の右前隅に配置されている。シャッタボタン52は、半押し及び全押しが可能である。シャッタボタン52が半押しされることにより、AFが実行される。また、追尾機能がオンに設定されている場合、シャッタボタン52が半押しされることにより、追尾機能が実行される。シャッタボタン52が全押しされることにより、静止画又は動画の撮影が行われ、得られた画像データが、記憶部17又はリムーバブルメディア20Aに記憶される。
 AFボタン53は、撮影装置1の背面において、モニタ51の右上隅付近に配置されている。AFボタン53が押下されることにより、AFが実行される。また、追尾機能がオンに設定されている場合、AFボタン53が押下されることにより、追尾機能が実行される。
 マルチセレクタ54は、モニタ51の右、かつ、AFボタン53の下方に配置されている。マルチセレクタ54は、図3に示されるように、レバー状のボタンにより構成され、中央を押下したり、上下左右に傾けたりすることができる。
 例えば、マルチセレクタ54の中央には、フォーカススタンダード機能が予め割り当てられている。フォーカススタンダード機能とは、例えば、フォーカススタンダードが割り当てられているボタンを押下するだけで、フォーカスエリアの移動等を行うことができる機能である。また、例えば、ユーザは、マルチセレクタ54を上下左右に傾けることにより、モニタ51に表示されているフォーカスエリア枠を移動させることができる。
 ファンクションボタン55は、モニタ51の右、かつ、マルチセレクタ54の下方に配置されている。ファンクションボタン55は、モニタ51に機能メニューを表示させる場合等に用いられる。
 コントロールホイール56は、モニタ51の右、かつ、ファンクションボタン55の下方に配置されている。コントロールホイール56は、中央のボタンを押下したり、周囲のホイールを回転させたり、ホイールの上下左右を押下したりすることができる。コントロールホイール56は、例えば、モニタ51に表示されている各種のメニューの操作等に用いられる。
 AELボタン57は、撮影装置1の右上隅付近に配置されている。AELボタンは、例えば、AE(露出)ロック機能の操作等に用いられる。
 カスタムボタン58及びカスタムボタン59は、撮影装置1の天面において、シャッタボタン52の後方に左右に並べて配置されている。
 カスタムボタン60は、撮影装置1の背面において、モニタ51の左上隅付近に配置されている。
 カスタムボタン61は、撮影装置1の背面の右下隅付近に配置されている。
 レンズボタン81(図4)は、レンズユニット71の先端より少し後方において、左側の側面のやや下寄りに配置されている。
 カスタムボタン58乃至カスタムボタン61及びレンズボタン81は、特定の用途が設定されておらず、ユーザが所望の機能を割り当てることができる。また、AFボタン53、マルチセレクタ54の中央、ファンクションボタン55、コントロールホイール56の中央ボタン、コントロールホイール56のホイールの左、右、及び、下、並びに、AELボタン57にも、ユーザが、予め割り当てられている機能以外の所望の機能を割り当てることができる。
 以下、ユーザが所望の機能を割り当てられるボタン等をカスタムキーと称する。例えば、ユーザは、いずれかのカスタムキーにフォーカススタンダード機能を割り当てたり、後述する押す間オフ機能を割り当てたりすることができる。
 以下、フォーカススタンダード機能が割り当てられたカスタムキーを、フォーカススタンダードキーと称する。以下、押す間オフ機能が割り当てられたカスタムキーを、押す間オフキーと称する。
  <撮影装置1のAF機能>
 次に、撮影装置1のAF機能の詳細について説明する。
   <フォーカスモード>
 撮影装置1は、例えば、シングルAF(Auto Focus)、コンティニュアスAF(Auto Focus)、DMF(Direct Manual Focus)、及び、MF(Manual Focus)の4種類のフォーカスモードを備えている。
 シングルAFは、フォーカスエリア内の被写体に自動的にピントを合わせ、ピントが合った時点でピントの位置が固定されるモードである。
 コンティニュアスAFは、AFが実行されている間(例えば、シャッタボタン52が半押しされている間、又は、AFボタン53が押下されている間)、ピントを合わせ続けるモードである。コンティニュアスAFモードでは、例えば、ピントが合った被写体の動きに合わせて、ピントの位置が移動する。
 フォーカスモードがコンティニュアスAFモードに設定されている場合、追尾機能の使用が可能になる。追尾機能がオンに設定されることにより、追尾対象が追尾され、追尾対象にピントが合わせ続けられる。なお、フォーカスモードがコンティニュアスAFモードに設定されていても、追尾機能がオフに設定されている場合、例えば、ピントが合っている被写体より近い位置に他の被写体が出現した場合等に、別の被写体にピントが移動する。
 DMFは、AFでピントが合った後、ユーザが手動でピントの位置を微調整できるモードである。
 MFは、ピント合わせを手動で行うモードである。
   <フォーカスエリア>
 例えば、撮影装置1では、ワイド、ゾーン、中央、フレキシブルスポット、及び、拡張フレキシブルスポットの5種類のフォーカスエリアの設定が可能である。
 フォーカスエリアがワイドに設定されている場合、モニタ51の表示範囲全体がフォーカスエリアに設定される。そして、モニタ51の表示範囲全体に対応する撮影範囲を対象にAFが実行される。
 フォーカスエリアがゾーンに設定されている場合、例えば、図5に示されるように、モニタ51の表示範囲(すなわち、撮影範囲(画角))がゾーンZ1乃至ゾーンZ9に分割され、ユーザにより指定されたゾーンがフォーカスエリアに設定される。そして、指定されたゾーンに対応する撮影範囲を対象にAFが実行される。なお、指定されたゾーン内でピント合わせに失敗した場合、モニタ51の表示範囲全体がフォーカスエリアに設定される。
 フォーカスエリアが中央に設定されている場合、モニタ51の中央付近がフォーカスエリアに設定される。そして、モニタ51の中央付近に対応する撮影範囲を対象にAFが実行される。なお、モニタ51の中央付近でピント合わせに失敗した場合、モニタ51の表示範囲全体がフォーカスエリアに設定される。
 フォーカスエリアがフレキシブルスポットに設定されている場合、モニタ51にフォーカスエリア枠が表示される。ユーザは、モニタ51内の所望の位置にフォーカスエリア枠を移動することが可能である。そして、フォーカスエリア枠内がフォーカスエリアに設定され、フォーカスエリア枠に対応する撮影範囲を対象にAFが実行される。なお、フォーカスエリア枠内でピント合わせに失敗した場合、モニタ51の表示範囲全体がフォーカスエリアに設定される。
 フォーカスエリアが拡張フレキシブルスポットに設定されている場合、フレキシブルスポットに設定されている場合と同様に、モニタ51にフォーカスエリア枠が表示される。ユーザは、モニタ51内の所望の位置にフォーカスエリア枠を移動することが可能である。そして、フォーカスエリア枠内がフォーカスエリアに設定され、フォーカスエリア枠に対応する撮影範囲を対象にAFが実行される。また、フォーカスエリア枠内でピント合わせに失敗した場合、フォーカスエリア枠の周辺の所定の範囲がフォーカスエリアに設定される。そして、フォーカスエリア枠の周辺の所定の範囲に対応する撮影範囲を対象にAFが実行される。なお、フォーカスエリア枠の周辺の所定の範囲内でピント合わせに失敗した場合、モニタ51の表示範囲全体がフォーカスエリアに設定される。
 なお、追尾機能がオンに設定されている場合、フォーカスエリアの設定に関わらず、ピントが合わせられた後、追尾対象の動きに合わせて、ピントの位置が移動する。
 以下、フレキシブルスポット及び拡張フレキシブルスポットをまとめてスポット系と称する。
   <顔/瞳優先AF機能>
 顔/瞳優先AF機能とは、フォーカスエリア内において、顔又は瞳を優先してピントを合わせる機能である。
 例えば、顔/瞳優先AF機能がオンに設定されている場合、フォーカスエリア内において瞳が認識された場合、認識された瞳にピントが合わせられる。なお、複数の瞳が認識された場合、所定の条件に基づいて、いずれかの瞳にピントが合わせられる。
 また、フォーカスエリア内において瞳が認識されず、顔が認識された場合、認識された顔にピントが合わせられる。なお、複数の顔が認識された場合、所定の条件に基づいて、いずれかの顔にピントが合わせられる。
 なお、フォーカスエリア内において瞳及び顔が検出されない場合、フォーカスエリア内において通常のAFが行われる。
   <追尾開始位置の設定方法>
 撮影装置1では、フォーカスエリアがゾーン又はスポット系に設定されており、追尾機能がオンに設定されている場合、追尾開始位置を設定することが可能である。追尾開始位置とは、追尾開始時に、ピントが合わせられ、追尾が開始される位置である。追尾開始位置は、追尾前及び追尾中のいずれにおいても設定することが可能である。
 ここで、図6乃至図8を参照して、追尾開始位置の設定方法の例について説明する。なお、図6乃至図8は、フォーカスエリアがスポット系に設定されている場合の例を示している。また、図6乃至図8において、モニタ51にスルー画(不図示)が表示され、スルー画の上にフォーカスエリア枠Fa及びフォーカス枠Fbが重畳して表示されているものとする。
 図6は、追尾中に、追尾対象にピントが合っている位置である追尾位置に追尾開始位置を設定可能とする例を示している。
 図6のAは、追尾前のモニタ51の表示例を示している。モニタ51には、フォーカスエリア枠Faが表示されている。例えば、ユーザは、マルチセレクタ54を用いたり、モニタ51にタッチしたりすることにより、フォーカスエリア枠Faをモニタ51内の任意の位置に移動させることができる。
 ここで、フォーカスエリア枠Faは、追尾機能がオンに設定されている場合、AFを実行する対象となるエリアを示すとともに、追尾開始位置を示す。すなわち、AFの実行時に、フォーカスエリア枠Faの範囲内の被写体にピントが合わせられた後、ピントが合った被写体が追尾対象に設定され、追尾対象の動きに合わせてピントの位置が移動する。
 そして、設定部33は、フォーカスエリア枠Faの位置を追尾開始位置に設定する。
 図6のBは、追尾開始時のモニタ51の表示例を示している。例えば、フォーカスエリア枠Fa内の被写体にピントが合わせられ、ピントが合った位置を示すフォーカス枠Fbが表示される。このとき、例えば、フォーカスエリア枠Faは表示されたままとなる。
 図6のCは、追尾中のモニタ51の表示例を示している。例えば、追尾対象の動きに合わせて、フォーカス枠Fbが移動する。従って、フォーカス枠Fbは、追尾対象の動きに合わせてピントが移動した位置である追尾位置を示す。このとき、フォーカスエリア枠Faは移動せずに、同じ位置にとどまっている。
 図6のDは、追尾中にユーザが所定の操作を行った場合(例えば、フォーカススタンダードキーを押下した場合)のモニタ51の表示例を示している。このとき、ユーザが所定の操作を行ったときのフォーカス枠Fbの位置にフォーカスエリア枠Faが移動する。そして、設定部33は、フォーカスエリア枠Faが表示されている位置を追尾開始位置に設定する。
 このようにして、ユーザは、追尾中に、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)を、現在の追尾位置に簡単に移動させることができる。
 一方、フォーカスエリアがゾーンに設定されている場合、追尾中にユーザが所定の操作を行った場合(例えば、フォーカススタンダードキーを押下した場合)、フォーカス枠Fbの中心が存在するゾーンにフォーカスエリアが移動する。例えば、図6の例の場合、ユーザが所定の操作を行ったときのフォーカス枠Fbの中心が、図5のゾーンZ4内に存在するため、フォーカスエリアがゾーンZ4に移動する。そして、設定部33は、ゾーンZ4を追尾開始位置に設定する。
 このようにして、ユーザは、追尾中に、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)を、現在の追尾位置を含むゾーンに簡単に移動させることができる。
 図7は、追尾中に追尾開始位置を任意の位置に設定可能とする例を示している。
 図7のA乃至Cは、図6のA乃至Cと同様の例を示しており、その説明は省略する。
 例えば、追尾中に、ユーザは、マルチセレクタ54を用いたり、モニタ51にタッチしたりすることにより、フォーカスエリア枠Faをモニタ51内の任意の位置に移動させることができる。例えば、ユーザは、図7のDに示されるように、フォーカス枠Fbと異なる位置にフォーカスエリア枠Faを移動させることができる。そして、設定部33は、フォーカスエリア枠Faの位置を追尾開始位置に設定する。
 このようにして、ユーザは、追尾中に、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)を、指定した位置に簡単に移動させることができる。
 一方、フォーカスエリアがゾーンに設定されている場合、追尾中に、ユーザは、マルチセレクタ54を用いたり、モニタ51にタッチしたりすることにより、図5に示されるゾーン単位でフォーカスエリアを移動させることができる。そして、設定部33は、ユーザにより指定されたゾーンを追尾開始位置に設定する。
 このようにして、ユーザは、追尾中に、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)を、指定したゾーンに簡単に移動させることができる。
 図8は、追尾終了時に追尾開始位置が自動的に追尾位置に移動する例を示している。
 図8のA乃至Cは、図6のA乃至Cと同様の例を示しており、その説明は省略する。
 図8のDは、追尾終了時のモニタ51の表示例を示している。例えば、図8のCに示される状態において、フォーカス制御部34は、追尾対象を見失ったり、ピント合わせに失敗したり、又は、AFがオフに設定されたりした場合、追尾を終了する。このとき、例えば、図8のDに示されるように、フォーカス枠Fbが消え、追尾終了時にフォーカス枠Fbが表示されていた位置にフォーカスエリア枠Faが移動する。そして、設定部33は、フォーカスエリア枠Faが表示されている位置を追尾開始位置に設定する。
 このようにして、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)が、追尾終了時の追尾位置に自動的に移動する。
 一方、フォーカスエリアがゾーンに設定されている場合、追尾終了時にフォーカス枠Fbの中心が存在するゾーンにフォーカスエリアが移動する。例えば、図8の例の場合、追尾終了時のフォーカス枠Fbの中心が、図5のゾーンZ4内に存在するため、フォーカスエリアがゾーンZ4に移動する。そして、設定部33は、ゾーンZ4を追尾開始位置に設定する。
 このようにして、追尾終了後に追尾を再開する基準となる位置(追尾開始位置)が、追尾終了時の追尾位置を含むゾーンに自動的に移動する。
 なお、追尾終了時に追尾開始位置を追尾位置に自動的に移動させる機能は、例えば、事前にユーザがオン又はオフに設定することができる。
 また、図8の設定方法において、例えば、設定部33が、認識部32により認識された被写体の種類に基づいて、追尾終了時の追尾開始位置の移動を制御するようにしてもよい。具体的には、設定部33が、認識部32により所定の種類の被写体が認識されている場合、及び、認識部32により所定の種類の被写体が認識されていない場合のうち少なくとも1つの条件に基づいて、追尾終了時の追尾開始位置の移動を制御するようにしてもよい。
 例えば、設定部33は、追尾終了時に、認識部32により所定の種類の被写体が認識されている場合、追尾開始位置を追尾位置に移動させる。または、設定部33は、追尾終了時に、認識部32により所定の種類の被写体が認識されていない場合、追尾開始位置を追尾位置に移動させる。または、設定部33は、追尾終了時に、認識部32により第1の種類の被写体が認識されている場合、又は、認識部32により第2の種類の被写体が認識されていない場合、追尾開始位置を追尾位置に移動させる。
 なお、この認識されている被写体の種類に基づいて、追尾終了時の追尾開始位置の移動を制御する機能は、例えば、事前にユーザがオン又はオフに設定することができる。
 また、当該機能の条件となる被写体の種類としては、例えば、人、動物、鳥、車等が想定される。さらに、被写体の種類を、物体の細かな部位(例えば、人の顔、動物の目等)まで分類するようにしてもよい。
 さらに、当該機能の条件となる被写体の種類をユーザが設定できるようにしてもよい。例えば、ユーザが、複数の候補の中から、当該機能の条件となる被写体の種類を選択するようにしてもよい。
 また、例えば、図6の設定方法と図7の設定方法とは、組み合わせることができる。例えば、ユーザは、追尾中に、フォーカススタンダードキー(例えば、マルチセレクタ54の中央)を押下することにより、追尾開始位置を追尾位置に移動させことができる。また、例えば、ユーザは、マルチセレクタ54を上下左右に傾けたり、モニタ51にタッチしたりすることにより、追尾開始位置を指定した位置に移動させることができる。
 一方、図6又は図7の設定方法と、図8の設定方法とは組み合わせることができない。これは、追尾中に図6又は図7の設定方法により追尾開始位置を移動させても、図8の設定方法により、追尾終了時に追尾開始位置が追尾位置に自動的に移動するからである。
 これに対して、例えば、ユーザが、図6乃至図8の設定方法のうちオンにする方法を設定できるようにしてもよい。この場合、ユーザが、図6の設定方法と図7の設定方法は同時にオンすることができるが、図6又は図7の設定方法と図8の設定方法とは同時にオンできないようにされる。
 ただし、図8の設定方法において、認識された被写体の種類に基づいて、追尾終了時の追尾開始位置の移動を制御する場合には、図6及び図7の少なくとも一方の設定方法と、図8の設定方法とを組み合わせることが可能である。
 例えば、所定の種類の被写体が認識されている場合に、追尾終了時に追尾開始位置を追尾位置に移動させるとき、所定の種類の被写体が認識されているとき、図8の設定方法が有効になる。一方、所定の種類の被写体が認識されていないとき、図6及び図7の少なくとも一方の設定方法が有効になる。
 また、例えば、所定の種類の被写体が認識されていない場合に、追尾終了時に追尾開始位置を追尾位置に移動させるとき、所定の種類の被写体が認識されていないとき、図8の設定方法が有効になる。一方、所定の種類の被写体が認識されているとき、図6及び図7の少なくとも一方の設定方法が有効になる。
 以上のようにして、追尾前だけでなく、追尾中に追尾開始位置を移動させることが可能になる。これにより、例えば、追尾終了後に追尾を再開する場合に、より適切な位置から追尾を再開することが可能になる。
 なお、図6のB及びCのように、追尾中に追尾前と同様の表示態様でフォーカスエリア枠が表示されると、ユーザが、追尾前又は追尾中のいずれかが分かりづらくなる可能性がある。また、モニタ51内の枠等の表示が増え、被写体が見づらくなる可能性がある。
 これに対して、例えば、表示制御部36は、追尾前と追尾中とでフォーカスエリア枠の表示態様を変化させるようにしてもよい。例えば、表示制御部36は、追尾中にフォーカスエリア枠の色を目立たない色(例えば、半透明、グレー等)に変化させるようにしてもよい。例えば、表示制御部36は、追尾中にフォーカスエリア枠の形を変化させるようにしてもよい。
 また、例えば、表示制御部36は、ユーザ設定に基づいて、追尾中にフォーカスエリア枠の表示を停止する(フォーカスエリア枠を消去する)ようにしてもよい。この場合、例えば、表示制御部36は、追尾中にフォーカスエリア枠(追尾開始位置)が移動する場合(例えば、フォーカスエリア枠を移動させる操作が行われた場合、又は、追尾終了時にフォーカスエリア枠が追尾位置に移動する場合)に、フォーカスエリア枠を一時的に表示させる。
   <フォーカススタンダード処理>
 次に、図9のフローチャートを参照して、フォーカススタンダードキーが押下された場合の処理(フォーカススタンダード処理)について説明する。
 ステップS1において、設定部33は、フォーカスエリアがスポット系又はゾーンに設定されているか否かを判定する。フォーカスエリアがスポット系又はゾーンに設定されていると判定された場合、処理はステップS2に進む。
 ステップS2において、設定部33は、追尾中であるか否かを判定する。追尾中であると判定された場合、処理はステップS3に進む。
 ステップS3において、設定部33は、フォーカスエリアを追尾位置に移動させる。例えば、設定部33は、フォーカスエリアがスポット系に設定されている場合、図6を参照して上述したように、フォーカスエリア枠を現在のフォーカス枠の位置に移動させる。例えば、設定部33は、フォーカスエリアがゾーンに設定されている場合、フォーカスエリアを現在のフォーカス枠の中心が存在するゾーンに移動させる。
 これにより、ユーザは、追尾中にフォーカススタンダードキーを押下することにより、フォーカスエリア、すなわち、追尾終了後に追尾を再開する位置を追尾位置に簡単に移動させることができる。
 その後、フォーカススタンダード処理は終了する。
 一方、ステップS2において、追尾中でないと判定された場合、処理はステップS4に進む。
 ステップS4において、設定部33は、フォーカスエリアをモニタ51の中央に移動させる。例えば、設定部33は、フォーカスエリアがスポット系に設定されている場合、フォーカスエリア枠をモニタ51の中央に移動させる。例えば、設定部33は、フォーカスエリアがゾーンに設定されている場合、フォーカスエリアを図5のゾーンZ5に移動させる。
 これにより、ユーザは、追尾中でない場合、フォーカススタンダードキーを押下することにより、フォーカスエリアをモニタ51の中央に移動させることができる。従って、追尾機能がオンに設定されている場合、追尾開始位置がモニタ51の中央に移動する。
 その後、フォーカススタンダード処理は終了する。
 一方、ステップS1において、設定部33が、フォーカスエリアがワイド又は中央に設定されていると判定した場合、処理はステップS5に進む。
 ステップS5において、設定部33は、フォーカススタンダードキーに他の機能が割り当てられているか否かを判定する。フォーカススタンダードキーに他の機能が割り当てられていると判定された場合、処理はステップS6に進む。
 ステップS6において、撮影装置1は、割り当てられている機能を実行する。例えば、追尾機能を一時的にオンする機能が割り当てられている場合、フォーカススタンダードキーが再度押下されるまでの間、追尾機能がオンに設定される。例えば、AFを一時的にオンする機能が割り当てられている場合、フォーカススタンダードキーが押下されている間、AFが実行される。
 その後、フォーカススタンダード処理は終了する。
 一方、ステップS5において、フォーカススタンダードキーに他の機能が割り当てられていないと判定された場合、ステップS5の処理はスキップされ、フォーカススタンダード処理は終了する。
   <押す間オフ機能>
 次に、図10及び図11を参照して、押す間オフ機能について説明する。
 押す間オフ機能とは、押す間オフ機能が割り当てられたカスタムキー(押す間オフキー)を押下することにより、追尾機能及び顔/瞳優先AF機能のうち少なくとも1つを一時的にオフする機能である。
 図10及び図11は、モニタ51に表示される押す間オフ機能の設定画面の例を示している。
 押す間オフ機能は、操作方法とオフする機能との組み合わせにより6種類に分類される。具体的には、押す間オフ機能は、押す間追尾オフ機能、再押し追尾オフ機能、押す間追尾及び顔/瞳優先AFオフ機能、再押し追尾及び顔/瞳優先AFオフ機能、押す間顔/瞳優先AFオフ機能、及び、再押し顔/瞳優先AFオフ機能の6種類に分類される。
 図10は、6種類の押す間オフ機能を選択可能にリスト表示した設定画面の例を示している。
 具体的には、この設定画面には、「押す間トラッキングOff」、「再押しトラッキングOff」、「押す間トラッキング/顔Off」、「再押しトラッキング/顔Off」、「押す間顔Off」、及び、「再押し顔Off」の6種類の項目が表示されている。
 「押す間トラッキングOff」が選択された場合、押す間追尾オフ機能がオンに設定される。押す間追尾オフ機能がオンに設定されている場合、押す間オフキーが押下されている間、追尾(トラッキング)機能がオフされる。
 「再押しトラッキングOff」が選択された場合、再押しトラッキングオフ機能がオンに設定される。再押しトラッキングオフ機能がオンに設定されている場合、押す間オフキーが押下されてから再度押下されるまでの間、追尾機能がオフされる。
 「押す間トラッキング/顔Off」が選択された場合、押す間トラッキング及び顔/瞳優先AFオフ機能がオンに設定される。押す間トラッキング及び顔/瞳優先AFオフ機能がオンに設定されている場合、押す間オフキーが押下されている間、追尾機能及び顔/瞳優先AF機能がオフされる。
 「再押しトラッキング/顔Off」が選択された場合、再押しトラッキング及び顔/瞳優先AFオフ機能がオンに設定される。再押しトラッキング及び顔/瞳優先AFオフ機能がオンに設定されている場合、押す間オフキーが押下されてから再度押下されるまでの間、追尾機能及び顔/瞳優先AF機能がオフされる。
 「押す間顔Off」が選択された場合、押す間顔/瞳優先AFオフ機能がオンに設定される。押す間顔/瞳優先AFオフ機能がオンに設定されている場合、押す間オフキーが押下されている間、顔/瞳優先AF機能がオフされる。
 「再押し顔Off」が選択された場合、再押し顔/瞳優先AFオフ機能がオンに設定される。再押し顔/瞳優先AFオフ機能がオンに設定されている場合、押す間オフキーが押下されてから再度押下されるまでの間、顔/瞳優先AF機能がオフされる。
 図11の設定画面では、押す間オフ機能の操作方法とオフする機能とが個別に設定される。
 具体的には、「押す間」及び「再押し」のいずれか一方の項目を選択可能なラジオボタンが表示されている。「押す間」が選択されると、押す間オフキーが押下されている間、押す間オフ機能が実行されるようになる。一方、「再押し」が選択されると、押す間オフキーが押下されてから再度押下されるまでの間、押す間オフ機能が実行されるようになる。
 また、「トラッキングOFF」及び「顔/瞳優先OFF」のいずれか又は両方を選択可能なチェックボックスが表示されている。「トラッキングOFF」が選択されると、押す間オフ機能が実行されている間、追尾機能がオフされるようになる。「顔/瞳優先OFF」が選択されると、押す間オフ機能が実行されている間、顔/瞳優先AF機能がオフされるようになる。
 なお、撮影装置1が、顔/瞳優先AF機能の代わりに、顔優先AF機能又は瞳優先AF機能を備える場合、上記の機能により、顔優先AF機能又は瞳優先AF機能が一時的にオフされる。なお、顔優先AF機能とは、フォーカスエリア内において、顔を優先してピントを合わせる機能である。瞳優先AF機能とは、フォーカスエリア内において、瞳を優先してピントを合わせる機能である。
   <押す間トラッキング及び顔/瞳優先AFオフ機能の使用例>
 次に、図12乃至図14を参照して、押す間トラッキング及び顔/瞳優先AFオフ機能の使用例について説明する。
 なお、図12乃至図14の例では、フォーカスエリアがフレキシブルスポットに設定され、追尾機能がオンに設定されているものとする。また、押す間トラッキング及び顔/瞳優先AFオフ機能がオンに設定されているものとする。
 例えば、図12は、ボクサー101とボクサー102のボクシングの試合を撮影している場合の例を示している。
 例えば、図12のAでは、ボクサー101の顔の位置にフォーカス枠Fbが表示され、ボクサー101の顔が追尾されている。
 このとき、例えば、図12のBに示されるように、ボクサー101の顔が隠れてしまった場合、フォーカス制御部34は、ボクサー101の顔を追尾できなくなる。その結果、例えば、ボクサー101の顔と異なる位置にピントが合い、その位置にフォーカス枠Fbが表示される。
 これに対して、例えば、ユーザが押す間オフキーを押下すると、追尾機能及び顔/瞳優先AF機能が一時的にオフされる。これにより、フォーカスエリア枠の範囲内を対象にAFが実行され、フォーカスエリア枠内の被写体にピントが合わせられる。従って、例えば、ユーザは、追尾中に図12のCに示される位置にフォーカスエリア枠Faを設定しておくことにより、迅速にボクサー101の顔に再度ピントを合わせることができる。
 そして、ユーザが押す間オフキーの押下を停止すると、追尾機能及び顔/瞳優先AF機能が再開される。これにより、迅速にボクサー101の顔の追尾が再開される。
 例えば、図13は、力士121と力士122の相撲の試合を撮影している場合の例を示している。
 例えば、図13のAでは、力士121の顔の位置にフォーカス枠Fbが表示され、力士121の顔が追尾されている。
 このとき、力士121の顔の動きによっては、例えば、図13のBに示されるように、力士121の顔の追尾が失敗し、力士121の顔に近い位置にある観客123の顔にピントが合い、観客123の顔が追尾される場合がある。
 これに対して、例えば、ユーザが押す間オフキーを押下すると、追尾機能及び顔/瞳優先AF機能が一時的にオフされる。これにより、フォーカスエリア枠の範囲内を対象にAFが実行され、フォーカスエリア枠内の被写体にピントが合わせられる。従って、例えば、ユーザは、追尾中に図13のCに示される位置にフォーカスエリア枠Faを設定しておくことにより、迅速に力士121の顔に再度ピントを合わせることができる。
 そして、ユーザが押す間オフキーの押下を停止すると、追尾機能及び顔/瞳優先AF機能が再開される。これにより、迅速に力士121の顔の追尾が再開される。
 例えば、図14は、走っている犬141を撮影し、犬141の右目を追尾している場合の例を示している。
 図14のAでは、犬141の右目の追尾が失敗し、フォーカス枠Fbが犬141の右目とは異なる位置にずれている。一方、犬141の右目にフォーカスエリア枠Faが配置されている。
 これに対して、例えば、ユーザが押す間オフキーを押下すると、追尾機能及び顔/瞳優先AF機能が一時的にオフされる。これにより、図14のBに示されるように、フォーカス枠Fbが消え、フォーカスエリア枠Faの範囲内を対象にAFが実行される。これにより、図14のCに示されるように、迅速に犬141の右目に再度ピントを合わせることができる。
 そして、ユーザが押す間オフキーの押下を停止すると、追尾機能及び顔/瞳優先AF機能が再開される。これにより、迅速に犬141の右目の追尾が再開される。
   <フォーカススタンダードキー及び押す間オフキーの割り当て例>
 次に、フォーカススタンダードキー及び押す間オフキーの割り当て例について説明する。
 例えば、撮影装置1のユーザは、AF機能を実行する場合にシャッタボタン52を半押しするユーザと、AFボタン53を押下するユーザに分かれる。
 例えば、シャッタボタン52を半押しするユーザは、フォーカススタンダードキー及び押す間オフキーを右手の親指で押下すると想定される。従って、フォーカススタンダードキー及び押す間オフキーを、撮影装置1の背面のカスタムキーのうちカスタムボタン60を除くカスタムキーのいずれかに割り当てることが望ましい。特に、フォーカススタンダードキーは、マルチセレクタ54の中央に割り当てることが望ましい。
 一方、AFボタン53を押下するユーザは、フォーカススタンダードキー及び押す間オフキーを右手の親指又は人差し指で押下すると想定される。従って、フォーカススタンダードキー及び押す間オフキーを撮影装置1の天面及び背面のカスタムキーのうちカスタムボタン60を除くカスタムキーのいずれかに割り当てることが望ましい。特に、フォーカススタンダードキーは、マルチセレクタ54の中央に割り当てることが望ましい。
 以上のようにして、ユーザは、追尾前でなく追尾中も追尾開始位置を移動させることができる。その結果、追尾失敗等により追尾が終了した後、迅速に適切な位置から追尾を開始することができる。すなわち、迅速に所望の追尾対象の追尾を再開することができる。
 <<2.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 上述した操作方法及び操作部材は、その一例であり、必要に応じて変更することが可能である。
 上述したピントの位置及び追尾位置を示すフォーカス枠、並びに、フォーカスエリア及び追尾開始位置を示すフォーカスエリア枠の表示態様は、その一例であり、必要に応じて変更することが可能である。例えば、枠以外の表示態様が用いられてもよい。例えば、ピント位置を示す場合と追尾位置を示す場合とで表示態様が変更されてもよい。フォーカスエリアを示す場合と追尾位置を示す場合とで表示態様が変更されてもよい。
 本技術は、例えば、撮影機能が付属的な撮影装置、例えば、スマートフォン、タブレット端末、携帯電話機等にも適用できる。
 <<3.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 さらに、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行うフォーカス制御部と、
 所定の条件に基づいて、追尾中に追尾開始位置を移動させる設定部と
 を備える撮影装置。
(2)
 前記設定部は、ユーザ操作に基づいて、追尾中に前記追尾開始位置を移動させる
 (1)に記載の撮影装置。
(3)
 前記設定部は、追尾中に第1のユーザ操作が行われたときの追尾位置に前記追尾開始位置を移動させる
 (2)に記載の撮影装置。
(4)
 前記設定部は、追尾中に第2のユーザ操作により指定された位置に前記追尾開始位置を移動させる
 (3)に記載の撮影装置。
(5)
 前記設定部は、撮影範囲を複数のゾーンに分割し、前記第1のユーザ操作が行われたときの前記追尾位置を含む前記ゾーンに前記追尾開始位置を移動させる
 (3)又は(4)に記載の撮影装置。
(6)
 前記設定部は、追尾中にユーザ操作により指定された位置に前記追尾開始位置を移動させる
 (2)に記載の撮影装置。
(7)
 前記設定部は、追尾終了時の追尾位置に前記追尾開始位置を移動させる
 (1)乃至(6)のいずれかに記載の撮影装置。
(8)
 前記設定部は、撮影範囲を複数のゾーンに分割し、追尾終了時の前記追尾位置を含む前記ゾーンに前記追尾開始位置を移動させる
 (7)に記載の撮影装置。
(9)
 被写体の認識処理を行う認識部を
 さらに備え、
 前記設定部は、認識された被写体の種類に基づいて、追尾終了時の前記追尾開始位置の移動を制御する
 (7)又は(8)に記載の撮影装置。
(10)
 前記設定部は、前記認識部により第1の種類の被写体が認識されている場合、及び、前記認識部により第2の種類の被写体が認識されていない場合のうち少なくとも1つの条件に基づいて、追尾終了時の前記追尾開始位置の移動を制御する
 (9)に記載の撮影装置。
(11)
 前記設定部は、ユーザにより選択された種類の被写体を前記第1の種類の被写体又は前記第2の種類の被写体に設定する
 (10)に記載の撮影装置。
(12)
 スルー画に重畳する前記追尾開始位置の表示を制御する表示制御部を
 さらに備える(1)乃至(11)のいずれかに記載の撮影装置。
(13)
 前記表示制御部は、追尾前と追尾中とで前記追尾開始位置の表示態様を変化させる
 (12)に記載の撮影装置。
(14)
 前記表示制御部は、追尾中に前記追尾開始位置の表示を停止するとともに、前記追尾開始位置が移動する場合に表示させる
 (12)に記載の撮影装置。
(15)
 前記フォーカス制御部は、追尾終了後に、前記追尾開始位置を基準にして追尾を再開する位置を設定する
 (1)乃至(14)のいずれかに記載の撮影装置。
(16)
 前記設定部は、ユーザ操作に基づいて、前記追尾機能、並びに、顔及び瞳のうち少なくとも一方に優先してピントを合わせる優先オートフォーカス機能のうち少なくとも1つを、追尾中に一時的にオフする
 (1)乃至(15)のいずれかに記載の撮影装置。
(17)
 追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、
 所定の条件に基づいて、追尾中に追尾開始位置を移動させる
 撮影制御方法。
(18)
 追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、
 所定の条件に基づいて、追尾中に追尾開始位置を移動させる
 処理をコンピュータに実行させるためのプログラム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 撮影装置, 11 プロセッサ, 13 撮像素子, 14 操作部, 16 表示部, 32 認識部, 33 設定部, 34 フォーカス制御部, 35 撮影制御部, 37 表示制御部, 51 モニタ, 52 シャッタボタン, 53 AFボタン, 54 マルチセレクタ

Claims (18)

  1.  追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行うフォーカス制御部と、
     所定の条件に基づいて、追尾中に追尾開始位置を移動させる設定部と
     を備える撮影装置。
  2.  前記設定部は、ユーザ操作に基づいて、追尾中に前記追尾開始位置を移動させる
     請求項1に記載の撮影装置。
  3.  前記設定部は、追尾中に第1のユーザ操作が行われたときの追尾位置に前記追尾開始位置を移動させる
     請求項2に記載の撮影装置。
  4.  前記設定部は、追尾中に第2のユーザ操作により指定された位置に前記追尾開始位置を移動させる
     請求項3に記載の撮影装置。
  5.  前記設定部は、撮影範囲を複数のゾーンに分割し、前記第1のユーザ操作が行われたときの前記追尾位置を含む前記ゾーンに前記追尾開始位置を移動させる
     請求項3に記載の撮影装置。
  6.  前記設定部は、追尾中にユーザ操作により指定された位置に前記追尾開始位置を移動させる
     請求項2に記載の撮影装置。
  7.  前記設定部は、追尾終了時の追尾位置に前記追尾開始位置を移動させる
     請求項1に記載の撮影装置。
  8.  前記設定部は、撮影範囲を複数のゾーンに分割し、追尾終了時の前記追尾位置を含む前記ゾーンに前記追尾開始位置を移動させる
     請求項7に記載の撮影装置。
  9.  被写体の認識処理を行う認識部を
     さらに備え、
     前記設定部は、認識された被写体の種類に基づいて、追尾終了時の前記追尾開始位置の移動を制御する
     請求項7に記載の撮影装置。
  10.  前記設定部は、前記認識部により第1の種類の被写体が認識されている場合、及び、前記認識部により第2の種類の被写体が認識されていない場合のうち少なくとも1つの条件に基づいて、追尾終了時の前記追尾開始位置の移動を制御する
     請求項9に記載の撮影装置。
  11.  前記設定部は、ユーザにより選択された種類の被写体を前記第1の種類の被写体又は前記第2の種類の被写体に設定する
     請求項10に記載の撮影装置。
  12.  スルー画に重畳する前記追尾開始位置の表示を制御する表示制御部を
     さらに備える請求項1に記載の撮影装置。
  13.  前記表示制御部は、追尾前と追尾中とで前記追尾開始位置の表示態様を変化させる
     請求項12に記載の撮影装置。
  14.  前記表示制御部は、追尾中に前記追尾開始位置の表示を停止するとともに、前記追尾開始位置が移動する場合に表示させる
     請求項12に記載の撮影装置。
  15.  前記フォーカス制御部は、追尾終了後に、前記追尾開始位置を基準にして追尾を再開する位置を設定する
     請求項1に記載の撮影装置。
  16.  前記設定部は、ユーザ操作に基づいて、前記追尾機能、並びに、顔及び瞳のうち少なくとも一方に優先してピントを合わせる優先オートフォーカス機能のうち少なくとも1つを、追尾中に一時的にオフする
     請求項1に記載の撮影装置。
  17.  追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、
     所定の条件に基づいて、追尾中に追尾開始位置を移動させる
     撮影制御方法。
  18.  追尾対象を追尾し、前記追尾対象にピントを合わせ続ける追尾機能の制御を行い、
     所定の条件に基づいて、追尾中に追尾開始位置を移動させる
     処理をコンピュータに実行させるためのプログラム。
PCT/JP2021/048960 2021-01-25 2021-12-28 撮影装置、撮影制御方法、及び、プログラム WO2022158280A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180091027.4A CN116803093A (zh) 2021-01-25 2021-12-28 成像装置、成像控制方法和程序
US18/259,448 US20240064402A1 (en) 2021-01-25 2021-12-28 Imaging apparatus, imaging control method, and program
JP2022576586A JPWO2022158280A1 (ja) 2021-01-25 2021-12-28
EP21921381.6A EP4283972A1 (en) 2021-01-25 2021-12-28 Imaging device, imaging control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021009683 2021-01-25
JP2021-009683 2021-01-25

Publications (1)

Publication Number Publication Date
WO2022158280A1 true WO2022158280A1 (ja) 2022-07-28

Family

ID=82548800

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048960 WO2022158280A1 (ja) 2021-01-25 2021-12-28 撮影装置、撮影制御方法、及び、プログラム

Country Status (5)

Country Link
US (1) US20240064402A1 (ja)
EP (1) EP4283972A1 (ja)
JP (1) JPWO2022158280A1 (ja)
CN (1) CN116803093A (ja)
WO (1) WO2022158280A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012940A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置及び追尾方法
JP2019022116A (ja) 2017-07-19 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012940A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置及び追尾方法
JP2019022116A (ja) 2017-07-19 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体

Also Published As

Publication number Publication date
US20240064402A1 (en) 2024-02-22
JPWO2022158280A1 (ja) 2022-07-28
EP4283972A1 (en) 2023-11-29
CN116803093A (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN104349051A (zh) 被摄体检测装置以及被摄体检测装置的控制方法
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
JP6701033B2 (ja) 電子機器およびその制御方法
US20230300446A1 (en) Electronic device, control method thereof, and recording medium
US20220321770A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
JP5825921B2 (ja) 表示装置及びその制御方法
US11122204B2 (en) Image capturing control apparatus, control method, and storage medium
EP3731070A1 (en) Electronic device, control method, program, and computer readable medium
WO2022158280A1 (ja) 撮影装置、撮影制御方法、及び、プログラム
US10785405B2 (en) Electronic device, control method, and storage medium
US11442244B2 (en) Imaging device
US11526264B2 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
US11050923B2 (en) Imaging apparatus and control method
US11538191B2 (en) Electronic apparatus using calibration of a line of sight input, control method of electronic apparatus using calibration of a line of sight input, and non-transitory computer readable medium thereof
US20230345114A1 (en) Electronic apparatus
JP6135789B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2021148896A (ja) 焦点調節装置、撮像装置および焦点調節方法
JP2021089644A (ja) 電子機器
JP2021152744A (ja) 電子機器及びその制御方法
JP2020181512A (ja) 電子機器及びその制御方法
JP2020181492A (ja) 電子機器
JP2020181513A (ja) 電子機器及びその制御方法
JP2009260807A (ja) 表示装置、操作制御方法およびプログラム
JP2018085668A (ja) 電子機器及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21921381

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022576586

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18259448

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180091027.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2021921381

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021921381

Country of ref document: EP

Effective date: 20230825