WO2017057104A1 - 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置 - Google Patents

合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置 Download PDF

Info

Publication number
WO2017057104A1
WO2017057104A1 PCT/JP2016/077722 JP2016077722W WO2017057104A1 WO 2017057104 A1 WO2017057104 A1 WO 2017057104A1 JP 2016077722 W JP2016077722 W JP 2016077722W WO 2017057104 A1 WO2017057104 A1 WO 2017057104A1
Authority
WO
WIPO (PCT)
Prior art keywords
range
movement permission
focus
permission range
imaging
Prior art date
Application number
PCT/JP2016/077722
Other languages
English (en)
French (fr)
Inventor
瑛介 ▲高▼島
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680058230.0A priority Critical patent/CN108139562B/zh
Priority to JP2017543166A priority patent/JP6255542B2/ja
Publication of WO2017057104A1 publication Critical patent/WO2017057104A1/ja
Priority to US15/937,874 priority patent/US10277802B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to a focus control device, a focus control method, a focus control program, a lens device, and an imaging device.
  • imaging elements such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors
  • imaging functions such as mobile phones such as digital still cameras, digital video cameras, and smartphones.
  • the demand for information equipment is increasing rapidly.
  • an information device having the above imaging function is referred to as an imaging device.
  • These imaging apparatuses employ a contrast AF (Auto Focus) method or a phase difference AF method as a focusing control method for focusing on a main subject.
  • the phase difference AF method is particularly effective at the time of moving image capturing in which a subject is continuously imaged by an image sensor because high-speed processing is possible.
  • Patent Document 1 in a mode in which focus control is continuously performed, when a difference between a defocus amount obtained at an arbitrary time and a defocus amount obtained immediately before this time is large, a focus lens is provided. An image pickup apparatus is described that prevents focusing on a subject other than the target subject to be focused by not driving.
  • Patent Document 2 discloses a system capable of manually switching between a mode in which an object is automatically tracked as an AF evaluation value calculation target used to determine a focus position and a mode in which this area is not automatically tracked by a subject. Is described.
  • Patent Document 1 it is possible to avoid focusing on a subject other than the target subject.
  • the change in the defocus amount becomes large and the target subject is not focused, and the intended imaging cannot be performed.
  • Patent Document 2 The system described in Patent Document 2 is equipped with a mode for automatically tracking an area for which an AF evaluation value is calculated, but the above-described problems in this mode are not taken into consideration.
  • the present invention has been made in view of the above circumstances, and a focus control device, a focus control method, a focus control program, a lens device, and the like that enable a target subject to be continuously focused with a simple configuration. And an imaging apparatus.
  • the focus control device of the present invention includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range, and detect a signal corresponding to the amount of received light.
  • a movement permission range control unit that controls a movement permission range that permits the movement of the focus lens set in the first range, and the movement permission based on a signal group output from the plurality of signal detection units.
  • a lens drive control unit that moves the focus lens within a movement permission range controlled by the range control unit.
  • the focus control method of the present invention includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range and detect a signal corresponding to the amount of received light.
  • a focus control method for controlling the position of the focus lens by using a movement permission range control step for controlling a movement permission range for allowing movement of the focus lens set in the first range; And a lens drive control step for moving the focus lens within the movement permission range controlled by the movement permission range control step based on a signal group output from the signal detection unit.
  • the focus control program of the present invention includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range, and detect a signal corresponding to the amount of received light.
  • a focus control program for causing a computer to execute a focus control method for controlling a position of the focus lens by using the computer, wherein the focus control method moves the focus lens set in the first range.
  • the focus lens within the movement permission range controlled by the movement permission range control step based on the movement permission range control step for controlling the movement permission range for permitting the movement and the signal group output from the plurality of signal detection units.
  • a lens drive control step for moving the lens.
  • the lens device of the present invention includes the focusing control device and an imaging optical system including a focus lens for making light incident on the plurality of signal detection units.
  • the imaging device of the present invention includes the above focusing control device.
  • an in-focus control device an in-focus control method, an in-focus control program, a lens device, and an imaging device that can keep the target subject in focus with a simple configuration.
  • FIG. 1 is a diagram illustrating a schematic configuration of a digital camera as an imaging apparatus for describing an embodiment of the present invention.
  • FIG. 2 is a schematic plan view showing an overall configuration of an image sensor 5 mounted on the digital camera shown in FIG. 1.
  • FIG. 3 is a partially enlarged view of one focus detection area 53 shown in FIG. 2.
  • FIG. 4 is a diagram showing only a phase difference detection pixel 52 shown in FIG. 3. It is a figure showing the section composition of pixel 52A for phase contrast detection. It is a figure which shows the structure which made all the pixels contained in the image pick-up element 5 the imaging pixel 51, and divided
  • FIG. 1 runs a focusing control program. It is a schematic diagram explaining the control method of the movement permission range of a focus lens by the system control part 11 shown in FIG. 2 is a flowchart for explaining the operation of a system control unit 11 shown in FIG. 1. 6 is a flowchart for explaining a modified example of the operation of the system control unit 11 shown in FIG. 1. It is a schematic diagram explaining the control method of the movement permission range of the focus lens shown by the flowchart shown in FIG. It is a figure which shows the functional block of 11 A of system control parts which are the modifications of the system control part 11 shown in FIG. It is a flowchart for demonstrating operation
  • FIG. 13 is a flowchart for explaining a first modified example of the operation of the system control unit 11A shown in FIG. 13 is a flowchart for explaining a second modification of the operation of the system control unit 11A shown in FIG. It is a figure which shows the functional block of the system control part 11B which is a modification of the system control part 11 shown in FIG. It is a flowchart for demonstrating operation
  • FIG. 1 It is a figure which shows schematic structure of the camera system for describing one Embodiment of this invention.
  • the external appearance of the smart phone 200 which is one Embodiment of the imaging device of this invention is shown.
  • FIG. 1 is a diagram showing a schematic configuration of a digital camera as an imaging apparatus for explaining an embodiment of the present invention.
  • the digital camera shown in FIG. 1 includes an imaging lens 1 including a focus lens for focus adjustment and a zoom lens for changing zoom magnification, an aperture 2, a lens controller 4, a lens driver 8, and an aperture drive. And a lens device 40 having a unit 9.
  • the lens device 40 is described as being detachable from the digital camera body, but may be fixed to the digital camera body.
  • the imaging lens 1 and the diaphragm 2 constitute an imaging optical system, and the imaging optical system includes at least a focus lens.
  • This focus lens is a lens for adjusting the focal point of the imaging optical system, and is composed of a single lens or a plurality of lenses.
  • Focus adjustment is performed by moving the focus lens in the direction of the optical axis of the imaging optical system in a range (that is, mechanical drive limit) from the MOD (Minimum Object Distance) end to the INF (Infinity) end.
  • the range from the MOD end (side closer to the imaging optical system) to which the focus lens is driven to the INF end (side farther from the imaging optical system) constitutes a first range.
  • the lens control unit 4 of the lens device 40 is configured to be able to communicate with the system control unit 11 of the digital camera body by wire or wirelessly.
  • the lens control unit 4 drives a focus lens and a zoom lens included in the imaging lens 1 via the lens driving unit 8 and drives the diaphragm 2 via the diaphragm driving unit 9 according to a command from the system control unit 11. To do.
  • the digital camera body has an image pickup device 5 such as a CCD type or CMOS type image sensor that picks up a subject through an image pickup optical system, and an analog signal that performs analog signal processing such as correlated double sampling connected to the output of the image pickup device 5.
  • a processing unit 6 and an analog-to-digital conversion circuit 7 that converts an analog signal output from the analog signal processing unit 6 into a digital signal are provided.
  • the analog signal processing unit 6 and the analog / digital conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the analog / digital conversion circuit 7 may be built in the image sensor 5.
  • the system control unit 11 that performs overall control of the entire electric control system of the digital camera drives the image sensor 5 via the image sensor drive unit 10 and outputs the subject image captured through the lens device 40 as a captured image signal.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the system control unit 11 includes a processor and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the system control unit 11 implements each function described later by executing a focusing control program stored in the ROM.
  • the electric control system of the digital camera includes an interpolation operation and a gamma correction operation on the main memory 16, the memory control unit 15 connected to the main memory 16, and the captured image signal output from the analog-digital conversion circuit 7. And a digital signal processing unit 17 that performs RGB / YC conversion processing and the like to generate captured image data, an external memory control unit 20 to which a detachable recording medium 21 is connected, and a display unit mounted on the back of the camera or the like And a display control unit 22 to which 23 is connected.
  • the memory control unit 15, the digital signal processing unit 17, the external memory control unit 20, and the display control unit 22 are connected to each other by a control bus 24 and a data bus 25, and are controlled by a command from the system control unit 11.
  • FIG. 2 is a schematic plan view showing the overall configuration of the image sensor 5 mounted on the digital camera shown in FIG.
  • the imaging element 5 has a light receiving surface 50 on which a large number of pixels arranged in a two-dimensional manner are arranged in a row direction X which is one direction and a column direction Y orthogonal to the row direction X.
  • nine focus detection areas 53 which are areas to be focused, are provided in the example of FIG.
  • the focus detection area 53 is an area including imaging pixels and phase difference detection pixels as pixels.
  • the focus detection area 53 may be provided on the light receiving surface 50 without a gap.
  • FIG. 3 is a partial enlarged view of one focus detection area 53 shown in FIG.
  • each pixel 51 includes a photoelectric conversion unit such as a photodiode and a color filter formed above the photoelectric conversion unit.
  • a pixel 51 (also referred to as an R pixel 51) including a color filter (R filter) that transmits red light is marked with “R” and includes a color filter (G filter) that transmits green light.
  • the pixel 51 (also referred to as G pixel 51) is given a letter “G”
  • the pixel 51 (also referred to as B pixel 51) including a color filter (B filter) that transmits blue light is given a letter “B”. It is attached.
  • the color filter array is a Bayer array over the entire light receiving surface 50.
  • a part of the G pixel 51 (the shaded pixel 51 in FIG. 3) is a phase difference detection pixel 52.
  • each G pixel 51 in an arbitrary pixel row among the pixel rows including the R pixel 51 and the G pixel 51, and the G pixel 51 of the same color closest to the G pixel 51 in the column direction Y. are the phase difference detection pixels 52.
  • FIG. 4 is a diagram showing only the phase difference detection pixel 52 shown in FIG.
  • the phase difference detection pixel 52 includes two types of pixels, a phase difference detection pixel 52A and a phase difference detection pixel 52B.
  • the phase difference detection pixel 52A is a first signal detection unit that receives one of a pair of light beams that have passed through different portions arranged in one direction of the pupil region of the imaging lens 1 and detects a signal corresponding to the amount of received light.
  • the phase difference detection pixel 52B is a second signal detection unit that receives the other of the pair of light beams and detects a signal corresponding to the amount of received light.
  • the plurality of pixels 51 other than the phase difference detection pixels 52A and 52B are imaging pixels, and the imaging pixels receive the pair of light fluxes that have passed through the imaging lens 1 and receive the received light amount. The corresponding signal is detected.
  • a light shielding film is provided above the photoelectric conversion unit of each pixel 51, and an opening that defines a light receiving area of the photoelectric conversion unit is formed in the light shielding film.
  • the center of the opening of the imaging pixel 51 coincides with the center of the photoelectric conversion unit of the imaging pixel 51.
  • the center of the opening (outlined portion in FIG. 4) of the phase difference detection pixel 52A is eccentric to the right side with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 52A.
  • the center of the opening (outlined portion in FIG. 4) of the phase difference detection pixel 52B is eccentric to the left with respect to the center of the photoelectric conversion unit of the phase difference detection pixel 52B.
  • the right direction here is one direction of the row direction X shown in FIG. 3, and the left direction is the other direction of the row direction X.
  • FIG. 5 is a diagram showing a cross-sectional configuration of the phase difference detection pixel 52A.
  • the opening c is eccentric to the right with respect to the photoelectric conversion unit (PD).
  • PD photoelectric conversion unit
  • the pixel group including the phase difference detection pixels 52A in an arbitrary row, and the phase difference detection pixels 52B arranged at the same distance in one direction with respect to the phase difference detection pixels 52A of the pixel group.
  • the phase difference amount in the row direction X in the image picked up by each of these two pixel groups can be detected.
  • the imaging device 5 includes a first signal detection unit that receives one of a pair of light beams that have passed through different portions of the pupil region of the imaging lens 1 and detects a signal corresponding to the amount of received light, and the other of the pair of light beams.
  • the configuration is not limited to the configurations shown in FIGS. 2 to 5 as long as the configuration includes a plurality of pairs with the second signal detection unit that receives the light and detects the signal corresponding to the received light amount.
  • all the pixels included in the image sensor 5 are the imaging pixels 51, each of the imaging pixels 51 is divided into two, one division area is the phase difference detection pixel 52A, and the other division area is the position.
  • the phase difference detection pixel 52B may be used.
  • FIG. 6 is a diagram illustrating a configuration in which all pixels included in the image sensor 5 are set as the imaging pixels 51 and each imaging pixel 51 is divided into two.
  • the imaging pixel 51 in which the R filter is mounted in the imaging device 5 is divided into two, and the divided two are respectively used as a phase difference detection pixel R1 and a phase difference detection pixel R2.
  • the imaging pixel 51 on which the G filter is mounted in the imaging device 5 is divided into two, and the two divided pixels are used as a phase difference detection pixel G1 and a phase difference detection pixel G2, respectively.
  • the image pickup pixel 51 on which the B filter is mounted in the image pickup device 5 is divided into two, and the two divided portions are used as a phase difference detection pixel B1 and a phase difference detection pixel B2, respectively.
  • phase difference detection pixels R1, G1, B1 are each a first signal detection unit
  • the phase difference detection pixels R2, G2, B2 are each a second signal detection unit.
  • the signal can be read independently from the first signal detector and the second signal detector. Then, by adding the signals of the first signal detection unit and the second signal detection unit, a normal imaging signal without a phase difference amount can be obtained. That is, in the configuration of FIG. 6, all the pixels can be used as both the phase difference detection pixel and the imaging pixel.
  • FIG. 7 is a diagram showing functional blocks formed by the system control unit 11 shown in FIG. 1 executing the focusing control program.
  • the system control unit 11 functions as a phase difference detection unit 11a, a movement permission range control unit 11b, and a lens drive control unit 11c by executing a focusing control program stored in the ROM.
  • the phase difference detection unit 11a includes a first signal group output from a plurality of phase difference detection pixels 52A in one focus detection area 53 selected from among the nine focus detection areas 53 by a user operation or the like, This is a relative displacement amount between the two images formed by the pair of light beams using the second signal group output from the phase difference detection pixel 52B paired with the phase difference detection pixel 52A. The amount of phase difference is detected.
  • the data of the first signal group output from the plurality of phase difference detection pixels 52A is A [1]... A [k], and the phase difference that forms a pair with the phase difference detection pixels 52A.
  • the data of the second signal group output from the detection pixel 52B is B [1]... B [k], and these two data are obtained by the following equation (1) when “d” is shifted. An area S [d] surrounded by the waveform is obtained.
  • the phase difference detection unit 11a detects the value of d when the value of the area S [d] is minimum as the phase difference amount between the first signal group and the second signal group.
  • the movement permission range control unit 11b controls a movement permission range that permits the movement of the focus lens set in the first range from the MOD end to the INF end.
  • the movement permission range control unit 11b has a difference between the first position of the focus lens before the focus lens is moved and the target focus position of the focus lens based on the phase difference amount detected by the phase difference detection unit 11a. The larger the size, the wider the movement permission range.
  • FIG. 8 is a schematic diagram for explaining a control method of the focus lens movement permission range by the system control unit 11 shown in FIG.
  • the horizontal axis represents time
  • the vertical axis represents the focus position (the position of the focus lens).
  • FIG. 8 shows target focus positions x (1) to x (10), a locus of a position converted to a focus lens position of a subject different from the target subject, and target focus positions x (1) to x ( The movement permission range (indicated by a bidirectional arrow) set at the time at which 10) is determined is illustrated.
  • the movement permission range controller 11b permits movement of the focus lens based on the phase difference amount detected by the phase difference detector 11a in a state where the focus lens is moved to the target focus position x (1).
  • a permission range M1 is set.
  • the movement permission range control unit 11b sets the target of the focus lens based on the current focus lens position (target focus position x (1)) before the focus lens is moved and the calculated phase difference amount. Based on the difference from the in-focus position x (2), a movement permission range M1 for allowing movement of the focus lens is set.
  • the movement permission range M1 is set with an equal width from the current focus position to the MOD end side (side closer to the imaging optical system) and the INF end side (side far from the imaging optical system).
  • Information indicating the movement permitted range for the difference between the position of the focus lens before the focus lens is moved and the target focus position of the focus lens based on the phase difference amount is obtained in advance when the digital camera is manufactured. It is stored in the ROM of the control unit 11.
  • the movement permission range control unit 11b reads information indicating the movement permission range corresponding to the difference from the ROM, and transmits the information indicating the read movement permission range to the lens driving unit 8, so as to be based on the difference. Set the movement permission range.
  • the movement permission range is such that the larger the difference between the position of the focus lens before the focus lens is moved and the target focus position of the focus lens based on the phase difference amount detected in a state where the focus lens is at this position, Set to a wide range.
  • the large difference between the current focus lens position and the target focus position means that the target subject to be focused has moved greatly in the optical axis direction of the imaging optical system in a short time (the light of the target subject). This means that the moving speed in the axial direction is fast.
  • the movement permission range is set wide so that the target subject can be focused.
  • the movement permission range is narrow in order to prevent focusing on other subjects other than the target subject. Is set.
  • the movement permission range set at the time when the target focus position x (3) is determined is wider than the movement permission range set at the time when the target focus position x (2) is determined. Yes.
  • the focus lens can move only within the movement permission range even if another subject position is erroneously detected as the target focus position at time ta in FIG. 8, for example. Therefore, it is possible to prevent the in-focus position from greatly deviating from the target subject.
  • the target permission subject can be focused by setting a wide movement permission range.
  • the lens drive control unit 11c sends a command to the lens drive unit 8 through the lens control unit 4, and the movement controlled by the movement permission range control unit 11b based on the phase difference amount detected by the phase difference detection unit 11a. Drive the focus lens within the permitted range.
  • the lens drive control unit 11c When the target focus position based on the phase difference amount detected by the phase difference detection unit 11a is within the movement permission range controlled by the movement permission range control unit 11b, the lens drive control unit 11c performs this target focusing. Move the focus lens to the position.
  • the lens drive control unit 11c When the target focus position based on the phase difference amount detected by the phase difference detection unit 11a is outside the movement permission range controlled by the movement permission range control unit 11b, the lens drive control unit 11c is in the movement permission range. The focus lens is moved to the end closer to the target focus position.
  • FIG. 9 is a flowchart for explaining the operation of the system control unit 11 shown in FIG.
  • the operation of FIG. 9 shows an example in which focusing control by the phase difference AF method is continuously performed during moving image capturing, for example.
  • Step S1 constitutes a phase difference detection step.
  • the movement permission range control unit 11b determines the target focus position based on the phase difference amount p (n) calculated by the phase difference detection unit 11a, and the determined target focus position and the focus at time t (n). The difference from the lens position is calculated.
  • the movement permission range control unit 11b reads the movement permission range corresponding to the calculated difference from the ROM, and sets the read movement permission range (step S2). Step S2 constitutes a movement permission range control step.
  • Step S3 constitutes a lens drive control step.
  • Step S4 constitutes a phase difference detection step.
  • step S4 When the phase difference amount p (n + 1) is calculated in step S4, n is updated to (n + 1) (step S5), and then the processing after step S2 is performed again.
  • the focus lens is moved according to the difference between the current focus lens position and the target focus position based on the phase difference amount by the operation described in FIG. Can be controlled.
  • the movement permission range control unit 11b sets a range having a uniform width before and after in the optical axis direction from the current focus lens position as the movement permission range.
  • the movement permission range control unit 11b may individually control the widths of the movement permission range and the range before and behind the current focus lens position.
  • FIG. 10 is a flowchart for explaining a modified example of the operation of the system control unit 11 shown in FIG. In FIG. 10, the same processes as those shown in FIG.
  • a direction from the MOD end side to the INF end side is defined as a plus direction
  • a direction from the INF end side to the MOD end side is defined as a minus direction
  • the direction from the MOD end side to the INF end side is one direction of the optical axis direction of the imaging optical system, and the direction from the INF end side to the MOD end side is the other direction of the optical axis direction of the imaging optical system. is there.
  • step S1 the movement permission range control unit 11b calculates the target focus position G (n) based on the phase difference amount p (n) calculated in step S1 (step S201).
  • the movement permission range control unit 11b determines whether or not the target focus position G (n) is on the plus direction side (INF end side) with respect to the position of the focus lens at time t (n) (step). S202).
  • step S202 determines that the target focus position G (n) is on the plus direction side with respect to the position of the focus lens at the time t (n) (step S202: YES), the minus direction count value. Is reset (step S203), and the plus direction count value indicating the state in which the target focus position is on the plus direction side with respect to the position of the focus lens at time t (n) is incremented by one (step S204).
  • step S202 determines that the target focus position G (n) is on the minus direction side with respect to the position of the focus lens at time t (n) (step S202: NO), the plus direction count value. Is reset (step S205), and the minus direction count value indicating that the target focus position is on the minus direction side of the focus lens position at time t (n) is incremented by one (step S206).
  • the movement permission range control unit 11b determines whether or not the plus direction count value exceeds the threshold th1 (step S207).
  • the threshold th1 is set to an arbitrary natural number of 2 or more.
  • the movement permission range control unit 11b calculates the difference between the target focus position G (n) and the position of the focus lens at time t (n), and corresponds to the calculated difference. Read the movement permission range from ROM.
  • the movement permission range control unit 11b includes, in the read movement permission range, a range on the plus direction side relative to the position of the focus lens at time t (n), and a minus direction relative to the position of the focus lens at time t (n).
  • the ratio with the range on the side is changed from 1: 1 to a ratio obtained by relatively increasing the range on the plus direction side, and the changed movement permission range is set (step S208).
  • step S207 determines whether or not the minus direction count value exceeds the threshold th1 (step S209).
  • step S209 If the determination in step S209 is YES, the difference between the target focus position G (n) and the position of the focus lens at time t (n) is calculated, and the movement permission range corresponding to the calculated difference is read from the ROM.
  • the movement permission range control unit 11b includes, in the read movement permission range, a range on the plus direction side relative to the position of the focus lens at time t (n), and a minus direction relative to the position of the focus lens at time t (n).
  • the ratio with the range on the side is changed from 1: 1 to a ratio obtained by relatively increasing the range on the minus direction side, and the movement permission range after the change is set (step S210).
  • the movement permission range control unit 11b calculates a difference between the target focus position G (n) and the position of the focus lens at time t (n), and corresponds to the calculated difference.
  • the movement permission range is read from the ROM, and the read movement permission range is set (step S211).
  • Step S208 step S210, or step S211, the processes of step S3 to step S5 are performed, and after step S5, the process returns to step S201.
  • Steps S201 to S211 constitute a movement permission range control step.
  • FIG. 11 is a schematic diagram for explaining a control method of the movement permission range of the focus lens shown in the flowchart of FIG.
  • the horizontal axis represents time
  • the vertical axis represents the focus position.
  • FIG. 11 shows a movement permission range (with bi-directional arrows) set at the time when the target in-focus positions x (1) to x (10) and the target in-focus positions x (1) to x (10) are determined. Are shown).
  • the plus direction count value becomes “3”.
  • the threshold th is set to “2”, and when the target in-focus position x (4) is determined, the movement permission range is greater in the plus direction range than in the minus direction range. Is also widely set.
  • the movement permission range is set so that the range on the minus direction side is wider than the range on the plus direction side.
  • the target focus position x (6) is determined in a state where the focus lens is at the target focus position x (5), the plus direction count value is reset and the minus direction count value becomes “1”. For this reason, when the target focus position x (5) is determined, the movement permission range is set so that the range on the minus direction side and the range on the plus direction side have the same ratio.
  • the size of the movement permission range set at each time is determined by the difference between the current position of the focus lens and the target focus position, as described above.
  • FIG. 12 is a diagram showing functional blocks of a system control unit 11A that is a modification of the system control unit 11 shown in FIG.
  • the system control unit 11A shown in FIG. 12 has the same configuration as FIG. 7 except that the movement permission range control unit 11b is changed to the movement permission range control unit 11bA and a depth-of-field information acquisition unit 11d is added. It is.
  • the movement permission range control unit 11bA and the depth-of-field information acquisition unit 11d are functional blocks formed by the processor executing a focusing control program stored in the ROM.
  • the depth-of-field information acquisition unit 11d of the system control unit 11A illustrated in FIG. 12 is a subject that is the distance from the light receiving surface of the image sensor 5 to the target subject based on the phase difference amount detected by the phase difference detection unit 11a. Calculate the distance.
  • Subject distance is one of the parameters that determine the depth of field. When the subject distance is short, the depth of field becomes shallow, and when the subject distance is far, the depth of field becomes deep.
  • the depth-of-field information acquisition unit 11d acquires information on the depth of field of the imaging optical system by calculating the subject distance.
  • the movement permission range control unit 11bA of the system control unit 11A increases the movement permission range as the subject distance acquired by the depth-of-field information acquisition unit 11d is shorter, that is, as the depth of field based on the subject distance is shorter. To do.
  • the data associating the subject distance with the movement permission range is obtained in advance when the digital camera is manufactured, and is stored in the ROM of the system control unit 11.
  • the movement permission range control unit 11bA of the system control unit 11A reads information indicating the movement permission range corresponding to the subject distance acquired by the depth-of-field information acquisition unit 11d from the ROM, and sets the read movement permission range.
  • FIG. 13 is a flowchart for explaining the operation of the system control unit 11A shown in FIG. In FIG. 13, the same processes as those in FIG.
  • Step S1 the depth-of-field information acquisition unit 11d of the system control unit 11A calculates the subject distance based on the phase difference amount p (n) calculated in step S1 (step S11).
  • Step S11 constitutes a depth-of-field information acquisition step.
  • Step S11 constitutes a movement permission range control step.
  • step S12 the process from step S3 to step S5 is performed, and after step S5, the process after step S11 is performed again.
  • the system control unit 11A controls the movement permission range according to the subject distance. According to this configuration, in a situation where the subject distance is short and the depth of field is shallow, the movement permission range is widened, and the followability to the target subject can be improved. For this reason, it is possible to focus on the target subject with high accuracy.
  • the movement permission range is narrowed, and the followability to the target subject is reduced, but the subject depth is deep. Therefore, it is possible to obtain a captured image that is approximately focused on the target subject.
  • the system control unit 11A it is possible to accurately focus on a target subject whose distance from the digital camera changes, and to prevent focusing on another subject other than the target subject. be able to.
  • the depth-of-field information acquisition unit 11d of the system control unit 11A may acquire the aperture value information of the aperture 2 included in the imaging optical system as the subject depth information instead of the subject distance.
  • the aperture value is one of the parameters that determine the depth of field. When the aperture value is small, the depth of field becomes shallow, and when the aperture value is large, the depth of field becomes deep. Thus, since the aperture value is information correlated with the depth of field, it can be handled as information on the depth of field.
  • FIG. 14 is a flowchart for explaining a first modification of the operation of the system control unit 11A shown in FIG. 14, the same processes as those in FIG.
  • Step S1 the depth-of-field information acquisition unit 11d of the system control unit 11A acquires aperture value information from the lens control unit 4 of the lens device 40 (step S13).
  • Step S13 constitutes a depth-of-field information acquisition step.
  • Step S14 constitutes a movement permission range control step.
  • step S14 the process from step S3 to step S5 is performed, and after step S5, the process after step S13 is performed again.
  • the movement permission range is controlled according to the aperture value. According to this configuration, in a situation where the aperture value is small and the depth of field is shallow, the movement permission range is widened, and the followability to the target subject can be improved. For this reason, it is possible to focus on the target subject with high accuracy.
  • the first modification it is possible to accurately focus on the target subject whose distance from the digital camera changes, and to prevent focusing on another subject other than the target subject. can do.
  • the depth-of-field information acquisition unit 11d of the system control unit 11A uses the focal length information of the imaging optical system determined by the position of the zoom lens included in the imaging optical system as subject depth information instead of the subject distance or the aperture value. You may get it.
  • the focal length is one of the parameters that determine the depth of field. When the focal length is short, the depth of field becomes shallow, and when the focal length is long, the depth of field becomes deep. Thus, since the focal length is information correlated with the depth of field, it can be handled as information on the depth of field.
  • FIG. 15 is a flowchart for explaining a second modification of the operation of the system control unit 11A shown in FIG. In FIG. 15, the same processes as those in FIG.
  • Step S1 the depth-of-field information acquisition unit 11d of the system control unit 11A acquires information on the focal length of the imaging optical system from the lens control unit 4 of the lens device 40 (step S15).
  • Step S15 constitutes a depth-of-field information acquisition step.
  • Step S16 constitutes a movement permission range control step.
  • step S16 the process from step S3 to step S5 is performed, and after step S5, the process after step S15 is performed again.
  • the movement permission range is controlled according to the focal length. According to this configuration, in a situation where the focal length is short and the depth of field is shallow, the movement permission range is widened, and the followability to the target subject can be improved. For this reason, it is possible to focus on the target subject with high accuracy.
  • the depth-of-field information acquisition unit 11d of the system control unit 11A may acquire two or more of the subject distance, the aperture value, and the focal length as depth-of-field information.
  • the movement permission range control unit 11bA of the system control unit 11A calculates the depth of field based on all the acquired information. Data in which the depth of field is associated with the movement permission range is stored in the ROM of the system control unit 11A. Then, the movement permission range control unit 11bA of the system control unit 11A may read and set the movement permission range corresponding to the calculated depth of field.
  • FIG. 16 is a diagram showing functional blocks of a system control unit 11B which is a modification of the system control unit 11 shown in FIG.
  • the system control unit 11B shown in FIG. 12 has the same configuration as FIG. 7 except that the movement permission range control unit 11b is changed to the movement permission range control unit 11bB.
  • the movement permission range control unit 11bB is a functional block formed by the processor executing the focusing control program stored in the ROM.
  • the movement permission range control unit 11bB of the system control unit 11B recognizes the subject imaged by the focus detection area 53 from the captured image data obtained by imaging with the imaging device 5.
  • the movement permission range control unit 11bB stores the image of the subject first focused after the digital camera is activated in the ROM as the image of the target subject, and is subsequently captured by the focus detection area 53. The process of recognizing the target subject from the subject is repeated. The movement permission range control unit 11bB also performs processing for recognizing a moving object other than the target subject from the subject imaged by the focus detection area 53.
  • the movement permission range control unit 11bB of the system control unit 11B controls the movement permission range of the focus lens based on the subject recognition result.
  • the movement permission range control unit 11bB narrows the movement permission range when recognizing a subject (moving object) different from the target subject, compared with the case where only the target subject is recognized.
  • the movement permission range control unit 11bB of the system control unit 11B reads information indicating the movement permission range corresponding to the subject recognition result from the ROM, and sets the read movement permission range.
  • FIG. 17 is a flowchart for explaining the operation of the system control unit 11B shown in FIG. In FIG. 17, the same processes as those in FIG.
  • the movement permission range control unit 11bB acquires captured image data from the image sensor 5, and recognizes the subject imaged by the focus detection area 53 (step S21).
  • Step S21 and step S22 constitute a movement permission range control step.
  • step S22 the process from step S3 to step S5 is performed, and after step S5, the process after step S21 is performed again.
  • the system control unit 11B when a subject different from the target subject is recognized, the movement permission range is controlled to be narrower than when only the target subject is recognized. For this reason, focusing on another subject other than the target subject can be prevented by narrowing the range in which the focus lens can move. As a result, the target subject can be focused with high accuracy.
  • the movement permission range becomes narrow.
  • FIG. 18 is a diagram showing functional blocks of a system control unit 11C that is a modification of the system control unit 11 shown in FIG.
  • the system control unit 11C illustrated in FIG. 18 has the same configuration as that of FIG. 7 except that the movement permission range control unit 11b is changed to the movement permission range control unit 11bC and an imaging range change detection unit 11g is added. .
  • the movement permission range control unit 11bC and the imaging range change detection unit 11g are functional blocks formed by the processor executing a focusing control program stored in the ROM.
  • the imaging range change detection unit 11g of the system control unit 11C compares two captured image data arranged in time series captured by the imaging device 5, thereby changing the imaging range (the amount of change in the imaging range or the change in the imaging range). Speed).
  • the imaging range indicates a range of a space that is imaged by the imaging device 5 through the lens device 40.
  • the change amount of the imaging range and the change speed of the imaging range are information indicating a change state of the imaging range.
  • the imaging range change detection unit 11g has an acceleration sensor mounted on the digital camera, and detects a change in the imaging range based on acceleration information from the acceleration sensor. It may be.
  • the movement permission range control unit 11bB controls the movement permission range based on information indicating a change in the imaging range detected by the imaging range change detection unit 11g.
  • the movement permission range control unit 11bB sets the first movement permission range when the amount of change in the imaging range is equal to or greater than a predetermined range threshold, and the amount of change in the imaging range is the above-described range threshold. If it is less than this, the second movement permission range is set. The first movement permission range is wider than the second movement permission range.
  • FIG. 19 is a flowchart for explaining the operation of the system control unit 11C shown in FIG. In FIG. 19, the same processes as those in FIG.
  • Step S31 constitutes an imaging range change detection step.
  • the movement permission range control unit 11bC determines whether or not the change amount of the imaging range detected by the imaging range change detection unit 11g is equal to or greater than the range threshold (step S32), and the change amount of the imaging range is the threshold value.
  • step S32 YES
  • a movement permission range is controlled to a 1st movement permission range (step S33).
  • step S32 NO
  • the movement permission range control unit 11bC controls the movement permission range to the second movement permission range (step S34).
  • Step S32, Step S33, and Step S34 constitute a movement permission range control step.
  • Step S34 Steps S3 to S5 are performed, and after Step S5, the processes after Step S31 are repeated.
  • the system control unit 11C widens the movement permission range when the amount of change in the imaging range is equal to or greater than the range threshold.
  • the imaging range has changed significantly, there is a high possibility that the position of the target subject has changed significantly. Therefore, in this case, the movement permission range is widened, so that the followability to the target subject can be improved and the focusing accuracy can be increased.
  • the first movement permission range is preferably set to be the same as the first range, which is the movable range of the focus lens.
  • the focus lens can be moved to the maximum extent, so that the followability to the target subject can be improved.
  • the width of the movement permission range is changed in two steps according to the amount of change in the imaging range.
  • the movement permission range may be changed in three steps or more.
  • the movement permission range may be returned to the second movement permission range after a predetermined time has elapsed.
  • FIG. 20 is a flowchart for explaining a modified example of the operation of the system control unit 11C.
  • the same processes as those of FIG. 20 are identical to those of FIG. 20.
  • the imaging range change detection unit 11g detects the change rate of the imaging range.
  • the change speed of the imaging range is information indicating a change state of the imaging range.
  • step S31 the movement permission range control unit 11bC determines whether or not the change speed of the imaging range detected by the imaging range change detection unit 11g is equal to or higher than a predetermined speed threshold (step S32A). If it is determined that the range change speed is equal to or greater than the speed threshold (step S32A: YES), the process of step S33 is performed.
  • step S32A: NO the movement permission range control unit 11bC performs the process of step S34.
  • Step S32A, Step S33, and Step S34 constitute a movement permission range control step.
  • the system control unit 11C of this modification increases the movement permission range when the change speed of the imaging range is equal to or higher than the speed threshold.
  • the imaging range is changing rapidly, there is a high possibility that the position of the target subject has changed significantly.
  • the movement permission range is widened, so that the followability to the target subject can be improved and the focusing accuracy can be increased.
  • the first movement permission range in this modification is preferably set to be the same as the first range, which is the movable range of the focus lens.
  • the focus lens can be moved to the maximum extent, so that the followability to the target subject can be improved.
  • the width of the movement permission range is changed in two steps according to the changing speed of the imaging range.
  • the movement permission range may be changed in three steps or more.
  • the movement permission range may be returned to the second movement permission range after a predetermined time has elapsed. Since rapid changes in the imaging range do not occur frequently, the possibility of focusing on subjects other than the target subject is reduced by returning the movement-permitted range after a certain period of time after such changes. can do.
  • a functional block for calculating a contrast evaluation value may be provided instead of the phase difference detection unit 11a, and the lens drive control unit 1c may be configured to move the focus lens based on the contrast evaluation value.
  • the lens drive control unit 11c drives the focus lens within the controlled movement permission range.
  • the movement permission range corresponds to the numerical range of the defocus amount.
  • the defocus amount is determined based on the phase difference amount. Therefore, the movement permission range may be defined as a range of the phase difference amount.
  • the lens drive control unit 11c includes the phase difference amount detected by the phase difference detection unit 11a and the movement permission range (phase difference amount range) controlled by the movement permission range control units 11b, 11bA, 11bB, and 11bC. If the phase difference amount is within the movement permission range, the focus lens is moved according to the defocus amount based on the phase difference amount. The focus lens may be moved according to the defocus amount based on the upper limit or the lower limit.
  • the reaction until the focus lens is driven can be accelerated, and the AF operation can be performed at high speed.
  • the system control unit 11 functions as a focusing control device.
  • a digital camera has been described as an example, but the present invention can be applied to, for example, a broadcasting camera system.
  • FIG. 21 is a diagram showing a schematic configuration of a camera system for explaining an embodiment of the present invention.
  • This camera system is suitable for a camera system for business use such as broadcasting or movie.
  • the camera system shown in FIG. 21 includes a lens device 100 and a camera device 300 as an imaging device to which the lens device 100 is attached.
  • the lens apparatus 100 includes a focus lens 111, zoom lenses 112 and 113, a diaphragm 114, and a master lens group 115, which are arranged in order from the subject side.
  • the focus lens 111, the zoom lenses 112 and 113, the stop 114, and the master lens group 115 constitute an imaging optical system.
  • the imaging optical system includes at least a focus lens 111.
  • the lens apparatus 100 further includes a beam splitter 116 including a reflecting surface 116a, a mirror 117, an AF unit 121 including a condenser lens 118, a separator lens 119, and an image sensor 120.
  • the image sensor 120 is an image sensor such as a CCD image sensor or a CMOS image sensor having a plurality of pixels arranged two-dimensionally.
  • the beam splitter 116 is disposed on the optical axis K between the stop 114 and the master lens group 115.
  • the beam splitter 116 transmits a part of the subject light that has entered the imaging optical system and passed through the aperture 114 (for example, 80% of the subject light) as it is, and removes a part of the subject light (for example, 20% of the subject light). %) Is reflected by the reflecting surface 116a in a direction orthogonal to the optical axis K.
  • the position of the beam splitter 116 is not limited to that shown in FIG. 19, and the beam splitter 116 may be disposed behind the lens closest to the subject of the imaging optical system on the optical axis K.
  • the mirror 117 is disposed on the optical path of the light reflected by the reflecting surface 116 a of the beam splitter 116, reflects this light and makes it incident on the condenser lens 118 of the AF unit 121.
  • the condensing lens 118 condenses the light reflected by the mirror 117.
  • the separator lens 119 has two lenses 19R arranged in one direction (horizontal direction in the example of FIG. 21) across the optical axis of the imaging optical system. And a lens 19L.
  • the subject light condensed by the condenser lens 118 passes through each of the two lenses 19R and 19L, and forms an image at different positions on the light receiving surface (surface on which a plurality of pixels are arranged) of the image sensor 120. . That is, a pair of subject light images shifted in one direction and a pair of subject light images shifted in a direction orthogonal to one direction are formed on the light receiving surface of the image sensor 120.
  • the beam splitter 116, the mirror 117, the condensing lens 118, and the separator lens 19 make a part of subject light incident on the imaging optical system incident on the imaging device 310 of the camera device 300 that captures the subject optical image through the imaging optical system. Then, it functions as an optical element that causes the remaining part of the subject light to be incident on the image sensor 120.
  • a configuration in which the mirror 117 is omitted and the light reflected by the beam splitter 116 is directly incident on the condenser lens 118 may be adopted.
  • the image sensor 120 is an area sensor in which a plurality of pixels are two-dimensionally arranged on the light receiving surface, and outputs an image signal corresponding to each of two subject light images formed on the light receiving surface. That is, the image sensor 120 outputs a pair of image signals shifted in the horizontal direction with respect to one subject light image formed by the imaging optical system.
  • each pixel that outputs one of the pair of image signals shifted in the horizontal direction is a pair of light fluxes that have passed through two different portions of the pupil region of the imaging optical system that are aligned in the horizontal direction.
  • a first signal detection unit configured to receive one of the light beams and detect a signal corresponding to the amount of received light is configured.
  • each pixel that outputs the other of the pair of image signals shifted in the horizontal direction is a pair of light beams that have passed through two different portions arranged in the horizontal direction of the pupil region of the imaging optical system.
  • a second signal detection unit configured to receive the other light beam and detect a signal corresponding to the amount of received light is configured.
  • the image sensor 120 is an area sensor, but instead of the image sensor 120, a line sensor in which a plurality of pixels constituting the first signal detection unit are arranged in the horizontal direction is arranged at a position facing the lens 19R, A configuration may be adopted in which a line sensor in which a plurality of pixels constituting the second signal detection unit are arranged in the horizontal direction is disposed at a position facing the lens 19L.
  • the camera device 300 processes an image signal obtained by capturing a subject light image with the image sensor 310 such as a CCD image sensor or a CMOS image sensor arranged on the optical axis K of the lens device 100 and the image sensor 310. And an image processing unit 320 that generates captured image data.
  • the image sensor 310 such as a CCD image sensor or a CMOS image sensor arranged on the optical axis K of the lens device 100 and the image sensor 310.
  • an image processing unit 320 that generates captured image data.
  • the block configuration of the lens apparatus 100 is the same as that of the lens apparatus of FIG. 1, and includes a drive unit that drives the focus lens and a control unit that controls the drive unit.
  • the control unit functions as one of the system control units 11A, 11B, and 11C.
  • the first signal group and the second signal group input to the control unit are signals output from the first signal detection unit and the second signal detection unit of the image sensor 120.
  • the control unit of the lens device 100 functions as a focus control device.
  • FIG. 22 shows the appearance of a smartphone 200 that is an embodiment of the photographing apparatus of the present invention.
  • a smartphone 200 illustrated in FIG. 22 includes a flat housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201. Part 204 is provided.
  • Such a housing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the configuration of the housing 201 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent can be employed, or a configuration having a folding structure or a slide mechanism can be employed.
  • FIG. 23 is a block diagram showing a configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone include a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input / output unit. 213, a GPS (Global Positioning System) receiving unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the wireless communication unit 210 performs wireless communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, transmission / reception of various file data such as audio data and image data, e-mail data, etc., or reception of Web data, streaming data, etc. are performed.
  • the display input unit 204 displays images (still images and moving images) or text information and visually transmits information to the user under the control of the main control unit 220, and detects user operations on the displayed information.
  • a so-called touch panel which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 is visible and detects one or more coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects an operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 exemplified as an embodiment of the photographing apparatus of the present invention integrally constitute a display input unit 204.
  • the arrangement 203 covers the display panel 202 completely.
  • the operation panel 203 may have a function of detecting a user operation even in an area outside the display panel 202.
  • the operation panel 203 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 202. May be included).
  • the operation panel 203 may include two sensitive areas of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method employed in the operation panel 203 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. You can also
  • the calling unit 211 includes a speaker 205 or a microphone 206, converts user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220. 210 or the audio data received by the external input / output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the display input unit 204, and the microphone 206 can be mounted on the side surface of the housing 201.
  • the operation unit 207 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 207 is mounted on the side surface of the housing 201 of the smartphone 200 and is turned on when pressed with a finger or the like, and turned off when the finger is released with a restoring force such as a spring. It is a push button type switch.
  • the storage unit 212 is a control program or control data of the main control unit 220, application software, address data that associates the name or telephone number of a communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing or download The stored content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a removable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 constituting the storage unit 212 includes a flash memory type (hard memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), This is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a flash memory type hard memory type
  • hard disk type hard disk type
  • multimedia card micro type multimedia card micro type
  • a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the external input / output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, tooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), Zigbee (registered trademark) ZigBee) (registered trademark, etc.) for direct or indirect connection.
  • Examples of external devices connected to the smartphone 200 include a wired / wireless headset, wired / wireless external charger, wired / wireless data port, a memory card (Memory card) connected via a card socket, or a SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly, yes / no
  • a wirelessly connected smartphone a wired / wireless personal computer, a wired / wireless PDA, a wired / wireless personal computer, an earphone, and the like.
  • the external input / output unit 213 transmits data received from such an external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. Can do.
  • the GPS receiving unit 214 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 220, executes a positioning calculation process based on the received plurality of GPS signals, A position consisting of longitude and altitude is detected.
  • the GPS reception unit 214 can acquire position information from the wireless communication unit 210 or the external input / output unit 213 (for example, a wireless LAN), the GPS reception unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 200 in accordance with an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction or acceleration of the smartphone 200 is detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies power stored in a battery (not shown) to each unit of the smartphone 200 in accordance with an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program or control data stored in the storage unit 212, and controls each unit of the smartphone 200 in an integrated manner.
  • the main control unit 220 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication or data communication through the wireless communication unit 210.
  • the application processing function is realized by the main control unit 220 operating according to the application software stored in the storage unit 212.
  • Examples of the application processing function include an infrared communication function for controlling the external input / output unit 213 to perform data communication with the opposite device, an e-mail function for transmitting / receiving e-mails, and a web browsing function for browsing web pages. .
  • the main control unit 220 also has an image processing function such as displaying video on the display input unit 204 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 220 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 204.
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 203. Or a display image scroll request through a scroll bar.
  • the main control unit 220 causes the operation position with respect to the operation panel 203 to overlap with the display panel 202 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 202.
  • a touch panel control function for controlling the sensitive area of the operation panel 203 or the display position of the software key.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 208 includes configurations other than the external memory control unit 20, the recording medium 21, the display control unit 22, the display unit 23, and the operation unit 14 in the digital camera shown in FIG.
  • the captured image data generated by the camera unit 208 can be recorded in the storage unit 212 or output through the external input / output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited thereto, and may be mounted on the back surface of the display input unit 204. .
  • the camera unit 208 can be used for various functions of the smartphone 200.
  • an image acquired by the camera unit 208 can be displayed on the display panel 202, or the image of the camera unit 208 can be used as one of operation inputs of the operation panel 203.
  • the position can also be detected with reference to an image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • the position information acquired by the GPS receiver 214 to the image data of the still image or the moving image, the voice information acquired by the microphone 206 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 215 can be added and recorded in the storage unit 212, or can be output through the external input / output unit 213 or the wireless communication unit 210.
  • the smartphone 200 configured as described above also provides an accessory to which the lens device 40 can be attached, uses the imaging device 5 as the imaging device of the camera unit 208, and FIGS. 9, 10, 13, 14, and 15 17, 19, or 20 can be performed to perform high-precision focusing control.
  • the disclosed focus control device includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range and detect a signal according to the amount of received light.
  • a movement permission range control unit that controls a movement permission range that permits the movement of the focus lens set in the first range, and the movement permission based on a signal group output from the plurality of signal detection units.
  • a lens drive control unit that moves the focus lens within a movement permission range controlled by the range control unit.
  • the plurality of signal detection units receive one of a pair of light beams that have passed through different portions arranged in one direction of the pupil region of the imaging optical system, and detect a signal corresponding to the amount of received light
  • a plurality of first signal detection units, and a plurality of second signal detection units that receive the other of the pair of light beams and detect a signal according to the amount of received light, and the plurality of first signal detections
  • the lens drive control further includes a phase difference detection unit that detects a phase difference amount between the first signal group output from the unit and the second signal group output from the plurality of second signal detection units.
  • the movement unit moves the focus lens within the movement permission range based on the phase difference amount, and the movement permission range control unit moves the focus lens before the focus lens is moved based on the phase difference amount. Based on the first position and the phase difference amount As the difference between the target focus position of Kasurenzu large, focus control device to increase the movement permission range.
  • the movement permission range control unit sets a range before and after the first position as a starting point in the optical axis direction as the movement permission range, and further, the target focusing position is When the state on one direction side in the optical axis direction of the imaging optical system from the first position continues for a threshold number of times or more, the one direction from the first position in the movement permission range.
  • a focus control device that makes the range on the side larger than the range on the other direction side in the optical axis direction than the first position.
  • the disclosed focus control apparatus further includes a depth-of-field information acquisition unit that acquires information on a depth of field of the imaging optical system, and the movement permission range control unit includes a depth of field based on the information.
  • the focus control device that widens the movement permission range as the depth is shallower.
  • the disclosed focus control device is a focus control device in which the imaging optical system includes a diaphragm, and the depth-of-field information acquisition unit acquires the aperture value of the diaphragm as information on the depth of field.
  • the imaging optical system includes a zoom lens for changing a focal length, and the depth-of-field information acquisition unit sets the focal length of the imaging optical system to the depth of field. Focusing control device that is acquired as information.
  • the plurality of signal detection units receive one of a pair of light beams that have passed through different portions arranged in one direction of the pupil region of the imaging optical system, and detect a signal corresponding to the amount of received light
  • a plurality of first signal detection units, and a plurality of second signal detection units that receive the other of the pair of light beams and detect a signal according to the amount of received light, and the plurality of first signal detections
  • the lens drive control further includes a phase difference detection unit that detects a phase difference amount between the first signal group output from the unit and the second signal group output from the plurality of second signal detection units.
  • the unit moves the focus lens within the movement permission range based on the phase difference amount, and the depth-of-field information acquisition unit calculates a subject distance based on the phase difference amount, and calculates the subject distance Is a focusing control device that acquires information as the depth of field information.
  • the movement permission range control unit acquires captured image data obtained by capturing an image of a subject through the imaging optical system, and based on the captured image data, When a subject captured by a plurality of signal detection units is recognized and a subject different from the target subject is recognized, the movement permission range is narrower than when only the target subject is recognized. Focus control device.
  • the disclosed focus control apparatus further includes an imaging range change detection unit that detects a change in the imaging range by the imaging optical system, and the movement permission range control unit includes the imaging range detected by the imaging range change detection unit.
  • a focus control device that controls the movement permission range based on a change state of the movement.
  • the movement permission range control unit is configured such that when the change amount of the imaging range detected by the imaging range change detection unit is equal to or larger than the range threshold value, the change amount of the imaging range is the range threshold value.
  • a focusing control device that widens the movement permission range as compared with the case of less than
  • the disclosed focus control device is a focus control device in which the movement permission range control unit sets the movement permission range to the first range when a change amount of the imaging range is equal to or larger than the range threshold.
  • the movement permission range control unit is configured such that when the change speed of the imaging range detected by the imaging range change detection unit is equal to or higher than a speed threshold, the change speed of the imaging range is the speed threshold.
  • a focusing control device that widens the movement permission range as compared with the case of less than
  • the disclosed focus control device is a focus control device in which the movement permission range control unit sets the movement permission range to the first range when the change speed of the imaging range is equal to or higher than the speed threshold.
  • the disclosed lens device is a lens device including the focusing control device and an imaging optical system including a focus lens for allowing light to enter the plurality of signal detection units.
  • the disclosed imaging device is an imaging device provided with the focusing control device.
  • the disclosed focus control method includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range and detect a signal according to the amount of received light.
  • the plurality of signal detection units receive one of a pair of light beams that have passed through different portions of the imaging optical system arranged in one direction of the pupil region, and detect a signal corresponding to the amount of received light.
  • a plurality of first signal detection units, and a plurality of second signal detection units that receive the other of the pair of light beams and detect a signal according to the amount of received light, and the plurality of first signal detections A phase difference detection step for detecting a phase difference amount between the first signal group output from the unit and the second signal group output from the plurality of second signal detection units, and the lens drive control
  • a range before and after in the optical axis direction starting from the first position is set as the movement permission range, and the target focus position is When the state on one direction side in the optical axis direction of the imaging optical system from the first position continues for a threshold number of times or more, the one direction from the first position in the movement permission range.
  • the disclosed focus control method further includes a depth-of-field information acquisition step of acquiring depth-of-field information of the imaging optical system, and the movement permission range control step includes a depth of field based on the information.
  • a focus control method in which the movement permission range is widened as the depth is shallower.
  • the disclosed focus control method is a focus control method in which the imaging optical system includes an aperture, and the depth-of-field information acquisition step acquires the aperture value of the aperture as information on the depth of field.
  • the imaging optical system includes a zoom lens for changing a focal length
  • the depth-of-field information acquisition step sets the focal length of the imaging optical system to the depth of field. Focus control method acquired as information.
  • the plurality of signal detection units receive one of a pair of light beams that have passed through different portions of the imaging optical system arranged in one direction of the pupil region, and detect a signal corresponding to the amount of received light.
  • a plurality of first signal detection units, and a plurality of second signal detection units that receive the other of the pair of light beams and detect a signal according to the amount of received light, and the plurality of first signal detections A phase difference detection step for detecting a phase difference amount between the first signal group output from the unit and the second signal group output from the plurality of second signal detection units, and based on the phase difference amount
  • An object distance calculating step for calculating the object distance, and the lens driving control step moves the focus lens within the movement permission range based on the phase difference amount to acquire the depth of field information.
  • the step is the subject distance calculation step. Focus controlling method for acquiring a subject distance calculated as the information of the depth of field by-up.
  • the movement permission range control step captured image data obtained by capturing an image of a subject through the imaging optical system is acquired, and the captured image data is acquired based on the captured image data.
  • the movement permission range is narrower than when only the target subject is recognized. Focus control method.
  • the disclosed focus control method further includes an imaging range change detection step for detecting a change in the imaging range by the imaging optical system, and the movement permission range control step includes the imaging range detected by the imaging range change detection step.
  • the change amount of the imaging range detected by the imaging range change detection step is greater than or equal to the range threshold value
  • the change amount of the imaging range is the range threshold value.
  • the disclosed focus control method is a focus control method in which the movement permission range control step sets the movement permission range to the first range when a change amount of the imaging range is equal to or larger than the range threshold.
  • the change speed of the imaging range detected by the imaging range change detection step is equal to or higher than the speed threshold
  • the change speed of the imaging range is the speed threshold.
  • the disclosed focus control method is the focus control method in which the movement permission range control step sets the movement permission range to the first range when the change speed of the imaging range is equal to or higher than the speed threshold.
  • the disclosed focus control program includes a plurality of signal detection units that receive a light beam that has passed through an imaging optical system including a focus lens that is movable in the optical axis direction within a first range and detect a signal corresponding to the amount of received light.
  • a focus control program for causing a computer to execute a focus control method for controlling a position of the focus lens by using the computer, wherein the focus control method moves the focus lens set in the first range.
  • the focus lens within the movement permission range controlled by the movement permission range control step based on the movement permission range control step for controlling the movement permission range for permitting the movement and the signal group output from the plurality of signal detection units.
  • a lens drive control step for moving the focus control program.
  • the present invention is highly convenient and effective when applied to a broadcast television camera or digital camera.

Abstract

簡易な構成にて目標被写体に合焦させ続けることを可能にする合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置を提供する。デジタルカメラは、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を含む撮像素子5と、第一の範囲に設定されるフォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御部11bと、上記の複数の信号検出部から出力された信号群に基づいて、移動許可範囲制御部11bにより制御された移動許可範囲内でフォーカスレンズを移動させるレンズ駆動制御部11cと、を備える。

Description

合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
 本発明は、合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子の高解像度化に伴い、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン等の携帯電話機等の撮像機能を有する情報機器の需要が急増している。なお、以上のような撮像機能を有する情報機器を撮像装置と称する。
 これら撮像装置では、主要な被写体に焦点を合わせる合焦制御方法として、コントラストAF(Auto Focus、自動合焦)方式又は位相差AF方式が採用されている。位相差AF方式は、高速処理が可能なため、撮像素子により被写体を連続して撮像する動画撮像時には特に有効な方式である。
 撮像装置において、スポーツのように被写体の動きが激しいシーンを撮像する場合には、被写体の動きに追従させて合焦制御を継続的に行う必要がある。
 特許文献1には、合焦制御を継続的に行うモードにおいて、任意の時点で求めたデフォーカス量と、この時点の直前に求めたデフォーカス量との差が大きい場合には、フォーカスレンズを駆動しないことで、焦点を合わせたい目標被写体以外の被写体に合焦してしまうのを防ぐ撮像装置が記載されている。
 特許文献2には、合焦位置を決めるために用いるAF評価値の算出対象となるエリアを被写体に自動追尾させるモードと、このエリアを被写体に自動追尾させないモードとを手動で切り替えることのできるシステムが記載されている。
日本国特開平7-181367号公報 日本国特開2011-109323号公報
 特許文献1に記載の技術によれば、目標被写体以外の被写体に対して合焦してしまうのを避けることができる。しかし、例えば目標被写体が高速で近づく又は遠ざかる等した場合にはデフォーカス量の変化が大きくなって、目標被写体に対して合焦されなくなり、意図した撮像を行うことができない。
 特許文献2に記載のシステムは、AF評価値の算出対象となるエリアを被写体に自動追尾させるモードを搭載しているが、このモードにおける上述した課題については考慮されていない。
 本発明は、上記事情に鑑みてなされたものであり、簡易な構成にて目標被写体に合焦させ続けることを可能にする合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、及び撮像装置を提供することを目的とする。
 本発明の合焦制御装置は、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部と、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御部と、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御部により制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御部と、を備えるものである。
 本発明の合焦制御方法は、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて上記フォーカスレンズの位置を制御する合焦制御方法であって、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御ステップにより制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備えるものである。
 本発明の合焦制御プログラムは、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて上記フォーカスレンズの位置を制御する合焦制御方法をコンピュータに実行させるための合焦制御プログラムであって、上記合焦制御方法は、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御ステップにより制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備えるものである。
 本発明のレンズ装置は、上記合焦制御装置と、上記複数の信号検出部に光を入射するためのフォーカスレンズを含む撮像光学系と、を備えるものである。
 本発明の撮像装置は、上記合焦制御装置を備えるものである。
 本発明によれば、簡易な構成にて目標被写体に合焦させ続けることを可能にする合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、及び撮像装置を提供することができる。
本発明の一実施形態を説明するための撮像装置としてのデジタルカメラの概略構成を示す図である。 図1に示すデジタルカメラに搭載される撮像素子5の全体構成を示す平面模式図である。 図2に示す1つの焦点検出エリア53の部分拡大図である。 図3に示す位相差検出用画素52のみを示した図である。 位相差検出用画素52Aの断面構成を示す図である。 撮像素子5に含まれる全ての画素を撮像用画素51とし、各撮像用画素51を2つに分割した構成を示す図である。 図1に示すシステム制御部11が合焦制御プログラムを実行することで形成される機能ブロックを示す図である。 図1に示すシステム制御部11によるフォーカスレンズの移動許可範囲の制御方法を説明する模式図である。 図1に示すシステム制御部11の動作を説明するためのフローチャートである。 図1に示すシステム制御部11の動作の変形例を説明するためのフローチャートである。 図10に示すフローチャートで示されるフォーカスレンズの移動許可範囲の制御方法を説明する模式図である。 図1に示すシステム制御部11の変形例であるシステム制御部11Aの機能ブロックを示す図である。 図12に示すシステム制御部11Aの動作を説明するためのフローチャートである。 図12に示すシステム制御部11Aの動作の第一の変形例を説明するためのフローチャートである。 図12に示すシステム制御部11Aの動作の第二の変形例を説明するためのフローチャートである。 図1に示すシステム制御部11の変形例であるシステム制御部11Bの機能ブロックを示す図である。 図16に示すシステム制御部11Bの動作を説明するためのフローチャートである。 図1に示すシステム制御部11の変形例であるシステム制御部11Cの機能ブロックを示す図である。 図18に示すシステム制御部11Cの動作を説明するためのフローチャートである。 システム制御部11Cの動作の変形例を説明するためのフローチャートである。 本発明の一実施形態を説明するためのカメラシステムの概略構成を示す図である。 本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。 図22に示すスマートフォン200の構成を示すブロック図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、本発明の一実施形態を説明するための撮像装置としてのデジタルカメラの概略構成を示す図である。
 図1に示すデジタルカメラは、焦点調節のためのフォーカスレンズ及びズーム倍率変更のためのズームレンズ等を含む撮像レンズ1と、絞り2と、レンズ制御部4と、レンズ駆動部8と、絞り駆動部9と、を有するレンズ装置40を備える。
 本実施形態において、レンズ装置40はデジタルカメラ本体に着脱可能なものとして説明するが、デジタルカメラ本体に固定されるものであってもよい。
 撮像レンズ1と絞り2は撮像光学系を構成し、撮像光学系はフォーカスレンズを少なくとも含む。このフォーカスレンズは、撮像光学系の焦点を調節するためのレンズであり、単一のレンズ又は複数のレンズで構成される。
 フォーカスレンズが、MOD(Minimum Object Distance)端からINF(infinity)端の範囲(すなわち、機械的な駆動限界)で撮像光学系の光軸方向に移動することで焦点調節が行われる。フォーカスレンズが駆動されるMOD端(撮像光学系に近い側)からINF端(撮像光学系から遠い側)の範囲は第一の範囲を構成する。
 レンズ装置40のレンズ制御部4は、デジタルカメラ本体のシステム制御部11と有線又は無線によって通信可能に構成される。レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズやズームレンズを駆動したり、絞り駆動部9を介して絞り2を駆動したりする。
 デジタルカメラ本体は、撮像光学系を通して被写体を撮像するCCD型又はCMOS型イメージセンサ等の撮像素子5と、撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するアナログデジタル変換回路7とを備える。アナログ信号処理部6及びアナログデジタル変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びアナログデジタル変換回路7は撮像素子5に内蔵されることもある。
 デジタルカメラの電気制御系全体を統括制御するシステム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、レンズ装置40を通して撮像した被写体像を撮像画像信号として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
 システム制御部11は、プロセッサとRAM(Ramdom Access Memory)及びROM(Read Only Memory)等のメモリとにより構成される。システム制御部11は、このROMに記憶された合焦制御プログラムを実行することで、後述する各機能を実現する。
 更に、このデジタルカメラの電気制御系は、メインメモリ16と、メインメモリ16に接続されたメモリ制御部15と、アナログデジタル変換回路7から出力される撮像画像信号に対し、補間演算、ガンマ補正演算、及びRGB/YC変換処理等を行って撮像画像データを生成するデジタル信号処理部17と、着脱自在の記録媒体21が接続される外部メモリ制御部20と、カメラ背面等に搭載された表示部23が接続される表示制御部22と、を備える。
 メモリ制御部15、デジタル信号処理部17、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
 図2は、図1に示すデジタルカメラに搭載される撮像素子5の全体構成を示す平面模式図である。
 撮像素子5は、一方向である行方向Xと行方向Xに直交する列方向Yに二次元状に配列された多数の画素が配置される受光面50を有する。この受光面50には、焦点を合わせる対象となるエリアである焦点検出エリア53が図2の例では9つ設けられている。
 焦点検出エリア53は、画素として撮像用画素と位相差検出用画素とを含むエリアである。
 受光面50のうち焦点検出エリア53を除く部分には、撮像用画素だけが配置される。なお、焦点検出エリア53は、受光面50に隙間無く設けてあってもよい。
 図3は、図2に示す1つの焦点検出エリア53の部分拡大図である。
 焦点検出エリア53には、画素51が二次元状に配列されている。各画素51は、フォトダイオード等の光電変換部と、この光電変換部上方に形成されたカラーフィルタとを含む。
 図3では、赤色光を透過するカラーフィルタ(Rフィルタ)を含む画素51(R画素51ともいう)には“R”の文字を付し、緑色光を透過するカラーフィルタ(Gフィルタ)を含む画素51(G画素51ともいう)には“G”の文字を付し、青色光を透過するカラーフィルタ(Bフィルタ)を含む画素51(B画素51ともいう)には“B”の文字を付している。カラーフィルタの配列は受光面50全体でベイヤ配列となっている。
 焦点検出エリア53では、G画素51の一部(図3中の網掛けを付した画素51)が位相差検出用画素52となっている。図3の例では、R画素51とG画素51を含む画素行のうちの任意の画素行における各G画素51と、この各G画素51に対して列方向Yに最も近い同色のG画素51とが、位相差検出用画素52となっている。
 図4は、図3に示す位相差検出用画素52のみを示した図である。
 図4に示すように、位相差検出用画素52は、位相差検出用画素52Aと位相差検出用画素52Bの2種類の画素を含む。
 位相差検出用画素52Aは、撮像レンズ1の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する第一の信号検出部である。
 位相差検出用画素52Bは、上記一対の光束の他方を受光し受光量に応じた信号を検出する第二の信号検出部である。
 なお、焦点検出エリア53において、位相差検出用画素52A,52B以外の複数の画素51は撮像用画素であり、撮像用画素は、撮像レンズ1を通過した上記一対の光束を受光し受光量に応じた信号を検出する。
 各画素51の光電変換部上方には遮光膜が設けられ、この遮光膜には、光電変換部の受光面積を規定する開口が形成されている。
 撮像用画素51の開口の中心は、撮像用画素51の光電変換部の中心と一致している。これに対し、位相差検出用画素52Aの開口(図4の白抜き部分)の中心は、位相差検出用画素52Aの光電変換部の中心に対し右側に偏心している。また、位相差検出用画素52Bの開口(図4の白抜き部分)の中心は、位相差検出用画素52Bの光電変換部の中心に対して左側に偏心している。ここでいう右方向は、図3で示す行方向Xの一方の方向であり、左方向は行方向Xのもう一方の方向である。
 図5は、位相差検出用画素52Aの断面構成を示す図である。図5に示すように、位相差検出用画素52Aは、開口cが光電変換部(PD)に対して右に偏心している。図5に示すように、光電変換部の片側を遮光膜によって覆うことにより、遮光膜で覆った方向と逆の方向から入射した光を選択的に遮光することができる。
 この構成により、任意の行にある位相差検出用画素52Aからなる画素群と、この画素群の各位相差検出用画素52Aに対して一方向に同一距離で配置された位相差検出用画素52Bからなる画素群とによって、これら2つの画素群の各々によって撮像される像における行方向Xの位相差量を検出することができる。
 なお、撮像素子5は、撮像レンズ1の瞳領域の異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する第一の信号検出部と、上記一対の光束の他方を受光し受光量に応じた信号を検出する第二の信号検出部とのペアを複数有する構成であればよく、図2~図5に示した構成に限らない。
 例えば、撮像素子5に含まれる全ての画素を撮像用画素51とし、各撮像用画素51を2つに分割して、一方の分割エリアを位相差検出用画素52Aとし、他方の分割エリアを位相差検出用画素52Bとした構成であってもよい。
 図6は、撮像素子5に含まれる全ての画素を撮像用画素51とし、各撮像用画素51を2つに分割した構成を示す図である。
 図6の構成では、撮像素子5においてRフィルタを搭載する撮像用画素51を2つに分割し、分割した2つをそれぞれ位相差検出用画素R1と位相差検出用画素R2としている。また、撮像素子5においてGフィルタを搭載する撮像用画素51を2つに分割し、分割した2つをそれぞれ位相差検出用画素G1と位相差検出用画素G2としている。更に、撮像素子5においてBフィルタを搭載する撮像用画素51を2つに分割し、分割した2つをそれぞれ位相差検出用画素B1と位相差検出用画素B2としている。
 この構成では、位相差検出用画素R1,G1,B1がそれぞれ第一の信号検出部となり、位相差検出用画素R2,G2,B2がそれぞれ第二の信号検出部となる。
 第一の信号検出部と第二の信号検出部からは独立に信号を読み出すことができる。そして、第一の信号検出部と第二の信号検出部の信号を加算すると、位相差量のない通常の撮像用信号を得られる。つまり、図6の構成では、全ての画素を、位相差検出用画素と撮像用画素との両方として用いることができる。
 図7は、図1に示すシステム制御部11が合焦制御プログラムを実行することで形成される機能ブロックを示す図である。システム制御部11は、ROMに記憶されている合焦制御プログラムを実行することで、位相差検出部11aと、移動許可範囲制御部11bと、レンズ駆動制御部11cと、して機能する。
 位相差検出部11aは、9つの焦点検出エリア53の中からユーザ操作等により選択された1つの焦点検出エリア53にある複数の位相差検出用画素52Aから出力された第一の信号群と、この位相差検出用画素52Aとペアを組む位相差検出用画素52Bから出力された第二の信号群とを用いて上記一対の光束によって形成される2つの像の相対的な位置ずれ量である位相差量を検出する。
 具体的には、複数の位相差検出用画素52Aから出力される第一の信号群のデータをA[1]…A[k]とし、この位相差検出用画素52Aとペアを構成する位相差検出用画素52Bから出力される第二の信号群のデータをB[1]…B[k]とし、これら2つのデータを“d”ずらしたときの以下の式(1)によって求まる2つのデータ波形によって囲まれる面積S[d]を求める。
Figure JPOXMLDOC01-appb-M000001
 位相差検出部11aは、面積S[d]の値が最小となるときのdの値を、第一の信号群と第二の信号群との位相差量として検出する。
 移動許可範囲制御部11bは、MOD端からINF端の第一の範囲に設定されるフォーカスレンズの移動を許可する移動許可範囲を制御する。
 移動許可範囲制御部11bは、フォーカスレンズが移動される前のフォーカスレンズの第一の位置と、位相差検出部11aにより検出された位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、移動許可範囲を広くする。
 図8は、図1に示すシステム制御部11によるフォーカスレンズの移動許可範囲の制御方法を説明する模式図である。図8において、横軸は時間を示し、縦軸はフォーカス位置(フォーカスレンズの位置)を示す。
 図8には、目標合焦位置x(1)~x(10)と、目標被写体とは別の被写体のフォーカスレンズ位置に換算した位置の軌跡と、目標合焦位置x(1)~x(10)が決定された時刻において設定される移動許可範囲(双方向矢印で示す)と、が図示されている。
 移動許可範囲制御部11bは、フォーカスレンズが目標合焦位置x(1)に移動された状態で、位相差検出部11aにより検出された位相差量に基づいて、フォーカスレンズの移動を許可する移動許可範囲M1を設定する。
 具体的には、移動許可範囲制御部11bは、フォーカスレンズが移動される前の現在のフォーカスレンズの位置(目標合焦位置x(1))と、算出した位相差量に基づくフォーカスレンズの目標合焦位置x(2)との差分から、フォーカスレンズの移動を許可する移動許可範囲M1を設定する。
 この移動許可範囲M1は、現在のフォーカス位置を起点にしてMOD端側(撮像光学系に近い側)とINF端側(撮像光学系から遠い側)に均等の幅で設定される。
 フォーカスレンズが移動される前のフォーカスレンズの位置と、位相差量に基づくフォーカスレンズの目標合焦位置との差分に対する移動許可範囲を示す情報は、デジタルカメラの製造時に予め求められており、システム制御部11のROMに記憶されている。
 移動許可範囲制御部11bは、この差分に対応する移動許可範囲を示す情報をROMから読み出し、読み出した移動許可範囲を示す情報を、レンズ駆動部8に伝達することで、上記の差分に基づいて移動許可範囲を設定する。
 移動許可範囲は、フォーカスレンズが移動される前のフォーカスレンズの位置と、この位置にフォーカスレンズがある状態で検出された位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、広い範囲に設定される。
 現在のフォーカスレンズの位置と目標合焦位置との差分が大きいということは、合焦させようとしている目標被写体が短時間で撮像光学系の光軸方向に大きく移動している(目標被写体の光軸方向への移動速度が速い)ことを意味する。
 したがって、目標被写体が光軸方向に速く移動している場合には、この目標被写体に合焦させることを可能にするため、移動許可範囲が広く設定される。一方、目標被写体が光軸方向にゆっくり移動している場合又は目標被写体が停止している場合には、この目標被写体以外の他の被写体に合焦されるのを防ぐために、移動許可範囲が狭く設定される。
 図8では、例えば、フォーカスレンズが目標合焦位置x(3)にある状態で決定された目標合焦位置x(4)と、フォーカスレンズの現在位置(目標合焦位置x(3))との差は、フォーカスレンズが目標合焦位置x(2)にある状態で決定された目標合焦位置x(3)と目標合焦位置x(2)との差よりも大きくなっている。
 このため、目標合焦位置x(3)が決定された時刻において設定される移動許可範囲は、目標合焦位置x(2)が決定された時刻において設定される移動許可範囲よりも広くなっている。
 このように移動許可範囲が設定されることで、例えば図8の時刻taにおいて、別の被写体位置が目標合焦位置として誤検出されてしまっても、移動許可範囲内でしかフォーカスレンズが移動できないため、合焦位置が目標被写体から大きく外れるのを防ぐことができる。また、目標被写体が別の被写体に高速で近づいている場合には移動許可範囲が広く設定されることで、目標被写体に合焦させることができる。
 図7の説明に戻る。レンズ駆動制御部11cは、レンズ制御部4を介してレンズ駆動部8に指令を送り、位相差検出部11aにより検出された位相差量に基づいて、移動許可範囲制御部11bにより制御された移動許可範囲内でフォーカスレンズを駆動させる。
 レンズ駆動制御部11cは、位相差検出部11aにより検出された位相差量に基づく目標合焦位置が、移動許可範囲制御部11bにより制御された移動許可範囲内にある場合は、この目標合焦位置にフォーカスレンズを移動させる。
 レンズ駆動制御部11cは、位相差検出部11aにより検出された位相差量に基づく目標合焦位置が、移動許可範囲制御部11bにより制御された移動許可範囲外にある場合は、移動許可範囲におけるこの目標合焦位置に近い側の端にフォーカスレンズを移動させる。
 図9は、図1に示すシステム制御部11の動作を説明するためのフローチャートである。図9の動作は、例えば動画撮像中に位相差AF方式による合焦制御を継続して行う例を示している。
 動画撮像モードに設定されると、位相差検出部11aは、時刻t(n)(nの初期値は0)において撮像素子5の選択された焦点検出エリア53から出力された第一の信号群と第二の信号群とを用いて、時刻t(n)における位相差量p(n)を算出する(ステップS1)。ステップS1は、位相差検出ステップを構成する。
 ここで、t(n)の意味は、演算するときの時系列の順番が“n”であり、t(n)はn番目の時間を表すものとする。例えば、ある時間をt(0)=0として、次に位相差量の算出を行なう信号を取得したときの時間が0.5秒後であるなら、t(1)=0.5となる。
 移動許可範囲制御部11bは、位相差検出部11aによって算出された位相差量p(n)に基づいて目標合焦位置を決定し、決定した目標合焦位置と、時刻t(n)におけるフォーカスレンズの位置との差分を算出する。移動許可範囲制御部11bは、算出した差分に対応する移動許可範囲をROMから読み出し、読み出した移動許可範囲を設定する(ステップS2)。ステップS2は、移動許可範囲制御ステップを構成する。
 次に、レンズ駆動制御部11cは、移動許可範囲制御部11bによって決定された目標合焦位置に基づいて、ステップS2で設定された移動許可範囲内で、フォーカスレンズを移動させる(ステップS3)。ステップS3は、レンズ駆動制御ステップを構成する。
 時刻t(n+1)になると、位相差検出部11aは、撮像素子5の選択された焦点検出エリア53から出力された第一の信号群と第二の信号群とを用いて、時刻t(n+1)における位相差量p(n+1)を算出する(ステップS4)。ステップS4は、位相差検出ステップを構成する。
 ステップS4で位相差量p(n+1)が算出されると、nが(n+1)に更新され(ステップS5)、その後、ステップS2以降の処理が再び行われる。
 以上のように、図1に示すデジタルカメラによれば、図9で説明した動作により、現在のフォーカスレンズの位置と位相差量に基づく目標合焦位置との差分に応じて、フォーカスレンズの移動を許可する範囲を制御することができる。
 これにより、高速で動く目標被写体に精度よく合焦させることができると共に、目標被写体以外の別の被写体に合焦してしまうことを防止することができる。
 以上の説明では、移動許可範囲制御部11bが、移動許可範囲として、現在のフォーカスレンズの位置を起点として光軸方向の前後に均等の幅となる範囲を設定するものとした。
 この変形例として、移動許可範囲制御部11bは、移動許可範囲のうち、現在のフォーカスレンズの位置よりも前の範囲と後ろの範囲との広さを個別に制御してもよい。
 図10は、図1に示すシステム制御部11の動作の変形例を説明するためのフローチャートである。図10において図9に示した処理と同じものには同一符号を付して説明を省略する。
 以下では、フォーカスレンズの移動範囲において、MOD端側からINF端側に向かう方向をプラス方向と定義し、INF端側からMOD端側に向かう方向をマイナス方向と定義する。
 MOD端側からINF端側に向かう方向は、撮像光学系の光軸方向の一方の方向であり、INF端側からMOD端側に向かう方向は、撮像光学系の光軸方向の他方の方向である。
 ステップS1の後、移動許可範囲制御部11bは、ステップS1で算出された位相差量p(n)に基づいて目標合焦位置G(n)を算出する(ステップS201)。
 次に、移動許可範囲制御部11bは、目標合焦位置G(n)が時刻t(n)におけるフォーカスレンズの位置よりもプラス方向側(INF端側)にあるか否かを判定する(ステップS202)。
 移動許可範囲制御部11bは、目標合焦位置G(n)が時刻t(n)におけるフォーカスレンズの位置よりもプラス方向側にあると判定した場合(ステップS202:YES)は、マイナス方向カウント値をリセットし(ステップS203)、目標合焦位置が時刻t(n)におけるフォーカスレンズの位置よりもプラス方向側にある状態を示すプラス方向カウント値を1つ増やす(ステップS204)。
 移動許可範囲制御部11bは、目標合焦位置G(n)が時刻t(n)におけるフォーカスレンズの位置よりもマイナス方向側にあると判定した場合(ステップS202:NO)は、プラス方向カウント値をリセットし(ステップS205)、目標合焦位置が時刻t(n)におけるフォーカスレンズの位置よりもマイナス方向側にある状態を示すマイナス方向カウント値を1つ増やす(ステップS206)。
 ステップS204又はステップS206の後、移動許可範囲制御部11bは、プラス方向カウント値が閾値th1を超えるか否かを判定する(ステップS207)。閾値th1は2以上の自然数の任意の値に設定される。
 ステップS207の判定がYESの場合、移動許可範囲制御部11bは、目標合焦位置G(n)と、時刻t(n)におけるフォーカスレンズの位置との差分を算出し、算出した差分に対応する移動許可範囲をROMから読み出す。
 更に、移動許可範囲制御部11bは、読み出した移動許可範囲において、時刻t(n)におけるフォーカスレンズの位置よりもプラス方向側の範囲と、時刻t(n)におけるフォーカスレンズの位置よりもマイナス方向側の範囲との比率を、1:1から、プラス方向側の範囲を相対的に大きくした比率に変更し、変更後の移動許可範囲を設定する(ステップS208)。
 ステップS207の判定がNOの場合、移動許可範囲制御部11bは、マイナス方向カウント値が閾値th1を超えるか否かを判定する(ステップS209)。
 ステップS209の判定がYESの場合、目標合焦位置G(n)と、時刻t(n)におけるフォーカスレンズの位置との差分を算出し、算出した差分に対応する移動許可範囲をROMから読み出す。
 更に、移動許可範囲制御部11bは、読み出した移動許可範囲において、時刻t(n)におけるフォーカスレンズの位置よりもプラス方向側の範囲と、時刻t(n)におけるフォーカスレンズの位置よりもマイナス方向側の範囲との比率を、1:1から、マイナス方向側の範囲を相対的に大きくした比率に変更し、変更後の移動許可範囲を設定する(ステップS210)。
 ステップS209の判定がNOの場合、移動許可範囲制御部11bは、目標合焦位置G(n)と、時刻t(n)におけるフォーカスレンズの位置との差分を算出し、算出した差分に対応する移動許可範囲をROMから読み出し、読み出した移動許可範囲を設定する(ステップS211)。
 ステップS208、ステップS210、又はステップS211の後は、ステップS3~ステップS5の処理が行われ、ステップS5の後はステップS201に処理が戻る。ステップS201~ステップS211は、移動許可範囲制御ステップを構成する。
 図11は、図10に示すフローチャートで示されるフォーカスレンズの移動許可範囲の制御方法を説明する模式図である。図11において、横軸は時間を示し、縦軸はフォーカス位置を示す。
 図11には、目標合焦位置x(1)~x(10)と、目標合焦位置x(1)~x(10)が決定された時刻において設定される移動許可範囲(双方向矢印で示す)と、が図示されている。
 図11に示す例では、フォーカスレンズが目標合焦位置x(3)にある状態で目標合焦位置x(4)が決定されると、プラス方向カウント値が“3”となる。
 図11の例では、閾値thが“2”に設定されており、目標合焦位置x(4)が決定された時点では、移動許可範囲は、プラス方向側の範囲がマイナス方向側の範囲よりも広く設定される。
 また、フォーカスレンズが目標合焦位置x(7)にある状態で目標合焦位置x(8)が決定されると、マイナス方向カウント値が“3”となる。このため、目標合焦位置x(8)が決定された時点では、移動許可範囲は、マイナス方向側の範囲がプラス方向側の範囲よりも広く設定される。
 また、フォーカスレンズが目標合焦位置x(5)にある状態で目標合焦位置x(6)が決定されると、プラス方向カウント値がリセットされてマイナス方向カウント値が“1”となる。このため、目標合焦位置x(5)が決定された時点では、移動許可範囲は、マイナス方向側の範囲とプラス方向側の範囲とが同じ比率となるよう設定される。
 なお、各時刻で設定される移動許可範囲の大きさは、前述してきたように、フォーカスレンズの現在位置と目標合焦位置との差分によって決められる。
 以上のように、目標被写体が一定方向に移動していると判断される場合には、この移動方向側の範囲を広くした移動許可範囲を設定することで、移動している目標被写体への追従性を向上させることができ、合焦精度を向上させることができる。
 図12は、図1に示すシステム制御部11の変形例であるシステム制御部11Aの機能ブロックを示す図である。
 図12に示すシステム制御部11Aは、移動許可範囲制御部11bが移動許可範囲制御部11bAに変更され、被写界深度情報取得部11dが追加された点を除いては、図7と同じ構成である。
 移動許可範囲制御部11bAと被写界深度情報取得部11dは、ROMに記憶された合焦制御プログラムをプロセッサが実行することで形成される機能ブロックである。
 図12に示すシステム制御部11Aの被写界深度情報取得部11dは、位相差検出部11aにより検出された位相差量に基づいて、撮像素子5の受光面から目標被写体までの距離である被写体距離を算出する。
 被写体距離は、被写界深度を決定するパラメータの1つである。被写体距離が近いと被写界深度は浅くなり、被写体距離が遠いと被写界深度は深くなる。
 このように、被写体距離は被写界深度と相関のある情報であるため、被写界深度の情報ということができる。被写界深度情報取得部11dは、被写体距離を算出することで、撮像光学系の被写界深度の情報を取得する。
 システム制御部11Aの移動許可範囲制御部11bAは、被写界深度情報取得部11dにより取得された被写体距離が近いほど、つまり、被写体距離に基づく被写界深度が浅いほど、移動許可範囲を広くする。
 被写体距離と移動許可範囲とを対応付けたデータは、デジタルカメラの製造時に予め求められており、システム制御部11のROMに記憶されている。
 システム制御部11Aの移動許可範囲制御部11bAは、被写界深度情報取得部11dにより取得された被写体距離に対応する移動許可範囲を示す情報をROMから読み出し、読み出した移動許可範囲を設定する。
 図13は、図12に示すシステム制御部11Aの動作を説明するためのフローチャートである。図13において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1の後、システム制御部11Aの被写界深度情報取得部11dが、ステップS1で算出された位相差量p(n)に基づいて被写体距離を算出する(ステップS11)。ステップS11は、被写界深度情報取得ステップを構成する。
 次に、移動許可範囲制御部11bAは、被写界深度情報取得部11dによって取得された被写体距離に対応する移動許可範囲をROMから読み出して設定する(ステップS12)。ステップS11は、移動許可範囲制御ステップを構成する。
 ステップS12の後は、ステップS3~ステップS5の処理が行われ、ステップS5の後はステップS11以降の処理が再び行われる。
 以上のように、システム制御部11Aは、被写体距離に応じて移動許可範囲を制御する。この構成によれば、被写体距離が近く、被写界深度が浅くなる状況では、移動許可範囲が広くなって、目標被写体への追従性を向上させることができる。このため、目標被写体に対して高い精度で合焦させることができる。
 また、この構成によれば、被写体距離が遠く、被写界深度が深くなる状況では、移動許可範囲が狭くなって、目標被写体への追従性が低下するものの、被写体深度が深くなっていることから、目標被写体におおよそ合焦した撮像画像を得ることができる。
 このように、システム制御部11Aによれば、デジタルカメラとの距離が変化する目標被写体に精度よく合焦させることができると共に、目標被写体以外の別の被写体に合焦してしまうことを防止することができる。
 システム制御部11Aの被写界深度情報取得部11dは、被写体距離の代わりに、撮像光学系に含まれる絞り2の絞り値の情報を被写体深度の情報として取得してもよい。
 絞り値は、被写界深度を決定するパラメータの1つである。絞り値が小さいと被写界深度は浅くなり、絞り値が大きいと被写界深度は深くなる。このように、絞り値は被写界深度と相関のある情報であるため、被写界深度の情報として扱うことができる。
 図14は、図12に示すシステム制御部11Aの動作の第一の変形例を説明するためのフローチャートである。図14において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1の後、システム制御部11Aの被写界深度情報取得部11dが、レンズ装置40のレンズ制御部4から絞り値の情報を取得する(ステップS13)。ステップS13は、被写界深度情報取得ステップを構成する。
 次に、移動許可範囲制御部11bAは、被写界深度情報取得部11dによって取得された絞り値に対応する移動許可範囲をROMから読み出して設定する(ステップS14)。ステップS14は、移動許可範囲制御ステップを構成する。
 ステップS14の後は、ステップS3~ステップS5の処理が行われ、ステップS5の後はステップS13以降の処理が再び行われる。
 以上のように、この第一の変形例では、絞り値に応じて移動許可範囲が制御される。この構成によれば、絞り値が小さく、被写界深度が浅くなる状況では、移動許可範囲が広くなって、目標被写体への追従性を向上させることができる。このため、目標被写体に対して高い精度で合焦させることができる。
 また、この構成によれば、絞り値が小さく、被写界深度が深くなる状況では、移動許可範囲が狭くなって、目標被写体への追従性が低下するものの、被写体深度が深くなっていることから、目標被写体におおよそ合焦した撮像画像を得ることができる。
 このように、第一の変形例によれば、デジタルカメラとの距離が変化する目標被写体に精度よく合焦させることができると共に、目標被写体以外の別の被写体に合焦してしまうことを防止することができる。
 システム制御部11Aの被写界深度情報取得部11dは、被写体距離又は絞り値の代わりに、撮像光学系に含まれるズームレンズの位置で決まる撮像光学系の焦点距離の情報を被写体深度の情報として取得してもよい。
 焦点距離は、被写界深度を決定するパラメータの1つである。焦点距離が短いと被写界深度は浅くなり、焦点距離が長いと被写界深度は深くなる。このように、焦点距離は被写界深度と相関のある情報であるため、被写界深度の情報として扱うことができる。
 図15は、図12に示すシステム制御部11Aの動作の第二の変形例を説明するためのフローチャートである。図15において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1の後、システム制御部11Aの被写界深度情報取得部11dが、レンズ装置40のレンズ制御部4から、撮像光学系の焦点距離の情報を取得する(ステップS15)。ステップS15は、被写界深度情報取得ステップを構成する。
 次に、移動許可範囲制御部11bAは、被写界深度情報取得部11dによって取得された焦点距離に対応する移動許可範囲をROMから読み出して設定する(ステップS16)。ステップS16は、移動許可範囲制御ステップを構成する。
 ステップS16の後は、ステップS3~ステップS5の処理が行われ、ステップS5の後はステップS15以降の処理が再び行われる。
 以上のように、この第二の変形例では、焦点距離に応じて移動許可範囲が制御される。この構成によれば、焦点距離が短く、被写界深度が浅くなる状況では、移動許可範囲が広くなって、目標被写体への追従性を向上させることができる。このため、目標被写体に対して高い精度で合焦させることができる。
 また、この構成によれば、焦点距離が長く、被写界深度が深くなる状況では、移動許可範囲が狭くなって、目標被写体への追従性が低下するものの、被写体深度が深くなっていることから、目標被写体におおよそ合焦した撮像画像を得ることができる。
 このように、第二の変形例によれば、デジタルカメラに近づいてくる目標被写体に精度よく合焦させることができると共に、目標被写体以外の別の被写体に合焦してしまうことを防止することができる。
 なお、システム制御部11Aの被写界深度情報取得部11dは、被写体距離、絞り値、及び、焦点距離のうちの2つ以上を被写界深度の情報として取得してもよい。
 この場合、システム制御部11Aの移動許可範囲制御部11bAは、取得した全ての情報に基づいて被写界深度を算出する。システム制御部11AのROMには、被写界深度と移動許可範囲とを対応付けたデータを記憶しておく。そして、システム制御部11Aの移動許可範囲制御部11bAは、算出した被写界深度に対応する移動許可範囲を読み出して設定すればよい。
 図16は、図1に示すシステム制御部11の変形例であるシステム制御部11Bの機能ブロックを示す図である。
 図12に示すシステム制御部11Bは、移動許可範囲制御部11bが移動許可範囲制御部11bBに変更された点を除いては、図7と同じ構成である。移動許可範囲制御部11bBは、ROMに記憶された合焦制御プログラムをプロセッサが実行することで形成される機能ブロックである。
 システム制御部11Bの移動許可範囲制御部11bBは、撮像素子5で撮像して得られる撮像画像データから、焦点検出エリア53により撮像されている被写体の認識を行う。
 具体的には、移動許可範囲制御部11bBは、デジタルカメラの起動後に最初に合焦させた被写体の画像を目標被写体の画像としてROMに記憶し、以降は、焦点検出エリア53により撮像されている被写体から目標被写体を認識する処理を繰り返し行う。また、移動許可範囲制御部11bBは、焦点検出エリア53により撮像されている被写体から目標被写体以外の動体を認識する処理も行う。
 システム制御部11Bの移動許可範囲制御部11bBは、被写体認識結果に基づいて、フォーカスレンズの移動許可範囲を制御する。移動許可範囲制御部11bBは、目標被写体とは別の被写体(動体)を認識した場合には、目標被写体のみが認識された場合よりも、移動許可範囲を狭くする。
 目標被写体とは別の被写体が認識されたときの移動許可範囲と、目標被写体のみが認識されたときの移動許可範囲とを示す情報は、デジタルカメラの製造時に予め求められており、システム制御部11BのROMに記憶されている。
 システム制御部11Bの移動許可範囲制御部11bBは、被写体認識結果に対応する移動許可範囲を示す情報をROMから読み出し、読み出した移動許可範囲を設定する。
 図17は、図16に示すシステム制御部11Bの動作を説明するためのフローチャートである。図17において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1の後、移動許可範囲制御部11bBは、撮像素子5から撮像画像データを取得し、焦点検出エリア53により撮像されている被写体を認識する(ステップS21)。
 次に、移動許可範囲制御部11bBは、被写体認識結果に対応する移動許可範囲をROMから読み出して設定する(ステップS22)。ステップS21とステップS22は、移動許可範囲制御ステップを構成する。
 ステップS22の後は、ステップS3~ステップS5の処理が行われ、ステップS5の後はステップS21以降の処理が再び行われる。
 以上のように、システム制御部11Bによれば、目標被写体とは別の被写体が認識された場合には、目標被写体のみが認識された場合よりも移動許可範囲を狭く制御する。このため、フォーカスレンズの移動できる範囲が狭くなることにより、目標被写体以外の別の被写体に合焦するのを防止することができる。この結果、目標被写体に対し高精度で合焦させることができる。
 例えば、目標被写体として人物を撮影している状況で、人物の前又は後ろを車が横切るなどして意図しない物体が入り込むと、移動許可範囲が狭くなる。
 意図しない物体は、目標被写体の後方又は前方にある場合が多いが、このような場合には、移動許可範囲が狭くなるため、この物体に合焦される可能性は低くなる。一方、目標被写体のみが認識されている状況では移動許可範囲が広くなるため、目標被写体の動きに追従して合焦させることができる。
 このように、焦点検出エリア53により撮像している被写体に基づいて移動許可範囲を制御することで、目標被写体に精度よく合焦させることができると共に、目標被写体以外の別の被写体に合焦してしまうことを防止することができる。
 図18は、図1に示すシステム制御部11の変形例であるシステム制御部11Cの機能ブロックを示す図である。
 図18に示すシステム制御部11Cは、移動許可範囲制御部11bが移動許可範囲制御部11bCに変更され、撮像範囲変化検出部11gが追加された点を除いては、図7と同じ構成である。
 移動許可範囲制御部11bCと撮像範囲変化検出部11gは、ROMに記憶された合焦制御プログラムをプロセッサが実行することで形成される機能ブロックである。
 システム制御部11Cの撮像範囲変化検出部11gは、撮像素子5で撮像された時系列で並ぶ2つの撮像画像データを比較することで、撮像範囲の変化(撮像範囲の変化量又は撮像範囲の変化速度)を検出する。
 撮像範囲とは、レンズ装置40を通して撮像素子5により撮像されている空間の範囲を示す。撮像範囲の変化量と撮像範囲の変化速度は、撮像範囲の変化の状態を示す情報である。
 撮像範囲変化検出部11gは、画像処理によって撮像範囲の変化を検出する代わりに、加速度センサをデジタルカメラに搭載しておき、加速度センサからの加速度情報に基づいて、撮像範囲の変化を検出するようにしてもよい。
 移動許可範囲制御部11bBは、撮像範囲変化検出部11gにより検出された撮像範囲の変化を示す情報に基づいて、移動許可範囲を制御する。
 具体的には、移動許可範囲制御部11bBは、撮像範囲の変化量が予め決められた範囲閾値以上の場合には第一の移動許可範囲を設定し、撮像範囲の変化量が上記の範囲閾値未満の場合には第二の移動許可範囲を設定する。第一の移動許可範囲は、第二の移動許可範囲よりも広い範囲である。
 図19は、図18に示すシステム制御部11Cの動作を説明するためのフローチャートである。図19において図9と同じ処理には同一符号を付して説明を省略する。
 ステップS1の後、撮像範囲変化検出部11gは、撮像範囲の変化量を検出する(ステップS31)。ステップS31は、撮像範囲変化検出ステップを構成する。
 次に、移動許可範囲制御部11bCは、撮像範囲変化検出部11gにより検出された撮像範囲の変化量が範囲閾値以上であるか否かを判定し(ステップS32)、撮像範囲の変化量が閾値以上であると判定した場合(ステップS32:YES)は、移動許可範囲を第一の移動許可範囲に制御する(ステップS33)。
 一方、移動許可範囲制御部11bCは、撮像範囲の変化量が範囲閾値未満であると判定した場合(ステップS32:NO)、移動許可範囲を第二の移動許可範囲に制御する(ステップS34)。
 ステップS32、ステップS33、及び、ステップS34は、移動許可範囲制御ステップを構成する。
 ステップS34の後は、ステップS3~ステップS5が行われ、ステップS5の後はステップS31以降の処理が繰り返される。
 以上のように、システム制御部11Cは、撮像範囲の変化量が範囲閾値以上の場合には、移動許可範囲を広くする。撮像範囲が大きく変わっている場合には、目標被写体の位置が大きく変わっている可能性が高い。このため、この場合には移動許可範囲が広くなることで、目標被写体への追従性を高めて合焦精度を上げることができる。
 なお、上記の第一の移動許可範囲は、フォーカスレンズの移動可能な範囲である第一の範囲と同じに設定しておくのがよい。
 このようにすることで、撮像範囲が大きく変化したときには、フォーカスレンズが最大限に移動可能な状態となるため、目標被写体への追従性を向上させることができる。
 また、図19では、撮像範囲の変化量に応じて2段階で移動許可範囲の広さを変更するものとしたが、移動許可範囲を3段階以上で変化させるようにしてもよい。
 また、図19のステップS33において移動許可範囲が広く制御された後、一定時間経過後に、移動許可範囲を第二の移動許可範囲に戻してもよい。
 撮像範囲の大きな変化は頻繁には起こらないため、大きな変化があった後は一定時間後に移動許可範囲を元に戻すことで、目標被写体以外の被写体に合焦してしまう可能性を低くすることができる。
 図20は、システム制御部11Cの動作の変形例を説明するためのフローチャートである。図20において図19と同じ処理には同一符号を付して説明を省略する。
 この変形例では、撮像範囲変化検出部11gが、撮像範囲の変化速度を検出する。撮像範囲の変化速度は、撮像範囲の変化の状態を示す情報である。
 ステップS31の後、移動許可範囲制御部11bCは、撮像範囲変化検出部11gにより検出された撮像範囲の変化速度が予め決められた速度閾値以上であるか否かを判定し(ステップS32A)、撮像範囲の変化速度が速度閾値以上であると判定した場合(ステップS32A:YES)は、ステップS33の処理を行う。
 一方、移動許可範囲制御部11bCは、撮像範囲の変化速度が速度閾値未満であると判定した場合(ステップS32A:NO)、ステップS34の処理を行う。
 ステップS32A、ステップS33、及び、ステップS34は、移動許可範囲制御ステップを構成する。
 以上のように、この変形例のシステム制御部11Cは、撮像範囲の変化速度が速度閾値以上の場合には、移動許可範囲を広くする。撮像範囲が速く変化している場合には、目標被写体の位置が大きく変わっている可能性が高い。
 このため、この場合には移動許可範囲が広くなることで、目標被写体への追従性を高めて合焦精度を上げることができる。
 なお、この変形例における第一の移動許可範囲は、フォーカスレンズの移動可能な範囲である第一の範囲と同じに設定しておくのがよい。
 このようにすることで、撮像範囲が速く変化したときには、フォーカスレンズが最大限に移動可能な状態となるため、目標被写体への追従性を向上させることができる。
 また、図20では、撮像範囲の変化速度に応じて2段階で移動許可範囲の広さを変更するものとしたが、移動許可範囲を3段階以上で変化させるようにしてもよい。
 また、図20のステップS33において移動許可範囲が広く制御された後、一定時間経過後に、移動許可範囲を第二の移動許可範囲に戻してもよい。撮像範囲の速い変化は頻繁には起こらないため、このような変化があった後は一定時間後に移動許可範囲を元に戻すことで、目標被写体以外の被写体に合焦してしまう可能性を低くすることができる。
 なお、図12~図20で説明した動作は、AF方式としてコントラストAF方式を用いた場合にも適用可能である。この場合は、位相差検出部11aの代わりに、コントラスト評価値を算出する機能ブロックを設け、レンズ駆動制御部1cが、コントラスト評価値に基づいてフォーカスレンズを移動させる構成とすればよい。
 また以上の説明では、レンズ駆動制御部11cが、制御された移動許可範囲内でフォーカスレンズを駆動させるようにした。ここで、移動許可範囲は、デフォーカス量の数値範囲と対応する。そして、デフォーカス量は位相差量に基づいて決定される。したがって、移動許可範囲は、位相差量の範囲として規定してもよい。
 つまり、レンズ駆動制御部11cは、位相差検出部11aにより検出された位相差量と、移動許可範囲制御部11b,11bA,11bB,11bCにより制御された移動許可範囲(位相差量の範囲)とに基づいて、位相差量が移動許可範囲内であれば、この位相差量に基づくデフォーカス量にしたがってフォーカスレンズを移動させ、位相差量が移動許可範囲外であれば、この移動許可範囲の上限又は下限に基づくデフォーカス量にしたがってフォーカスレンズを移動させるようにしてもよい。
 このように、位相差量によってフォーカスレンズの移動を許可する範囲を制御することで、フォーカスレンズを駆動するまでの反応を速くすることができ、AF動作を高速に行うことができる。
 以上説明したデジタルカメラにおいて、システム制御部11、システム制御部11A、システム制御部11B、及びシステム制御部11Cが、合焦制御装置として機能する。ここまではデジタルカメラを例にしたが、例えば放送用のカメラシステムにおいても本発明を適用可能である。
 図21は、本発明の一実施形態を説明するためのカメラシステムの概略構成を示す図である。このカメラシステムは、放送用又は映画用等の業務用のカメラシステムに好適である。
 図21に示すカメラシステムは、レンズ装置100と、レンズ装置100が装着される撮像装置としてのカメラ装置300とを備える。
 レンズ装置100は、フォーカスレンズ111と、ズームレンズ112,113と、絞り114と、マスターレンズ群115と、を備え、これらが被写体側から順に並べて配置されている。
 フォーカスレンズ111、ズームレンズ112,113、絞り114、及びマスターレンズ群115は、撮像光学系を構成する。撮像光学系は、少なくともフォーカスレンズ111を含む。
 レンズ装置100は、更に、反射面116aを含むビームスプリッタ116と、ミラー117と、集光レンズ118、セパレータレンズ119、及び撮像素子120を含むAFユニット121と、を備える。撮像素子120は、二次元状に配置された複数の画素を有するCCD型イメージセンサ又はCMOS型イメージセンサ等のイメージセンサである。
 ビームスプリッタ116は、光軸K上で絞り114とマスターレンズ群115との間に配置されている。ビームスプリッタ116は、撮像光学系に入射し絞り114を通過した被写体光の一部(例えば被写体光の80%)をそのまま透過させ、この被写体光の一部を除いた残り(例えば被写体光の20%)を光軸Kに対して直交する方向に反射面116aにて反射させる。ビームスプリッタ116の位置は図19に示したものに限らず、光軸K上で撮像光学系の最も被写体側にあるレンズよりも後ろに配置されていればよい。
 ミラー117は、ビームスプリッタ116の反射面116aで反射された光の光路上に配置されており、この光を反射させてAFユニット121の集光レンズ118に入射させる。
 集光レンズ118は、ミラー117で反射した光を集光する。
 セパレータレンズ119は、図21中の破線内に拡大正面図を示すように、撮像光学系の光軸を挟んで一方向(図21の例では水平方向)に並べた配置された2つのレンズ19R及びレンズ19Lから構成される。
 集光レンズ118によって集光された被写体光は、これら2つのレンズ19R,19Lの各々を通過して、撮像素子120の受光面(複数の画素が配置された面)の異なる位置に結像する。つまり、撮像素子120の受光面には、一方向にずれた一対の被写体光像と、一方向に直交する方向にずれた一対の被写体光像とが結像する。
 ビームスプリッタ116、ミラー117、集光レンズ118、及びセパレータレンズ19は、撮像光学系を通して被写体光像を撮像するカメラ装置300の撮像素子310に、撮像光学系に入射する被写体光の一部を入射させ、この被写体光の一部を除いた残りを撮像素子120に入射させる光学素子として機能する。なお、ミラー117を削除し、ビームスプリッタ116で反射された光を集光レンズ118に直接入射させる構成であってもよい。
 撮像素子120は、受光面に複数の画素が二次元状に配置されたエリアセンサであり、受光面に結像した2つの被写体光像の各々に応じた画像信号を出力する。つまり、撮像素子120は、撮像光学系によって結像される1つの被写体光像に対し、水平方向にずれた一対の画像信号を出力する。撮像素子120としてエリアセンサを使うことで、ラインセンサを用いる構成と比較して、ラインセンサ同士の位置を精密に合わせる難しさを回避することができる。
 撮像素子120に含まれる画素のうち、水平方向にずれた一対の画像信号の一方を出力する各画素は、撮像光学系の瞳領域の水平方向に並ぶ異なる2つの部分を通過した一対の光束のうち一方の光束を受光し受光量に応じた信号を検出する第一の信号検出部を構成している。
 撮像素子120に含まれる画素のうち、水平方向にずれた一対の画像信号の他方を出力する各画素は、撮像光学系の瞳領域の水平方向に並ぶ異なる2つの部分を通過した一対の光束のうち他方の光束を受光し受光量に応じた信号を検出する第二の信号検出部を構成している。
 ここでは撮像素子120をエリアセンサとしているが、撮像素子120の代わりに、第一の信号検出部を構成する画素が水平方向に複数配列されたラインセンサをレンズ19Rと対向する位置に配置し、第二の信号検出部を構成する画素が水平方向に複数配列されたラインセンサをレンズ19Lと対向する位置に配置した構成であってもよい。
 カメラ装置300は、レンズ装置100の光軸K上に配置されたCCD型イメージセンサ又はCMOS型イメージセンサ等の撮像素子310と、撮像素子310により被写体光像を撮像して得られる画像信号を処理して撮像画像データを生成する画像処理部320と、を備える。
 レンズ装置100のブロック構成は、図1のレンズ装置と同様であり、フォーカスレンズを駆動する駆動部と、この駆動部を制御する制御部と、を備える。そして、この制御部が、システム制御部11A、11B、11Cのいずれかとして機能する。
 ただし、この制御部に入力される第一の信号群と第二の信号群は、撮像素子120の第一の信号検出部及び第二の信号検出部から出力される信号である。このカメラシステムでは、レンズ装置100の制御部が合焦制御装置として機能する。
 業務用のカメラシステムは、動画撮像が基本の使い方となる。このため、図1~図20で説明したデジタルカメラのシステム制御部11,11A,11B,11Cによる合焦制御が特に有効となる。
 ここまではデジタルカメラの放送用のカメラシステムを例にしたが、以下では、撮像装置としてカメラ付のスマートフォンの実施形態について説明する。
 図22は、本発明の撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図22に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。
 なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。
 図23は、図22に示すスマートフォン200の構成を示すブロック図である。図23に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信又は、Webデータやストリーミングデータなどの受信を行う。
 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)又は文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
 図22に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。また、図22に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
 操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図22に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部212は、主制御部220の制御プログラム又は制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ又はダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。
 なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、トゥース(etooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)又はSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。
 外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラム又は制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部220は、受信データ又はダウンロードしたストリーミングデータなどの画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
 更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又は、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作又は、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又は、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記録媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。
 カメラ部208によって生成された撮像画像データは、記憶部212に記録したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。
 図22に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。
 また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記憶部212に記録したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。
 以上のような構成のスマートフォン200においても、レンズ装置40を装着可能なアクセサリを提供し、カメラ部208の撮像素子として撮像素子5を用い、図9、図10、図13、図14、図15、図17、図19、又は、図20に例示した処理を行うことで、高精度な合焦制御を行うことができる。
 以上説明したように、本明細書には以下の事項が開示されている。
 開示された合焦制御装置は、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部と、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御部と、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御部により制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御部と、を備える合焦制御装置。
 開示された合焦制御装置は、上記複数の信号検出部は、上記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、上記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、上記複数の第一の信号検出部から出力された第一の信号群と、上記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出部を更に備え、上記レンズ駆動制御部は、上記位相差量に基づいて上記移動許可範囲内で上記フォーカスレンズを移動させ、上記移動許可範囲制御部は、上記位相差量に基づいてフォーカスレンズが移動される前の上記フォーカスレンズの第一の位置と、上記位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、上記移動許可範囲を広くする合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記第一の位置を起点とする光軸方向の前後の範囲を上記移動許可範囲として設定し、更に、上記目標合焦位置が上記第一の位置よりも上記撮像光学系の光軸方向の一方の方向側にある状態が閾値回以上連続する場合には、上記移動許可範囲のうち上記第一の位置よりも上記一方の方向側の範囲を、上記第一の位置よりも上記光軸方向の他方の方向側の範囲よりも大きくする合焦制御装置。
 開示された合焦制御装置は、上記撮像光学系の被写界深度の情報を取得する被写界深度情報取得部を更に備え、上記移動許可範囲制御部は、上記情報に基づく被写界深度が浅いほど、上記移動許可範囲を広くする合焦制御装置。
 開示された合焦制御装置は、上記撮像光学系は絞りを含み、上記被写界深度情報取得部は、上記絞りの絞り値を上記被写界深度の情報として取得する合焦制御装置。
 開示された合焦制御装置は、上記撮像光学系は焦点距離を変更するためのズームレンズを含み、上記被写界深度情報取得部は、上記撮像光学系の焦点距離を上記被写界深度の情報として取得する合焦制御装置。
 開示された合焦制御装置は、上記複数の信号検出部は、上記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、上記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、上記複数の第一の信号検出部から出力された第一の信号群と、上記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出部を更に備え、上記レンズ駆動制御部は、上記位相差量に基づいて上記移動許可範囲内で上記フォーカスレンズを移動させ、上記被写界深度情報取得部は、上記位相差量に基づいて被写体距離を算出し、算出した被写体距離を上記被写界深度の情報として取得する合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記撮像光学系を通して被写体を撮像する撮像素子により撮像して得られる撮像画像データを取得し、上記撮像画像データに基づいて、上記複数の信号検出部により撮像されている被写体の認識を行い、目標被写体とは別の被写体が認識された場合には、上記目標被写体のみが認識された場合よりも上記移動許可範囲を狭くする合焦制御装置。
 開示された合焦制御装置は、上記撮像光学系による撮像範囲の変化を検出する撮像範囲変化検出部を更に備え、上記移動許可範囲制御部は、上記撮像範囲変化検出部により検出された撮像範囲の変化の状態に基づいて、上記移動許可範囲を制御する合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記撮像範囲変化検出部により検出された撮像範囲の変化量が範囲閾値以上の場合に、上記撮像範囲の変化量が上記範囲閾値未満の場合よりも上記移動許可範囲を広くする合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記撮像範囲の変化量が上記範囲閾値以上の場合には、上記移動許可範囲を上記第一の範囲にする合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記撮像範囲変化検出部により検出された撮像範囲の変化速度が速度閾値以上の場合に、上記撮像範囲の変化速度が上記速度閾値未満の場合よりも上記移動許可範囲を広くする合焦制御装置。
 開示された合焦制御装置は、上記移動許可範囲制御部は、上記撮像範囲の変化速度が上記速度閾値以上の場合には、上記移動許可範囲を上記第一の範囲にする合焦制御装置。
 開示されたレンズ装置は、上記合焦制御装置と、上記複数の信号検出部に光を入射するためのフォーカスレンズを含む撮像光学系と、を備えるレンズ装置。
 開示された撮像装置は、上記合焦制御装置を備える撮像装置。
 開示された合焦制御方法は、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて上記フォーカスレンズの位置を制御する合焦制御方法であって、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御ステップにより制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備える合焦制御方法。
 開示された合焦制御方法は、上記複数の信号検出部は、上記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、上記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、上記複数の第一の信号検出部から出力された第一の信号群と、上記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出ステップを更に備え、上記レンズ駆動制御ステップは、上記位相差量に基づいて上記移動許可範囲内で上記フォーカスレンズを移動させ、上記移動許可範囲制御ステップは、上記位相差量に基づいてフォーカスレンズが移動される前の上記フォーカスレンズの第一の位置と、上記位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、上記移動許可範囲を広くする合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記第一の位置を起点とする光軸方向の前後の範囲を上記移動許可範囲として設定し、更に、上記目標合焦位置が上記第一の位置よりも上記撮像光学系の光軸方向の一方の方向側にある状態が閾値回以上連続する場合には、上記移動許可範囲のうち上記第一の位置よりも上記一方の方向側の範囲を、上記第一の位置よりも上記光軸方向の他方の方向側の範囲よりも大きくする合焦制御方法。
 開示された合焦制御方法は、上記撮像光学系の被写界深度の情報を取得する被写界深度情報取得ステップを更に備え、上記移動許可範囲制御ステップは、上記情報に基づく被写界深度が浅いほど、上記移動許可範囲を広くする合焦制御方法。
 開示された合焦制御方法は、上記撮像光学系は絞りを含み、上記被写界深度情報取得ステップは、上記絞りの絞り値を上記被写界深度の情報として取得する合焦制御方法。
 開示された合焦制御方法は、上記撮像光学系は焦点距離を変更するためのズームレンズを含み、上記被写界深度情報取得ステップは、上記撮像光学系の焦点距離を上記被写界深度の情報として取得する合焦制御方法。
 開示された合焦制御方法は、上記複数の信号検出部は、上記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、上記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、上記複数の第一の信号検出部から出力された第一の信号群と、上記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出ステップと、上記位相差量に基づいて被写体距離を算出する被写体距離算出ステップと、を更に備え、上記レンズ駆動制御ステップは、上記位相差量に基づいて上記移動許可範囲内で上記フォーカスレンズを移動させ、上記被写界深度情報取得ステップは、上記被写体距離算出ステップにより算出された被写体距離を上記被写界深度の情報として取得する合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記撮像光学系を通して被写体を撮像する撮像素子により撮像して得られる撮像画像データを取得し、上記撮像画像データに基づいて、上記複数の信号検出部により撮像されている被写体の認識を行い、目標被写体とは別の被写体が認識された場合には、上記目標被写体のみが認識された場合よりも上記移動許可範囲を狭くする合焦制御方法。
 開示された合焦制御方法は、上記撮像光学系による撮像範囲の変化を検出する撮像範囲変化検出ステップを更に備え、上記移動許可範囲制御ステップは、上記撮像範囲変化検出ステップにより検出された撮像範囲の変化の状態に基づいて、上記移動許可範囲を制御する合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記撮像範囲変化検出ステップにより検出された撮像範囲の変化量が範囲閾値以上の場合に、上記撮像範囲の変化量が上記範囲閾値未満の場合よりも上記移動許可範囲を広くする合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記撮像範囲の変化量が上記範囲閾値以上の場合には、上記移動許可範囲を上記第一の範囲にする合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記撮像範囲変化検出ステップにより検出された撮像範囲の変化速度が速度閾値以上の場合に、上記撮像範囲の変化速度が上記速度閾値未満の場合よりも上記移動許可範囲を広くする合焦制御方法。
 開示された合焦制御方法は、上記移動許可範囲制御ステップは、上記撮像範囲の変化速度が上記速度閾値以上の場合には、上記移動許可範囲を上記第一の範囲にする合焦制御方法。
 開示された合焦制御プログラムは、第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて上記フォーカスレンズの位置を制御する合焦制御方法をコンピュータに実行させるための合焦制御プログラムであって、上記合焦制御方法は、上記第一の範囲に設定される上記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、上記複数の信号検出部から出力された信号群に基づいて、上記移動許可範囲制御ステップにより制御された移動許可範囲内で上記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備える合焦制御プログラム。
 本発明は、放送用のテレビカメラ又はデジタルカメラ等に適用して利便性が高く、有効である。
 以上、本発明を特定の実施形態によって説明したが、本発明はこの実施形態に限定されるものではなく、開示された発明の技術思想を逸脱しない範囲で種々の変更が可能である。
 本出願は、2015年9月30日出願の日本特許出願(特願2015-194238)に基づくものであり、その内容はここに取り込まれる。
1 撮像レンズ
2 絞り
4 レンズ制御部
40 レンズ装置
5 撮像素子
50 受光面
51 画素
52,52A,52B 位相差検出用画素
53 AFエリア
c 開口
X 行方向
Y 列方向
6 アナログ信号処理部
7 アナログデジタル変換回路
8 レンズ駆動部
9 絞り駆動部
10 撮像素子駆動部
11,11A,11B,11C システム制御部
11a 位相差検出部
11b、11bA、11bB、11bC 移動許可範囲制御部
11c レンズ駆動制御部
11d 被写界深度情報取得部
11g 撮像範囲変化検出部
14 操作部
15 メモリ制御部
16 メインメモリ
17 デジタル信号処理部
18 圧縮伸長処理部
20 外部メモリ制御部
21 記録媒体
22 表示制御部
23 表示部
24 制御バス
25 データバス
x(1)~x(10) 目標合焦位置
100 レンズ装置
111 フォーカスレンズ
112、113 ズームレンズ
114 絞り
115 マスターレンズ群
116 ビームスプリッタ
116a 反射面
117 ミラー
118 集光レンズ
119 セパレータレンズ
19L,19R レンズ
120 撮像素子
121 ユニット
300 カメラ装置
310 撮像素子
320 画像処理部
K 光軸
200 スマートフォン
201 筐体
202 表示パネル
203 操作パネル
204 表示入力部
205 スピーカ
206 マイクロホン
207 操作部
208 カメラ部
210 無線通信部
211 通話部
212 記憶部
213 外部入出力部
214 GPS受信部
215 モーションセンサ部
216 電源部
217 内部記憶部
218 外部記憶部
220 主制御部
ST1~STn GPS衛星

Claims (29)

  1.  第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部と、
     前記第一の範囲に設定される前記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御部と、
     前記複数の信号検出部から出力された信号群に基づいて、前記移動許可範囲制御部により制御された移動許可範囲内で前記フォーカスレンズを移動させるレンズ駆動制御部と、を備える合焦制御装置。
  2.  請求項1記載の合焦制御装置であって、
     前記複数の信号検出部は、前記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、前記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、
     前記複数の第一の信号検出部から出力された第一の信号群と、前記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出部を更に備え、
     前記レンズ駆動制御部は、前記位相差量に基づいて前記移動許可範囲内で前記フォーカスレンズを移動させ、
     前記移動許可範囲制御部は、前記位相差量に基づいてフォーカスレンズが移動される前の前記フォーカスレンズの第一の位置と、前記位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、前記移動許可範囲を広くする合焦制御装置。
  3.  請求項2記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記第一の位置を起点とする光軸方向の前後の範囲を前記移動許可範囲として設定し、更に、前記目標合焦位置が前記第一の位置よりも前記撮像光学系の光軸方向の一方の方向側にある状態が閾値回以上連続する場合には、前記移動許可範囲のうち前記第一の位置よりも前記一方の方向側の範囲を、前記第一の位置よりも前記光軸方向の他方の方向側の範囲よりも大きくする合焦制御装置。
  4.  請求項1記載の合焦制御装置であって、
     前記撮像光学系の被写界深度の情報を取得する被写界深度情報取得部を更に備え、
     前記移動許可範囲制御部は、前記情報に基づく被写界深度が浅いほど、前記移動許可範囲を広くする合焦制御装置。
  5.  請求項4記載の合焦制御装置であって、
     前記撮像光学系は絞りを含み、
     前記被写界深度情報取得部は、前記絞りの絞り値を前記被写界深度の情報として取得する合焦制御装置。
  6.  請求項4又は5記載の合焦制御装置であって、
     前記撮像光学系は焦点距離を変更するためのズームレンズを含み、
     前記被写界深度情報取得部は、前記撮像光学系の焦点距離を前記被写界深度の情報として取得する合焦制御装置。
  7.  請求項4~6のいずれか1項記載の合焦制御装置であって、
     前記複数の信号検出部は、前記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、前記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、
     前記複数の第一の信号検出部から出力された第一の信号群と、前記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出部を更に備え、
     前記レンズ駆動制御部は、前記位相差量に基づいて前記移動許可範囲内で前記フォーカスレンズを移動させ、
     前記被写界深度情報取得部は、前記位相差量に基づいて被写体距離を算出し、算出した被写体距離を前記被写界深度の情報として取得する合焦制御装置。
  8.  請求項1記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記撮像光学系を通して被写体を撮像する撮像素子により撮像して得られる撮像画像データを取得し、前記撮像画像データに基づいて、前記複数の信号検出部により撮像されている被写体の認識を行い、目標被写体とは別の被写体が認識された場合には、前記目標被写体のみが認識された場合よりも前記移動許可範囲を狭くする合焦制御装置。
  9.  請求項1記載の合焦制御装置であって、
     前記撮像光学系による撮像範囲の変化を検出する撮像範囲変化検出部を更に備え、
     前記移動許可範囲制御部は、前記撮像範囲変化検出部により検出された撮像範囲の変化の状態に基づいて、前記移動許可範囲を制御する合焦制御装置。
  10.  請求項9記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記撮像範囲変化検出部により検出された撮像範囲の変化量が範囲閾値以上の場合に、前記撮像範囲の変化量が前記範囲閾値未満の場合よりも前記移動許可範囲を広くする合焦制御装置。
  11.  請求項10記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記撮像範囲の変化量が前記範囲閾値以上の場合には、前記移動許可範囲を前記第一の範囲にする合焦制御装置。
  12.  請求項9記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記撮像範囲変化検出部により検出された撮像範囲の変化速度が速度閾値以上の場合に、前記撮像範囲の変化速度が前記速度閾値未満の場合よりも前記移動許可範囲を広くする合焦制御装置。
  13.  請求項12記載の合焦制御装置であって、
     前記移動許可範囲制御部は、前記撮像範囲の変化速度が前記速度閾値以上の場合には、前記移動許可範囲を前記第一の範囲にする合焦制御装置。
  14.  請求項1~13のいずれか1項記載の合焦制御装置と、
     前記複数の信号検出部に光を入射するためのフォーカスレンズを含む撮像光学系と、を備えるレンズ装置。
  15.  請求項1~13のいずれか1項記載の合焦制御装置を備える撮像装置。
  16.  第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて前記フォーカスレンズの位置を制御する合焦制御方法であって、
     前記第一の範囲に設定される前記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、
     前記複数の信号検出部から出力された信号群に基づいて、前記移動許可範囲制御ステップにより制御された移動許可範囲内で前記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備える合焦制御方法。
  17.  請求項16記載の合焦制御方法であって、
     前記複数の信号検出部は、前記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、前記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、
     前記複数の第一の信号検出部から出力された第一の信号群と、前記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出ステップを更に備え、
     前記レンズ駆動制御ステップは、前記位相差量に基づいて前記移動許可範囲内で前記フォーカスレンズを移動させ、
     前記移動許可範囲制御ステップは、前記位相差量に基づいてフォーカスレンズが移動される前の前記フォーカスレンズの第一の位置と、前記位相差量に基づくフォーカスレンズの目標合焦位置との差分が大きいほど、前記移動許可範囲を広くする合焦制御方法。
  18.  請求項17記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記第一の位置を起点とする光軸方向の前後の範囲を前記移動許可範囲として設定し、更に、前記目標合焦位置が前記第一の位置よりも前記撮像光学系の光軸方向の一方の方向側にある状態が閾値回以上連続する場合には、前記移動許可範囲のうち前記第一の位置よりも前記一方の方向側の範囲を、前記第一の位置よりも前記光軸方向の他方の方向側の範囲よりも大きくする合焦制御方法。
  19.  請求項16記載の合焦制御方法であって、
     前記撮像光学系の被写界深度の情報を取得する被写界深度情報取得ステップを更に備え、
     前記移動許可範囲制御ステップは、前記情報に基づく被写界深度が浅いほど、前記移動許可範囲を広くする合焦制御方法。
  20.  請求項19記載の合焦制御方法であって、
     前記撮像光学系は絞りを含み、
     前記被写界深度情報取得ステップは、前記絞りの絞り値を前記被写界深度の情報として取得する合焦制御方法。
  21.  請求項19又は20記載の合焦制御方法であって、
     前記撮像光学系は焦点距離を変更するためのズームレンズを含み、
     前記被写界深度情報取得ステップは、前記撮像光学系の焦点距離を前記被写界深度の情報として取得する合焦制御方法。
  22.  請求項19~21のいずれか1項記載の合焦制御方法であって、
     前記複数の信号検出部は、前記撮像光学系の瞳領域の一方向に並ぶ異なる部分を通過した一対の光束の一方を受光し受光量に応じた信号を検出する複数の第一の信号検出部と、前記一対の光束の他方を受光し受光量に応じた信号を検出する複数の第二の信号検出部と、を含み、
     前記複数の第一の信号検出部から出力された第一の信号群と、前記複数の第二の信号検出部から出力された第二の信号群との位相差量を検出する位相差検出ステップと、
     前記位相差量に基づいて被写体距離を算出する被写体距離算出ステップと、を更に備え、
     前記レンズ駆動制御ステップは、前記位相差量に基づいて前記移動許可範囲内で前記フォーカスレンズを移動させ、
     前記被写界深度情報取得ステップは、前記被写体距離算出ステップにより算出された被写体距離を前記被写界深度の情報として取得する合焦制御方法。
  23.  請求項16記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記撮像光学系を通して被写体を撮像する撮像素子により撮像して得られる撮像画像データを取得し、前記撮像画像データに基づいて、前記複数の信号検出部により撮像されている被写体の認識を行い、目標被写体とは別の被写体が認識された場合には、前記目標被写体のみが認識された場合よりも前記移動許可範囲を狭くする合焦制御方法。
  24.  請求項16記載の合焦制御方法であって、
     前記撮像光学系による撮像範囲の変化を検出する撮像範囲変化検出ステップを更に備え、
     前記移動許可範囲制御ステップは、前記撮像範囲変化検出ステップにより検出された撮像範囲の変化の状態に基づいて、前記移動許可範囲を制御する合焦制御方法。
  25.  請求項24記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記撮像範囲変化検出ステップにより検出された撮像範囲の変化量が範囲閾値以上の場合に、前記撮像範囲の変化量が前記範囲閾値未満の場合よりも前記移動許可範囲を広くする合焦制御方法。
  26.  請求項25記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記撮像範囲の変化量が前記範囲閾値以上の場合には、前記移動許可範囲を前記第一の範囲にする合焦制御方法。
  27.  請求項24記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記撮像範囲変化検出ステップにより検出された撮像範囲の変化速度が速度閾値以上の場合に、前記撮像範囲の変化速度が前記速度閾値未満の場合よりも前記移動許可範囲を広くする合焦制御方法。
  28.  請求項27記載の合焦制御方法であって、
     前記移動許可範囲制御ステップは、前記撮像範囲の変化速度が前記速度閾値以上の場合には、前記移動許可範囲を前記第一の範囲にする合焦制御方法。
  29.  第一の範囲で光軸方向に移動可能なフォーカスレンズを含む撮像光学系を通過した光束を受光し受光量に応じた信号を検出する複数の信号検出部を用いて前記フォーカスレンズの位置を制御する合焦制御方法をコンピュータに実行させるための合焦制御プログラムであって、
     前記合焦制御方法は、前記第一の範囲に設定される前記フォーカスレンズの移動を許可する移動許可範囲を制御する移動許可範囲制御ステップと、前記複数の信号検出部から出力された信号群に基づいて、前記移動許可範囲制御ステップにより制御された移動許可範囲内で前記フォーカスレンズを移動させるレンズ駆動制御ステップと、を備える合焦制御プログラム。
PCT/JP2016/077722 2015-09-30 2016-09-20 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置 WO2017057104A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680058230.0A CN108139562B (zh) 2015-09-30 2016-09-20 对焦控制装置、对焦控制方法、存储介质、镜头装置、摄像装置
JP2017543166A JP6255542B2 (ja) 2015-09-30 2016-09-20 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
US15/937,874 US10277802B2 (en) 2015-09-30 2018-03-28 Focusing control device, focusing control method, focusing control program, lens device, and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015194238 2015-09-30
JP2015-194238 2015-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/937,874 Continuation US10277802B2 (en) 2015-09-30 2018-03-28 Focusing control device, focusing control method, focusing control program, lens device, and imaging device

Publications (1)

Publication Number Publication Date
WO2017057104A1 true WO2017057104A1 (ja) 2017-04-06

Family

ID=58423698

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077722 WO2017057104A1 (ja) 2015-09-30 2016-09-20 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置

Country Status (4)

Country Link
US (1) US10277802B2 (ja)
JP (1) JP6255542B2 (ja)
CN (1) CN108139562B (ja)
WO (1) WO2017057104A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066542A (ja) * 2017-09-28 2019-04-25 キヤノン株式会社 撮像装置及びその制御方法
US20200196281A1 (en) * 2016-11-14 2020-06-18 Telefonaktiebolaget Lm Ericsson (Publ) Resource allocation for bandwidth limited operation

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6778910B1 (ja) * 2019-06-27 2020-11-04 パナソニックIpマネジメント株式会社 撮像装置
CN112335227A (zh) * 2019-08-21 2021-02-05 深圳市大疆创新科技有限公司 控制装置、摄像系统、控制方法以及程序
CN113225476A (zh) * 2021-03-24 2021-08-06 上海宏英智能科技股份有限公司 一种基于can总线的摄像头变焦系统及控制方法
CN112738386A (zh) * 2021-03-30 2021-04-30 北京芯海视界三维科技有限公司 一种传感器、拍摄模组、图像获取方法
CN112799264B (zh) * 2021-04-14 2021-08-17 苏州天准科技股份有限公司 基于光学影像测量设备的快速聚焦方法及聚焦设备
CN113630555B (zh) * 2021-08-20 2023-06-30 RealMe重庆移动通信有限公司 拍摄方法、拍摄装置、终端及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207160A (ja) * 2000-11-09 2002-07-26 Asahi Optical Co Ltd デジタルカメラ
JP2006053545A (ja) * 2004-07-12 2006-02-23 Canon Inc 光学機器
JP2014126858A (ja) * 2012-12-27 2014-07-07 Canon Inc 撮像装置およびその制御方法
JP2014132321A (ja) * 2013-01-07 2014-07-17 Canon Inc 焦点調節装置及び方法
JP2015022157A (ja) * 2013-07-19 2015-02-02 キヤノン株式会社 自動焦点調整制御装置及びそれを有するレンズ装置、撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3465330B2 (ja) 1993-12-22 2003-11-10 株式会社ニコン マルチエリア焦点調節カメラ
US7469098B2 (en) 2004-07-12 2008-12-23 Canon Kabushiki Kaisha Optical apparatus
JP4845628B2 (ja) * 2006-08-01 2011-12-28 キヤノン株式会社 焦点調節装置、撮像装置、及び焦点調節方法
JP4827662B2 (ja) * 2006-08-31 2011-11-30 Hoya株式会社 焦点調節装置を備えたカメラ
JP2011091664A (ja) * 2009-10-23 2011-05-06 Canon Inc オートフォーカス機能付カメラシステムおよびレンズシステム
JP5328616B2 (ja) 2009-11-16 2013-10-30 富士フイルム株式会社 Af枠自動追尾システム
WO2015118723A1 (ja) * 2014-02-07 2015-08-13 富士フイルム株式会社 撮像装置及び合焦制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207160A (ja) * 2000-11-09 2002-07-26 Asahi Optical Co Ltd デジタルカメラ
JP2006053545A (ja) * 2004-07-12 2006-02-23 Canon Inc 光学機器
JP2014126858A (ja) * 2012-12-27 2014-07-07 Canon Inc 撮像装置およびその制御方法
JP2014132321A (ja) * 2013-01-07 2014-07-17 Canon Inc 焦点調節装置及び方法
JP2015022157A (ja) * 2013-07-19 2015-02-02 キヤノン株式会社 自動焦点調整制御装置及びそれを有するレンズ装置、撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200196281A1 (en) * 2016-11-14 2020-06-18 Telefonaktiebolaget Lm Ericsson (Publ) Resource allocation for bandwidth limited operation
JP2019066542A (ja) * 2017-09-28 2019-04-25 キヤノン株式会社 撮像装置及びその制御方法

Also Published As

Publication number Publication date
JPWO2017057104A1 (ja) 2017-12-28
CN108139562B (zh) 2020-07-03
US20180220059A1 (en) 2018-08-02
JP6255542B2 (ja) 2017-12-27
US10277802B2 (en) 2019-04-30
CN108139562A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
JP6255542B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP5982601B2 (ja) 撮像装置及び合焦制御方法
JP6307526B2 (ja) 撮像装置及び合焦制御方法
JP6028112B2 (ja) 撮像装置及び合焦制御方法
JP6251851B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP5872122B2 (ja) 撮像装置及び合焦制御方法
JP5982600B2 (ja) 撮像装置及び合焦制御方法
JPWO2015122061A1 (ja) 撮像装置及び合焦制御方法
JP5990665B2 (ja) 撮像装置及び合焦制御方法
JP6364560B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び、合焦制御プログラム
WO2018008243A1 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
WO2017209252A1 (ja) 撮像装置、合焦制御方法、及び、合焦制御プログラム
WO2015146229A1 (ja) 撮像装置及び合焦制御方法
JP6171105B2 (ja) 撮像装置及び合焦制御方法
JP6446599B2 (ja) 合焦制御装置、レンズ装置、撮像装置、合焦制御方法、合焦制御プログラム
WO2014080682A1 (ja) 撮像装置及びその合焦方法と合焦制御プログラム
WO2015146228A1 (ja) 撮像装置及び合焦制御方法
JP6236580B2 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
WO2022145322A1 (ja) 撮像装置、フォーカス制御方法、及び、フォーカス制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16851278

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017543166

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16851278

Country of ref document: EP

Kind code of ref document: A1