WO2020158200A1 - 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム - Google Patents

撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム Download PDF

Info

Publication number
WO2020158200A1
WO2020158200A1 PCT/JP2019/048411 JP2019048411W WO2020158200A1 WO 2020158200 A1 WO2020158200 A1 WO 2020158200A1 JP 2019048411 W JP2019048411 W JP 2019048411W WO 2020158200 A1 WO2020158200 A1 WO 2020158200A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
face
face area
detected
captured image
Prior art date
Application number
PCT/JP2019/048411
Other languages
English (en)
French (fr)
Inventor
和也 沖山
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020569426A priority Critical patent/JP7085651B2/ja
Publication of WO2020158200A1 publication Critical patent/WO2020158200A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Definitions

  • a control device for an image pickup apparatus includes a face detection processing unit that detects a first face area that is a face area from a first captured image output from an image pickup element, and the face detection processing unit. In the case where the first face area is not detected by the second face output from the image sensor before the first captured image and the first face area has been detected by the face detection processing unit.
  • a face tracking processing unit that performs a face tracking process that searches for a second face region similar to the first face region in the first captured image with the first face region included in the captured image as a reference;
  • a first control unit that controls a parameter that is either imaging exposure, display exposure when a captured image output from the image sensor is displayed, or white balance when the image sensor captures an image;
  • the control unit determines the parameter based on the image characteristics of the first face area, and determines the first captured image from the first captured image.
  • the parameters are determined based on the image characteristics of the first face area that have been previously detected by the face detection processing unit.
  • An imaging device includes the control device for the imaging device and the imaging element.
  • the control step when the first face area is detected from the first captured image, determines the parameter based on the image characteristic of the first face area, and determines the parameter from the first captured image.
  • the parameters are determined based on the image characteristics of the first face area previously detected by the face detection processing step.
  • a control program for an image pickup apparatus includes a face detection processing step of detecting a first face area, which is a face area, from a first captured image output from an image sensor, and the face detection processing step. In the case where the first face area is not detected by the second face output from the image sensor before the first captured image and the first face area has been detected by the face detection processing step.
  • the first control step when the first face area is detected from the first captured image, determines the parameters based on the image characteristics of the first face area, When the second face area is detected from the first captured image, the parameter is determined based on the image characteristics of the first face area that has been previously detected by the face detection processing step. ..
  • control apparatus of the imaging device the control method of the imaging device, and the control program of the imaging device which enable high-quality moving image imaging can be provided.
  • FIG. 2 is a functional block diagram of a system control unit 11 of the digital camera 100 shown in FIG. 1.
  • 6 is a flowchart for explaining the operation of the system control unit 11.
  • 11 is a flowchart for explaining the operation of the system control unit 11 of the digital camera 100 of the third modified example.
  • 13 is a flowchart for explaining the operation of the system control unit 11 of the digital camera 100 of the fourth modified example.
  • It is a figure which shows the functional block of the system control part 11 of the digital camera 100 of a 5th modification. It is a flow chart for explaining operation of system control part 11 of digital camera 100 of the 5th modification.
  • FIG. 1 illustrates an appearance of a smartphone 200 that is an embodiment of an image pickup apparatus of the present invention. It is a block diagram which shows the structure of the smart phone 200 shown in FIG.
  • the digital camera shown in FIG. 1 includes a lens device 40 having an imaging lens 1, a diaphragm 2, a lens controller 4, a lens driver 8, and a diaphragm driver 9.
  • the lens device 40 may be detachable from the digital camera 100, or may be integrated with the digital camera 100.
  • the image pickup lens 1 and the diaphragm 2 constitute an image pickup optical system, and the image pickup optical system includes at least a focus lens movable in the optical axis direction.
  • the focus lens is a lens for adjusting the focus of the image pickup optical system, and is composed of a single lens or a plurality of lenses. By moving the focus lens in the optical axis direction, the position of the principal point of the focus lens changes along the optical axis direction, and the focus position on the subject side is changed.
  • a liquid lens capable of changing the position of the principal point in the optical axis direction by electrical control may be used.
  • the lens controller 4 of the lens device 40 is configured to be capable of communicating with the system controller 11 of the digital camera 100 by wire or wirelessly.
  • the lens control unit 4 drives the focus lens included in the imaging lens 1 via the lens drive unit 8 to change the position of the principal point of the focus lens, or the diaphragm drive unit.
  • the aperture amount of the diaphragm 2 is controlled via 9.
  • the digital camera 100 is further connected to an image pickup element 5 such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor for picking up an image of a subject through an image pickup optical system, and an output of an image pickup element 5.
  • the analog signal processing unit 6 that performs analog signal processing such as correlated double sampling processing and the analog-digital conversion circuit 7 that converts the analog signal output from the analog signal processing unit 6 into a digital signal are provided.
  • the analog signal processing unit 6 and the analog-digital conversion circuit 7 are controlled by the system control unit 11.
  • the analog signal processing unit 6 and the analog-digital conversion circuit 7 may be integrated with the image sensor 5.
  • the image pickup device 5 has an image pickup surface in which a plurality of pixels are two-dimensionally arranged, and an object image formed on the image pickup surface by an image pickup optical system is converted into an electric signal (pixel signal) by the plurality of pixels. And output.
  • pixel signal an electric signal
  • a set of pixel signals output from each pixel of the image sensor 5 is referred to as a captured image.
  • the system control unit 11 that integrally controls the entire electric control system of the digital camera 100 drives the image sensor 5 via the image sensor drive unit 10 and outputs a subject image captured through the image capturing optical system of the lens device 40 as a captured image.
  • An instruction signal from the user is input to the system control unit 11 through the operation unit 14.
  • the system control unit 11 centrally controls the entire digital camera 100, and its hardware structure is various processors that execute programs to perform processing.
  • a programmable logic that is a general-purpose processor that executes a program to perform various processes, such as a CPU (Central Processing Unit) and an FPGA (Field Programmable Gate Array), whose circuit configuration can be changed after manufacturing It includes a device (Programmable Logic Device: PLD), a dedicated electric circuit that is a processor having a circuit configuration specifically designed to execute a specific process such as an ASIC (Application Specific Integrated Circuit), and the like.
  • PLD Programmable Logic Device
  • the system control unit 11 may be configured by one of various processors or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). May be done.
  • the electric control system of the digital camera 100 includes a main memory 16 configured by a RAM (Random Access Memory), and a memory control unit 15 that controls data storage in the main memory 16 and data reading from the main memory 16. And a digital signal processing unit 17 that performs digital signal processing on the captured image output from the analog-digital conversion circuit 7 to generate captured image data according to various formats such as JPEG (Joint Photographic Experts Group) format, and a storage
  • An external memory control unit 20 that controls data storage in the medium 21 and data reading from the storage medium 21, a display unit 23 configured by an organic EL (electroluminescence) display or a liquid crystal display, and a display of the display unit 23 are displayed.
  • the display control part 22 which controls is provided.
  • the storage medium 21 is a semiconductor memory such as a flash memory built in the digital camera 100 or a portable semiconductor memory that can be attached to and detached from the digital camera 100.
  • the memory control unit 15, the digital signal processing unit 17, the external memory control unit 20, and the display control unit 22 are mutually connected by a control bus 24 and a data bus 25, and are controlled by a command from the system control unit 11.
  • FIG. 2 is a functional block diagram of the system control unit 11 of the digital camera 100 shown in FIG.
  • the system control unit 11 functions as a face detection processing unit 11A, a face tracking processing unit 11B, a face evaluation value calculation unit 11C, and a first control unit 11D by executing a program including a control program.
  • the system control unit 11 in this specification constitutes a control device of the image pickup apparatus.
  • the face detection processing unit 11A performs a face detection process of detecting a first face area indicating a face of a person or an animal from a captured image output from the image sensor 5 when capturing a moving image for live view image display or the like.
  • the face tracking processing unit 11B executes the following when the detection of the first face area fails (non-detection state in which the first face area cannot be detected) due to the above face detection processing on the captured image that is the face detection target. Face tracking processing is performed.
  • the first face area detected from the first captured image output from the image sensor 5 before the captured image to be detected (referred to as the second captured image) is set as the reference image.
  • the second captured image is searched for a similar region similar to the reference image, and the similar region in the second captured image is detected as the second face region indicating the face. If the first face area is not detected before the second captured image, or if a similar area similar to the reference image cannot be searched from the second captured image, the face tracking process fails. Therefore, it is determined that the second captured image has no face area.
  • the face evaluation value calculation unit 11C calculates the first evaluation value of the first face area, and when the second face area is detected from the captured image. Calculates a second evaluation value of this second face area.
  • the evaluation value of the face area is an index indicating the reliability of the face in the face area or the importance of the face included in the face area.
  • the reliability of the face in the face area indicates how accurately the face area is detected as an area including the face. For example, the higher the proportion of faces in the face area, the higher the reliability of the face area.
  • the importance of the face included in the face area is represented by, for example, the ratio of the face area in the captured image in which the face area is detected. The higher the ratio of the face area in the captured image, the higher the importance of the face area.
  • the first control unit 11D controls the image capturing exposure of the image sensor 5 during moving image capturing for live view image display and the like, based on the photometric value indicating the luminance characteristic of the captured image.
  • FIG. 3 is a flowchart for explaining the operation of the system control unit 11.
  • the face detection processing unit 11A causes the captured face G1 to detect the first face.
  • Face detection processing for detecting an area is performed (step S1).
  • the face detection processing when the first face area is detected from the captured image G1 (step S2: YES), the result with the first face area is stored in the memory (step S3).
  • the face tracking processing is performed on the captured image G1 (step S4).
  • step S5 if the second region is detected by the face tracking process, in other words, if the face tracking process is successful (step S5: YES), the result with the second face region is stored in the memory. (Step S6).
  • step S7 when the second face area is not detected from the captured image G1 (step S5: NO), the result of no face area is stored in the memory (step S7).
  • the first control unit 11D After the processing in any one of step S3, step S6, and step S7 is performed, the first control unit 11D refers to the information on the presence/absence of the face area stored in the memory, and detects the face area from the captured image G1. It is determined whether it has been done (step S8). When the face area is not detected from the captured image G1 (step S8: NO), the first control unit 11D calculates the photometric value Bvall of the entire captured image G1, and based on the photometric value Bvall, the moving image is calculated. The proper exposure at the time of image pickup is determined (step S9).
  • step S8 When the face area is detected from the captured image G1 (step S8: YES), the first control unit 11D determines whether the face area detected from the captured image G1 is the first face area. (Step S10). If the face area is not the first face area, that is, the second face area (step S10: NO), the process proceeds to step S13.
  • step S10 When the face area is the first face area (step S10: YES), the first controller 11D calculates the photometric value Bvnew of the first face area detected from the captured image G1 (step S11). Then, the first control unit 11D sets the face photometric value Bvfw, which is the photometric value of the face area used for the exposure calculation at the time of capturing a moving image, to the face photometric value Bvnew (step S12). After step S12, the process proceeds to step S13.
  • step S13 the face evaluation value calculation unit 11C calculates the evaluation value of the face area (first face area or second face area) detected from the captured image G1.
  • the first control unit 11D determines whether the evaluation value calculated in step S13 exceeds a predetermined threshold TH (step S14). When the evaluation value exceeds the threshold value TH (step S14: YES), the first control unit 11D sets the weighting coefficient w of the face photometric value Bvf used for the exposure calculation at the time of capturing a moving image to ⁇ (step S15). ). When the evaluation value is equal to or less than the threshold value TH (step S14: NO), the first control unit 11D sets the weighting coefficient w to ⁇ smaller than ⁇ (step S16). For example, a value larger than 0.5 is set for ⁇ . For example, ⁇ is set to a value smaller than 0.5.
  • the first control unit 11D calculates the photometric value Bvall of the entire captured image G1, calculates the photometric value Bv by the following formula (A), and based on the calculated photometric value Bv. Then, the proper exposure for capturing a moving image is determined (step S17).
  • step S9 or step S17 the system control unit 11 controls the image pickup optical system and the image sensor 5 so that the determined proper exposure is achieved.
  • the above processing is repeatedly performed when capturing a moving image.
  • the face photometric value used in the exposure calculation is determined by the photometric value representing the luminance characteristic of the first face area. Bvf is updated. Therefore, it is possible to capture a moving image so that the first face area has an appropriate brightness.
  • the face photometric value Bvf is not updated and the first face area is detected in the past.
  • the image-capturing exposure is determined using the face photometric value Bvf set at that time. That is, while the face tracking process is being performed, the imaging exposure is fixed to the condition when the face detection process was successful immediately before.
  • the first control unit 11D detects the first face area detected from the captured image G1 and at least one captured image output before the captured image G1. Even if the average (corresponding to the average image characteristic) of the photometric values of the plurality of first face areas including the first face area detected from is calculated and the average value is set as the face photometric value Bvf in step S12. Good. By doing so, the imaging exposure determined in step S17 can be made more appropriate.
  • the first control unit 11D detects the first face area detected from the captured image G1 and at least one captured image output before the captured image G1. For each photometric value of the plurality of first face areas consisting of the first face area detected from, the reliability determination such as presence or absence of overexposed areas or black crushing is performed, and the reliability of the photometric value becomes equal to or higher than a predetermined value. The latest one of them may be set as the face photometric value Bvf in step S12. By doing so, the imaging exposure determined in step S17 can be made more appropriate.
  • the first control unit 11D may control the display exposure of the display unit 23 at the time of capturing a moving image for live view image display or the like based on a photometric value indicating the luminance characteristic of the captured image.
  • the first control unit 11D calculates the photometric value Bvall of the entire captured image G1, and based on the photometric value Bvall, the live view image displayed during video image capturing is displayed.
  • the display exposure is determined (step S9a).
  • the first control unit 11D calculates the face photometric value Bvf, which is the photometric value of the face area used in the calculation of the display exposure of the live view image displayed during moving image capturing, in step S11.
  • the measured photometric value Bvnew is set (step S12a). After step S12a, the process proceeds to step S13.
  • the first control unit 11D may control the white balance at the time of capturing a moving image for displaying a live view image based on the color characteristics of the captured image.
  • the first control unit 11D estimates the color temperature Tall of the subject light source based on the color characteristics of the captured image G1, and the moving image capturing based on this color temperature Tall. The white balance at that time is determined (step S9b).
  • step S10 of FIG. 5 If the determination in step S10 of FIG. 5 is YES, the first control unit 11D estimates the color temperature Tnew of the subject light source based on the color characteristics of the first face area detected from the captured image G1 (step). S11b). Then, the first control unit 11D sets the color temperature Tnew calculated in step S11b to the face color temperature Tf, which is the color temperature of the face area used for calculating the white balance when capturing a moving image (step S12b). After step S12b, the process proceeds to step S13.
  • FIG. 6 is a diagram showing functional blocks of the system controller 11 of the digital camera 100 of the fifth modification.
  • the system control unit 11 illustrated in FIG. 6 executes a program including a control program, thereby performing the face detection processing unit 11A, the face tracking processing unit 11B, the face evaluation value calculation unit 11C, the first control unit 11D, and the second control. It functions as the section 11E. Since the functions of the face detection processing unit 11A, the face tracking processing unit 11B, the face evaluation value calculation unit 11C, and the first control unit 11D are as described above, the description thereof will be omitted.
  • the second control unit 11E controls the exposure for focusing in the image pickup for performing the focus control of the image pickup optical system (referred to as the image pickup for focusing). Specifically, when the first face area is detected from the captured image, the second control unit 11E determines the above-mentioned focusing exposure based on the luminance characteristic of this first face area, When the second face area is detected from the image, the focusing exposure is determined based on the luminance characteristic of the second face area.
  • the second control unit 11E calculates the photometric value Bvnew2 of the second face area detected from the captured image G1 (step S21). Then, the second control unit 11E sets this photometric value Bvnew2 to the face photometric value Bvfa which is the photometric value of the face area used for the calculation of the exposure for focusing (step S22).
  • the second control unit 11E determines whether the evaluation value calculated in step S23 exceeds the threshold value TH (step S24). When the evaluation value exceeds the threshold value TH (step S24: YES), the second controller 11E sets the weighting coefficient w of the face photometric value Bvfa to ⁇ (step S25). When the evaluation value is equal to or less than the threshold value TH (step S24: NO), the second control unit 11E sets the weighting coefficient w to ⁇ (step S26).
  • step S25 or step S26 the second control unit 11E calculates the photometric value Bvall of the entire captured image G1, calculates the photometric value Bv1 by the following formula (C), and based on the calculated photometric value Bv1. Then, the focusing exposure is determined (step S27).
  • the first control unit 11D calculates the photometric value Bv2 by the calculation of the following formula (D), and determines the proper exposure at the time of capturing a moving image based on the calculated photometric value Bv2. Yes (step S28).
  • the value set in step S12 is used as Bvf in the equation (D).
  • the focusing control method at least one of a phase difference AF method and a contrast AF method can be adopted.
  • the system control unit 11 controls the image pickup optical system and the image pickup element 5 so that the image pickup exposure determined above is obtained.
  • the imaging exposure is fixed to the state when the face detection process was successful immediately before, but the focusing exposure is performed.
  • the focusing exposure is determined based on the luminance characteristics of the second face area detected by the face tracking process. That is, the focus exposure is determined based on the actually detected latest luminance characteristic of the face area, and the focus control is performed based on the captured image obtained by capturing the exposure. Therefore, it is possible to focus on the face with high accuracy during AF while suppressing the flicker of the brightness of the moving image or live view image recorded in the storage medium 21, thus improving the quality of the captured image. it can.
  • the fifth modified example can be combined with the first modified example to the fourth modified example.
  • FIG. 9 shows an appearance of a smartphone 200 which is an embodiment of the image pickup apparatus of the present invention.
  • the smartphone 200 illustrated in FIG. 9 includes a flat-plate housing 201, and a display input in which a display panel 202 as a display unit and an operation panel 203 as an input unit are integrated on one surface of the housing 201.
  • the unit 204 is provided.
  • such a casing 201 includes a speaker 205, a microphone 206, an operation unit 207, and a camera unit 208.
  • the structure of the housing 201 is not limited to this, and for example, a structure in which the display unit and the input unit are independent, or a structure having a folding structure or a sliding mechanism can be adopted.
  • FIG. 10 is a block diagram showing the configuration of the smartphone 200 shown in FIG.
  • the main components of the smartphone are a wireless communication unit 210, a display input unit 204, a call unit 211, an operation unit 207, a camera unit 208, a storage unit 212, and an external input/output unit. 213, a GPS (Global Positioning System) reception unit 214, a motion sensor unit 215, a power supply unit 216, and a main control unit 220.
  • a wireless communication function for performing mobile wireless communication via a base station device BS (not shown) and a mobile communication network NW (not shown) is provided.
  • the radio communication unit 210 performs radio communication with the base station device BS accommodated in the mobile communication network NW according to an instruction from the main control unit 220. Using this wireless communication, various file data such as voice data and image data, transmission/reception of electronic mail data and the like, reception of web data or streaming data and the like are performed.
  • the display input unit 204 displays an image (still image and moving image) or character information to visually convey the information to the user, and detects a user operation on the displayed information. It is a so-called touch panel, which includes a display panel 202 and an operation panel 203.
  • the display panel 202 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 203 is a device that is placed so that an image displayed on the display surface of the display panel 202 can be viewed, and detects one or a plurality of coordinates operated by a user's finger or a stylus.
  • a detection signal generated due to the operation is output to the main control unit 220.
  • the main control unit 220 detects the operation position (coordinates) on the display panel 202 based on the received detection signal.
  • the display panel 202 and the operation panel 203 of the smartphone 200 which is illustrated as one embodiment of the image pickup apparatus of the present invention, integrally configures the display input unit 204.
  • 203 is arranged so as to completely cover the display panel 202.
  • the operation panel 203 may have a function of detecting a user operation even in the area outside the display panel 202.
  • the operation panel 203 has a detection area (hereinafter, referred to as a display area) for the overlapping portion that overlaps the display panel 202 and a detection area (hereinafter, a non-display area) for the other outer edge portion that does not overlap the display panel 202. Referred to).
  • the size of the display area and the size of the display panel 202 may be perfectly matched, but they are not necessarily matched. Further, the operation panel 203 may be provided with two sensitive regions of an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 201 and the like.
  • the position detection method adopted in the operation panel 203 includes a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, etc., and any method is adopted. You can also do it.
  • the call unit 211 includes a speaker 205 or a microphone 206, converts a user's voice input through the microphone 206 into voice data that can be processed by the main control unit 220, and outputs the voice data to the main control unit 220, or a wireless communication unit.
  • the audio data received by 210 or the external input/output unit 213 is decoded and output from the speaker 205.
  • the speaker 205 can be mounted on the same surface as the surface on which the display input unit 204 is provided, and the microphone 206 can be mounted on the side surface of the housing 201.
  • the storage unit 212 stores the control program and control data of the main control unit 220, application software, address data in which the name or telephone number of a communication partner is associated, the data of transmitted/received e-mail, Web data downloaded by Web browsing, and download.
  • the content data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 212 includes an internal storage unit 217 built in the smartphone and an external storage unit 218 having a detachable external memory slot.
  • Each of the internal storage unit 217 and the external storage unit 218 that configure the storage unit 212 includes a flash memory type (flash memory type), a hard disk type (hard disk type), and a multimedia card micro type. It is realized using a storage medium such as a card type memory (for example, MicroSD (registered trademark) memory or the like), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • a card type memory for example, MicroSD (registered trademark) memory or the like
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input/output unit 213 serves as an interface with all external devices connected to the smartphone 200, and communicates with other external devices (for example, universal serial bus (USB), IEEE 1394, etc.) or a network.
  • external devices for example, universal serial bus (USB), IEEE 1394, etc.
  • a network for example, Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark)). ZigBee) (registered trademark) or the like for direct or indirect connection.
  • Examples of the external device connected to the smartphone 200 include a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, a memory card (Memory card) connected via a card socket, and a SIM (Subscriber).
  • Identity Module Card)/UIM (User Identity Module Card) card external audio/video device connected via audio/video I/O (Input/Output) terminal, external audio/video device wirelessly connected, Yes/No
  • smartphones wired/wirelessly connected personal computers, wired/wirelessly connected personal computers, earphones, and the like.
  • the external input/output unit 213 transmits the data transmitted from the external device to each component inside the smartphone 200, or allows the data inside the smartphone 200 to be transmitted to the external device. You can
  • the GPS receiving unit 214 receives the GPS signals transmitted from the GPS satellites ST1 to STn according to the instruction of the main control unit 220, executes the positioning calculation processing based on the plurality of received GPS signals, and outputs the latitude of the smartphone 200, Detect a position consisting of longitude and altitude.
  • the GPS receiving unit 214 can acquire position information from the wireless communication unit 210 or the external input/output unit 213 (for example, wireless LAN), the GPS receiving unit 214 can also detect the position using the position information.
  • the motion sensor unit 215 includes, for example, a triaxial acceleration sensor, and detects a physical movement of the smartphone 200 according to an instruction from the main control unit 220. By detecting the physical movement of the smartphone 200, the moving direction or acceleration of the smartphone 200 is detected. The detection result is output to the main control unit 220.
  • the power supply unit 216 supplies electric power stored in a battery (not shown) to each unit of the smartphone 200 according to an instruction from the main control unit 220.
  • the main control unit 220 includes a microprocessor, operates according to a control program and control data stored in the storage unit 212, and integrally controls each unit of the smartphone 200. Further, the main control unit 220 has a mobile communication control function for controlling each unit of a communication system and an application processing function for performing voice communication or data communication through the wireless communication unit 210.
  • the main control unit 220 has an image processing function of displaying a video on the display input unit 204 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • image data still image or moving image data
  • the main control unit 220 executes display control for the display panel 202 and operation detection control for detecting a user operation through the operation unit 207 and the operation panel 203.
  • the main control unit 220 By executing the display control, the main control unit 220 displays a software key such as an icon or a scroll bar for activating the application software, or a window for creating an electronic mail.
  • a software key such as an icon or a scroll bar for activating the application software, or a window for creating an electronic mail.
  • the scroll bar refers to a software key for receiving an instruction to move the display portion of an image, such as a large image that does not fit in the display area of the display panel 202.
  • the main control unit 220 detects a user operation through the operation unit 207, or receives an operation for the icon and an input of a character string in the input field of the window through the operation panel 203. Alternatively, it accepts a scroll request for the display image through the scroll bar.
  • the main control unit 220 can also detect a gesture operation on the operation panel 203 and execute a preset function in accordance with the detected gesture operation.
  • the captured image data generated by the camera unit 208 can be stored in the storage unit 212 or output via the external input/output unit 213 or the wireless communication unit 210.
  • the camera unit 208 is mounted on the same surface as the display input unit 204, but the mounting position of the camera unit 208 is not limited to this, and may be mounted on the back surface of the display input unit 204. ..
  • the position can be detected by referring to the image from the camera unit 208.
  • the optical axis direction of the camera unit 208 of the smartphone 200 may be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. You can also judge the current usage environment.
  • the image from the camera unit 208 can also be used in the application software.
  • position information acquired by the GPS reception unit 214 in image data of a still image or a moving image may be voice information converted into text information by the main control unit or the like
  • voice information acquired by the microphone 206 may be voice information converted into text information by the main control unit or the like
  • the posture information acquired by the motion sensor unit 215 may be added and stored in the storage unit 212, or may be output through the external input/output unit 213 or the wireless communication unit 210.
  • a face detection processing unit that detects a first face region, which is a face region, from a first captured image output from the image sensor, When the first face area is not detected by the face detection processing unit, the first face area is output from the image sensor before the first captured image and the first face area is detected by the face detection processing unit.
  • a face tracking processing unit that performs a face tracking process of searching for a second face region similar to the first face region in the first captured image with the first face region included in the completed second captured image as a reference; ,
  • a first control unit that controls a parameter that is either image exposure of the image sensor, display exposure when displaying a captured image output from the image sensor, or white balance during image capture of the image sensor.
  • the first control unit is based on the image characteristic of the first face area (for example, the luminance characteristic or the color characteristic described above).
  • the parameter is set based on the image characteristics of the first face area that has been previously detected by the face detection processing unit. The control device of the imaging device to determine.
  • a control device for an image pickup device A second control unit for controlling a focusing exposure in image pickup for performing focus control of an image pickup optical system for forming a subject image on the image pickup element;
  • the second control unit when the first face area is detected from the first captured image, determines the focusing exposure based on the luminance characteristic of the first face area, and
  • the control device of the imaging apparatus determines the focusing exposure based on the luminance characteristic of the second face area.
  • the control device for an image pickup device according to (1) or (2),
  • the image characteristics are luminance characteristics
  • the above-mentioned parameter is the above-mentioned imaging exposure or the above-mentioned display exposure.
  • the control device for an image pickup device according to (1) or (2),
  • the image characteristics are color characteristics
  • the above-mentioned parameter is the above-mentioned white balance.
  • a control device for an image pickup device according to any one of (1) to (4), A face evaluation value calculation unit for calculating an evaluation value of the first face area or the second face area, The first control unit, when the first face area is detected from the first captured image, the parameters based on the image characteristics of the first face area and the evaluation value of the first face area. If the second face area is detected from the first captured image, the image characteristics of the first face area previously detected by the face detection processing unit and the second face area A control device for an image pickup device, which determines the parameter based on the evaluation value.
  • a control device for an image pickup device as described above is a control device of the imaging device, which is an index indicating the reliability of the face or the importance of the face.
  • a control device for an image pickup device according to any one of (1) to (6),
  • the first control unit averages the image characteristics of the first face area in each of the plurality of captured images in which the first face area has been detected, as the image characteristics of the first face area used to determine the parameters.
  • a control device of an image pickup device using the averaged image characteristic is
  • An image pickup device comprising: the image pickup element.
  • the first control step when the first face region is detected from the first captured image, determines the parameter based on the image characteristics of the first face region, the first captured image
  • the control method of the imaging device which determines the parameter based on the image characteristic of the first face area that has been detected in the past by the face detection processing step.
  • the image characteristics are luminance characteristics
  • the above-mentioned parameter is the above-mentioned imaging exposure or the above-mentioned display exposure.
  • the image characteristics are color characteristics
  • the above-mentioned parameter is the above-mentioned white balance.
  • a method for controlling an imaging device according to any one of (9) to (12), An evaluation value calculation step of calculating an evaluation value of the first face area or the second face area, The first control step, when the first face region is detected from the first captured image, the parameters based on the image characteristics of the first face region and the evaluation value of the first face region.
  • the second face area is detected from the first captured image, based on the image characteristics of the first face area detected in the past and the evaluation value of the second face area.
  • the above-mentioned evaluation value is a control method of the imaging device, which is an index indicating the reliability of the face or the importance of the face.
  • the first control step when the first face region is detected from the first captured image, determines the parameter based on the image characteristics of the first face region, the first captured image
  • the control program of the imaging device which determines the parameter based on the image characteristic of the first face area that has been detected in the past by the face detection processing step.
  • the present invention is highly convenient and effective when applied to a digital camera, a smartphone, or the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

動画撮像時におけるフレーム間の品質のばらつきを抑制して高画質の動画撮像を可能とする撮像装置の制御装置、撮像装置、撮像装置の制御方法及びプログラムを提供する。デジタルカメラ100は、撮像素子5から出力される第一の撮像画像から第一顔領域を検出する顔検出処理と、第一顔領域が非検出となった場合に、第一の撮像画像よりも前に撮像素子5から出力され且つ第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として、第一の撮像画像における第一顔領域に類似する第二顔領域を探索する顔追尾処理とを行い、第一の撮像画像から第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて撮像露出を決定し、第一の撮像画像から第二顔領域が検出された場合には、過去に検出済みの第一顔領域の画像特性に基づいて撮像露出を決定する。

Description

撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム

 本発明は、撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラムに関する。

 撮像画像から被写体の一部である顔を検出する機能を備えた撮像装置が知られている。この機能によって顔が検出されると、検出された顔を囲う顔枠を撮像画像に重畳して表示し、この顔枠内の対象画像にピントを合わせたり、露出制御を行ったりすることで、その顔にとって好適な条件で撮像することができる。また、撮像画像からの顔の検出に失敗した場合には、直前に検出された顔をテンプレート画像として記憶し、このテンプレート画像に類似する領域を撮像画像から探索し、探索された領域を顔として検出する追尾機能も知られている(特許文献1-3参照)。

特開2010-130493号公報 特開2011-029822号公報 特開2018-004916号公報

 本発明は、高画質の動画撮像を可能とする撮像装置の制御装置、撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラムを提供することを目的とする。

 本発明の一実施形態である撮像装置の制御装置は、撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理部と、上記顔検出処理部によって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理部によって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理部と、上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御部と、を備え、上記第一制御部は、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理部によって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定するものである。

 本発明の一実施形態である撮像装置は、上記撮像装置の制御装置と、上記撮像素子と、を備えるものである。

 本発明の一実施形態である撮像装置の制御方法は、撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、上記顔検出処理ステップによって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理ステップによって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御ステップと、を備え、上記第一制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理ステップによって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定するものである。

 本発明の一実施形態である撮像装置の制御プログラムは、撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、上記顔検出処理ステップによって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理ステップによって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスのいずれかであるパラメータを制御する第一制御ステップと、をコンピュータに実行させるためのプログラムであり、上記第一制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理ステップによって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定するものである。

 本発明によれば、高画質の動画撮像を可能とする撮像装置の制御装置、撮像装置の制御方法、及び撮像装置の制御プログラムを提供することができる。

本発明の撮像装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。 図1に示すデジタルカメラ100のシステム制御部11の機能ブロック図である。 システム制御部11の動作を説明するためのフローチャートである。 第三変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。 第四変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。 第五変形例のデジタルカメラ100のシステム制御部11の機能ブロックを示す図である。 第五変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。 第五変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。 本発明の撮像装置の一実施形態であるスマートフォン200の外観を示すものである。 図9に示すスマートフォン200の構成を示すブロック図である。

 以下、本発明の実施形態について図面を参照して説明する。

 図1は、本発明の撮像装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。

 図1に示すデジタルカメラは、撮像レンズ1と、絞り2と、レンズ制御部4と、レンズ駆動部8と、絞り駆動部9と、を有するレンズ装置40を備える。

 レンズ装置40は、デジタルカメラ100に着脱可能なものであってもよいし、デジタルカメラ100と一体化されたものであってもよい。

 撮像レンズ1と絞り2は撮像光学系を構成し、撮像光学系は光軸方向に移動可能なフォーカスレンズを少なくとも含む。

 このフォーカスレンズは、撮像光学系の焦点を調節するためのレンズであり、単一のレンズ又は複数のレンズで構成される。フォーカスレンズが光軸方向に移動することで、フォーカスレンズの主点の位置が光軸方向に沿って変化し、被写体側の焦点位置の変更が行われる。なお、フォーカスレンズとしては、電気的な制御により、光軸方向の主点の位置を変更可能な液体レンズが用いられてもよい。

 レンズ装置40のレンズ制御部4は、デジタルカメラ100のシステム制御部11と有線又は無線によって通信可能に構成される。

 レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズを駆動してフォーカスレンズの主点の位置を変更したり、絞り駆動部9を介して絞り2の開口量を制御したりする。

 デジタルカメラ100は、更に、撮像光学系を通して被写体を撮像するCCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の撮像素子5と、撮像素子5の出力に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するアナログデジタル変換回路7と、を備える。

 アナログ信号処理部6及びアナログデジタル変換回路7は、システム制御部11によって制御される。アナログ信号処理部6及びアナログデジタル変換回路7は、撮像素子5と一体化されていてもよい。

 撮像素子5は、複数の画素が二次元状に配置された撮像面を有し、撮像光学系によってこの撮像面に結像される被写体像をこの複数の画素によって電気信号(画素信号)に変換して出力する。撮像素子5の各画素から出力される画素信号の集合を以下では撮像画像という。

 デジタルカメラ100の電気制御系全体を統括制御するシステム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、レンズ装置40の撮像光学系を通して撮像した被写体像を撮像画像として出力させる。

 システム制御部11には、操作部14を通してユーザからの指示信号が入力される。

 システム制御部11は、デジタルカメラ100全体を統括制御するものであり、ハードウェア的な構造は、プログラムを実行して処理を行う各種のプロセッサである。

 各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Prosessing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。

 これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。

 システム制御部11は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。

 更に、このデジタルカメラ100の電気制御系は、RAM(Random Accsess Memory)から構成されるメインメモリ16と、メインメモリ16へのデータ記憶及びメインメモリ16からのデータ読み出しの制御を行うメモリ制御部15と、アナログデジタル変換回路7から出力される撮像画像に対しデジタル信号処理を行ってJPEG(Joint Photographic Experts Group)形式等の各種フォーマットにしたがった撮像画像データを生成するデジタル信号処理部17と、記憶媒体21へのデータ記憶及び記憶媒体21からのデータ読み出しの制御を行う外部メモリ制御部20と、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される表示部23と、表示部23の表示を制御する表示制御部22と、を備える。

 記憶媒体21は、デジタルカメラ100に内蔵されるフラッシュメモリ等の半導体メモリ又はデジタルカメラ100に着脱可能な可搬型の半導体メモリ等である。

 メモリ制御部15、デジタル信号処理部17、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。

 図2は、図1に示すデジタルカメラ100のシステム制御部11の機能ブロック図である。

 システム制御部11は、制御プログラムを含むプログラムを実行することで、顔検出処理部11A、顔追尾処理部11B、顔評価値算出部11C、及び第一制御部11Dとして機能する。本明細書におけるシステム制御部11は、撮像装置の制御装置を構成する。

 顔検出処理部11Aは、ライブビュー画像表示等のための動画撮像時において撮像素子5から出力される撮像画像から、人物又は動物の顔を示す第一顔領域を検出する顔検出処理を行う。

 顔追尾処理部11Bは、顔の検出対象となる撮像画像に対する上記の顔検出処理によって第一顔領域の検出が失敗(第一顔領域が検出できない非検出の状態)となった場合に、以下の顔追尾処理を行う。

 顔追尾処理は、検出対象となる撮像画像(第二の撮像画像とする)よりも前に撮像素子5から出力された第一の撮像画像から検出されていた第一顔領域を基準画像として設定し、第二の撮像画像から、この基準画像に類似する類似領域を探索し、第二の撮像画像におけるこの類似領域を、顔を示す第二顔領域として検出する処理である。なお、第二の撮像画像よりも前に第一顔領域が検出されていない場合、基準画像に類似する類似領域が第二の撮像画像から探索できなかった場合等には、顔追尾処理は失敗となって、第二の撮像画像には顔領域がないと判断される。

 顔評価値算出部11Cは、撮像画像から第一顔領域が検出された場合には、この第一顔領域の第一評価値を算出し、撮像画像から第二顔領域が検出された場合には、この第二顔領域の第二評価値を算出する。顔領域の評価値とは、その顔領域における顔の信頼性又はその顔領域に含まれる顔の重要性を示す指標である。

 顔領域における顔の信頼性とは、その顔領域がどれだけ精度よく顔を含む領域として検出されているかどうかを表す。例えば、顔領域に占める顔の割合が高いほど、顔領域の信頼性は高い。顔領域に含まれる顔の重要性は、例えば、その顔領域が検出された撮像画像におけるその顔領域の占める割合によって表される。撮像画像に占める顔領域の割合が高いほど、顔領域の重要性は高くなる。

 第一制御部11Dは、撮像画像の輝度特性を示す測光値に基づいて、ライブビュー画像表示等のための動画撮像時における撮像素子5の撮像露出を制御する。

 図3は、システム制御部11の動作を説明するためのフローチャートである。動画撮像が開始された後、撮像素子5から顔領域の検出対象となる撮像画像(以下、撮像画像G1という)の出力がなされると、顔検出処理部11Aが、撮像画像G1から第一顔領域を検出する顔検出処理を行う(ステップS1)。顔検出処理の結果、撮像画像G1から第一顔領域が検出された場合(ステップS2:YES)には、第一顔領域ありの結果がメモリに保存される(ステップS3)。一方、顔検出処理の結果、撮像画像G1から第一顔領域が検出されなかった場合(ステップS2:NO)には、撮像画像G1に対して顔追尾処理が行われる(ステップS4)。

 顔追尾処理の結果、顔追尾処理によって第二領域が検出された場合、換言すると顔追尾処理に成功した場合(ステップS5:YES)には、第二顔領域ありの結果がメモリに保存される(ステップS6)。一方、顔追尾処理の結果、撮像画像G1から第二顔領域が検出されなかった場合(ステップS5:NO)には、顔領域無しの結果がメモリに保存される(ステップS7)。

 ステップS3、ステップS6、ステップS7の何れかの処理が行われた後、第一制御部11Dは、メモリに保存された顔領域の有無の情報を参照して、撮像画像G1から顔領域が検出されたか否かを判定する(ステップS8)。第一制御部11Dは、撮像画像G1から顔領域が検出されていなかった場合(ステップS8:NO)には、撮像画像G1全体の測光値Bvallを算出し、この測光値Bvallに基づいて、動画撮像時の適正露出を決定する(ステップS9)。

 第一制御部11Dは、撮像画像G1から顔領域が検出されていた場合(ステップS8:YES)には、撮像画像G1から検出された顔領域が第一顔領域であるか否かを判定する(ステップS10)。顔領域が第一顔領域ではない、すなわち第二顔領域であった場合(ステップS10:NO)には、ステップS13に処理が移行される。

 顔領域が第一顔領域であった場合(ステップS10:YES)には、第一制御部11Dは、撮像画像G1から検出された第一顔領域の測光値Bvnewを算出する(ステップS11)。そして、第一制御部11Dは、動画撮像時の露出の演算に用いる顔領域の測光値である顔測光値Bvfに、この測光値Bvnewを設定する(ステップS12)。ステップS12の後はステップS13に処理が移行される。

 ステップS13においては、顔評価値算出部11Cが、撮像画像G1から検出された顔領域(第一顔領域又は第二顔領域)の評価値を算出する。

 第一制御部11Dは、ステップS13にて算出された評価値が予め決められた閾値THを超えるか否かを判定する(ステップS14)。評価値が閾値THを超えていた場合(ステップS14:YES)には、第一制御部11Dは、動画撮像時の露出演算に用いる顔測光値Bvfの重み付け係数wをαに設定する(ステップS15)。評価値が閾値TH以下であった場合(ステップS14:NO)には、第一制御部11Dは、重み付け係数wをαよりも小さいβに設定する(ステップS16)。αは、例えば0.5より大きい値が設定される。βは、例えば0.5より小さい値が設定される。

 ステップS15又はステップS16の後、第一制御部11Dは、撮像画像G1全体の測光値Bvallを算出し、以下の式(A)の演算によって測光値Bvを算出し、算出した測光値Bvに基づいて、動画撮像時の適正露出を決定する(ステップS17)。

 Bv=Bvall×(1-w)+Bvf×w  式(A)

 ステップS9又はステップS17にて動画撮像時の適正露出が決定されると、システム制御部11は、この決定した適正露出となるよう撮像光学系及び撮像素子5を制御する。以上の処理が、動画撮像時に繰り返し行われる。

 以上のようにデジタルカメラ100によれば、撮像画像から第一顔領域を検出することができた場合には、この第一顔領域の輝度特性を表す測光値によって、露出演算で用いる顔測光値Bvfが更新される。このため、この第一顔領域が適正な明るさとなるように動画撮像を行うことができる。また、撮像画像から第一顔領域を検出することができず、顔追尾処理によって第二顔領域が検出できた場合には、顔測光値Bvfは更新されず、過去に第一顔領域が検出されたときに設定された顔測光値Bvfを用いて撮像露出が決定される。つまり、顔追尾処理が行われている間は、撮像露出が、直前に顔検出処理が成功したときの条件に固定される。このため、動画撮像を行って撮像画像を表示部23に表示させるライブビュー表示を行う場合には、ライブビュー画像の明るさのちらつきを抑制することができる。また、記憶媒体21に記録される動画の明るさのちらつきを抑制することができる。

 以下、デジタルカメラ100の変形例について説明する。

(第一変形例)

 第一制御部11Dは、図3のステップS11において測光値Bvnewを算出する際に、撮像画像G1から検出された第一顔領域と、撮像画像G1よりも前に出力された少なくとも1つの撮像画像から検出された第一顔領域とからなる複数の第一顔領域の測光値の平均(平均画像特性に相当)を求め、その平均値を、ステップS12にて顔測光値Bvfに設定してもよい。このようにすることで、ステップS17にて決定される撮像露出をより適正なものとすることができる。

(第二変形例)

 第一制御部11Dは、図3のステップS11において測光値Bvnewを算出する際に、撮像画像G1から検出された第一顔領域と、撮像画像G1よりも前に出力された少なくとも1つの撮像画像から検出された第一顔領域とからなる複数の第一顔領域の各々の測光値について、白トビ又は黒潰れの有無といった信頼性判定を行い、信頼性が所定値以上となった測光値のうちの最新のものを、ステップS12にて顔測光値Bvfに設定してもよい。このようにすることで、ステップS17にて決定される撮像露出をより適正なものとすることができる。

(第三変形例)

 第一制御部11Dは、ライブビュー画像表示等のための動画撮像時における表示部23の表示露出を、撮像画像の輝度特性を示す測光値に基づいて制御してもよい。

 図4は、第三変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。図4に示すフローチャートは、ステップS12がステップS12aに変更され、ステップS9がステップS9aに変更され、ステップS17がステップS17aに変更された点を除いては、図3と同じである。図4において図3と同じ処理には同一符号を付して説明を省略する。

 図4のステップS8の判定がNOとなった場合、第一制御部11Dは、撮像画像G1全体の測光値Bvallを算出し、この測光値Bvallに基づいて、動画撮像時に表示させるライブビュー画像の表示露出を決定する(ステップS9a)。

 また、図4のステップS11の後、第一制御部11Dは、動画撮像時に表示させるライブビュー画像の表示露出の演算に用いる顔領域の測光値である顔測光値Bvfに、ステップS11にて算出した測光値Bvnewを設定する(ステップS12a)。ステップS12aの後はステップS13に処理が移行される。

 図4のステップS15とステップS16の後、第一制御部11Dは、撮像画像G1全体の測光値Bvallを算出し、上記の式(A)の演算によって測光値Bvを算出し、算出した測光値Bvに基づいて、動画撮像時におけるライブビュー画像の表示露出を決定する(ステップS17a)。ステップS9a又はステップS17aにて動画撮像時の表示露出が決定されると、システム制御部11は、この決定した表示露出となるよう撮像画像の輝度又は表示部23の輝度を制御する。以上の処理が、動画撮像時に繰り返し行われる。

 以上の第三変形例のデジタルカメラ100によれば、顔追尾処理が行われている間は、ライブビュー画像の表示露出が、直前に顔検出処理が成功したときの状態に固定される。このため、ライブビュー画像の明るさのちらつきを抑制することができる。なお、第三変形例は、第一変形例又は第二変形例と組み合わせることも可能である。

(第四変形例)

 第一制御部11Dは、ライブビュー画像表示等のための動画撮像時のホワイトバランスを、撮像画像の色特性に基づいて制御してもよい。

 図5は、第四変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。図5に示すフローチャートは、ステップS9がステップS9bに変更され、ステップS11がステップS11bに変更され、ステップS12がステップS12bに変更され、ステップS15がステップS15bに変更され、ステップS16がステップS16bに変更され、ステップS17がステップS17bに変更された点を除いては、図3と同じである。図5において図3と同じ処理には同一符号を付して説明を省略する。

 図5のステップS8の判定がNOとなった場合、第一制御部11Dは、撮像画像G1の色特性に基づいて被写体光源の色温度Tallを推定し、この色温度Tallに基づいて、動画撮像時のホワイトバランスを決定する(ステップS9b)。

 また、図5のステップS10の判定がYESの場合に、第一制御部11Dは、撮像画像G1から検出された第一顔領域の色特性に基づいて被写体光源の色温度Tnewを推定する(ステップS11b)。そして、第一制御部11Dは、動画撮像時のホワイトバランスの演算に用いる顔領域の色温度である顔色温度Tfに、ステップS11bにて算出した色温度Tnewを設定する(ステップS12b)。ステップS12bの後はステップS13に処理が移行される。

 図5のステップS14の判定がYESとなった場合には、第一制御部11Dは、顔色温度Tfの重み付け係数wをα1に設定する(ステップS15b)。評価値が閾値TH以下であった場合(ステップS14:NO)には、第一制御部11Dは、重み付け係数wをα1よりも小さいβ1に設定する(ステップS16b)。α1は、例えば0.5より大きい値が設定される。β1は、例えば0.5より小さい値が設定される。

 図5のステップS15bとステップS16bの後、第一制御部11Dは、撮像画像G1の色特性に基づいて被写体光源の色温度Tallを推定し、下記の式(B)の演算によって色温度Tを算出し、算出した色温度Tに基づいて動画撮像時のホワイトバランスを決定する(ステップS17b)。

 T=Tall×(1-w)+Tf×w  式(B)

 ステップS9b又はステップS17bにて動画撮像時のホワイトバランスが決定されると、システム制御部11は、この決定したホワイトバランスとなるよう撮像画像の画像処理パラメータを制御する。以上の処理が、動画撮像時に繰り返し行われる。

 以上の第四変形例のデジタルカメラ100によれば、顔追尾処理が行われている間は、ホワイトバランスが、直前に顔検出処理が成功したときの状態に固定される。このため、記憶媒体21に記録される動画又はライブビュー画像の明るさのちらつきを抑制することができる。なお、第四変形例は、第一変形例又は第二変形例と組み合わせることも可能である。

(第五変形例)

 図6は、第五変形例のデジタルカメラ100のシステム制御部11の機能ブロックを示す図である。図6に示すシステム制御部11は、制御プログラムを含むプログラムを実行することで、顔検出処理部11A、顔追尾処理部11B、顔評価値算出部11C、第一制御部11D、及び第二制御部11Eとして機能する。顔検出処理部11A、顔追尾処理部11B、顔評価値算出部11C、及び第一制御部11Dの機能は上述したとおりであるため説明を省略する。

 第二制御部11Eは、撮像光学系の合焦制御を行うための撮像(合焦用撮像という)における合焦用露出を制御する。具体的には、第二制御部11Eは、撮像画像から第一顔領域が検出された場合には、この第一顔領域の輝度特性に基づいて上記の合焦用露出を決定し、この撮像画像から第二顔領域が検出された場合には、この第二顔領域の輝度特性に基づいて上記の合焦用露出を決定する。

 図7及び図8は、第五変形例のデジタルカメラ100のシステム制御部11の動作を説明するためのフローチャートである。図7及び図8に示すフローチャートは、ステップS0が追加され、ステップS9がステップS9cに変更され、ステップS17がステップS17cに変更され、ステップS10の判定がNOとなった場合の処理が追加された点を除いては、図3と同じである。図7及び図8において図3と同じ処理には同一符号を付して説明を省略する。

 ステップS0において自動合焦制御(Auto Focus(AF))の指示がなされると、ステップS1以降の処理が開始される。そして、図7のステップS8の判定がNOとなった場合、第一制御部11Dは、撮像画像G1全体の測光値Bvallを算出し、この測光値Bvallに基づいて、動画撮像時の撮像露出を決定する。また、第二制御部11Eは、この測光値Bvallに基づいて、ステップS0の指示に応じて行うAFのための評価値算出に必要な合焦用撮像時の合焦用露出を決定する(ステップS9c)。

 また、図7のステップS15とステップS16の後、第一制御部11Dは、撮像画像G1全体の測光値Bvallを算出し、上記の式(A)の演算によって測光値Bvを算出し、算出した測光値Bvに基づいて、動画撮像時の撮像露出を決定する。また、第二制御部11Eは、この算出された測光値Bvに基づいて、ステップS0の指示に応じて行うAFのための評価値算出に必要な合焦用撮像時の合焦用露出を決定する(ステップS17c)。

 図7のステップS10の判定がNOとなった場合には、第二制御部11Eは、撮像画像G1から検出された第二顔領域の測光値Bvnew2を算出する(ステップS21)。そして、第二制御部11Eは、合焦用露出の演算に用いる顔領域の測光値である顔測光値Bvfaに、この測光値Bvnew2を設定する(ステップS22)。

 ステップS22の後、顔評価値算出部11Cが、撮像画像G1から検出された第二顔領域の評価値を算出する(ステップS23)。

 第二制御部11Eは、ステップS23にて算出された評価値が閾値THを超えるか否かを判定する(ステップS24)。評価値が閾値THを超えていた場合(ステップS24:YES)には、第二制御部11Eは、顔測光値Bvfaの重み付け係数wをαに設定する(ステップS25)。評価値が閾値TH以下であった場合(ステップS24:NO)には、第二制御部11Eは、重み付け係数wをβに設定する(ステップS26)。

 ステップS25又はステップS26の後、第二制御部11Eは、撮像画像G1全体の測光値Bvallを算出し、以下の式(C)の演算によって測光値Bv1を算出し、算出した測光値Bv1に基づいて、合焦用露出を決定する(ステップS27)。

 Bv1=Bvall×(1-w)+Bvfa×w  式(C)

 また、ステップS25又はステップS26の後、第一制御部11Dは、以下の式(D)の演算によって測光値Bv2を算出し、算出した測光値Bv2に基づいて、動画撮像時の適正露出を決定する(ステップS28)。式(D)におけるBvfは、ステップS12にて設定された値が用いられる。

 Bv2=Bvall×(1-w)+Bvf×w  式(D)

 図7のステップS9c、図7のステップS17c、又は図8のステップS27及びステップS28にて、動画撮像時の撮像露出と合焦用露出が決定されると、システム制御部11は、この決定した合焦用露出となるよう撮像光学系及び撮像素子5を制御して撮像素子5により撮像を行わせ、この撮像によって撮像素子5から出力された撮像画像に基づいて、撮像光学系の合焦制御を行う。なお、この合焦制御の方式は、位相差AF方式とコントラストAF方式の少なくとも一方を採用することができる。また、この合焦用の撮像が終了すると、システム制御部11は、上記の決定した撮像露出となるよう、撮像光学系及び撮像素子5を制御する。

 以上の第五変形例のデジタルカメラ100によれば、顔追尾処理が行われている間は、撮像露出に関しては直前に顔検出処理が成功したときの状態に固定されるものの、合焦用露出に関しては、顔追尾処理によって検出された第二顔領域の輝度特性に基づいて合焦用露出が決定される。つまり、実際に検出されている最新の顔領域の輝度特性に基づいて合焦用露出が決められ、その露出にて撮像して得られた撮像画像に基づいて合焦制御が行われる。このため、記憶媒体21に記録される動画又はライブビュー画像の明るさのちらつきを抑制しながら、AF時には高い精度にて顔にピントを合わせることが可能となり、撮像画像の品質を向上させることができる。なお、第五変形例は、第一変形例から第四変形例と組み合わせることも可能である。

 次に、本発明の撮像装置の実施形態としてスマートフォンの構成について説明する。

 図9は、本発明の撮像装置の一実施形態であるスマートフォン200の外観を示すものである。

 図9に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。

 また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。

 図10は、図9に示すスマートフォン200の構成を示すブロック図である。

 図10に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。

 また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。

 無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータ等の送受信、ウェブデータ又はストリーミングデータ等の受信を行う。

 表示入力部204は、主制御部220の制御により、画像(静止画像及び動画)又は文字情報等を表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。

 表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いたものである。

 操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。

 図10に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。

 係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

 なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体201の大きさ等に応じて適宜設計されるものである。

 さらにまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられ、いずれの方式を採用することもできる。

 通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。

 また、図9に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。

 操作部207は、キースイッチ等を用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図11に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指等で押下されるとオンとなり、指を離すとバネ等の復元力によってオフ状態となる押しボタン式のスイッチである。

 記憶部212は、主制御部220の制御プログラム及び制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号等を対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータ等を一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。

 なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。

 外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394等)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)等)により直接的又は間接的に接続するためのものである。

 スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。

 外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達したり、スマートフォン200の内部のデータが外部機器に伝送されるようにしたりすることができる。

 GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。

 モーションセンサ部215は、例えば、3軸の加速度センサ等を備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。

 電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

 主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。

 アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、又はウェブページを閲覧するウェブブラウジング機能等がある。

 また、主制御部220は、受信データ又はダウンロードしたストリーミングデータ等の画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。

 画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。

 さらに、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。

 表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又はスクロールバー等のソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。

 なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像等について、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

 また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作と上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付けたりする。

 さらに、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又はソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

 また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。

 ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指等によって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

 カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記憶媒体21、表示制御部22、表示部23、及び操作部14以外の構成を含む。

 カメラ部208によって生成された撮像画像データは、記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。

 図9に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。

 また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示したり、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用したりすることができる。

 また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。さらには、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断したり、現在の使用環境を判断したりすることもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。

 その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等を付加して記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。

 以上のような構成のスマートフォン200においても、ライブビュー画像における色や輝度のちらつきを抑制することができる。

 以上説明してきたように、本明細書には以下の事項が開示されている。

(1)

 撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理部と、

 上記顔検出処理部によって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理部によって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理部と、

 上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御部と、を備え、

 上記第一制御部は、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性(例えば、上述した輝度特性又は色特性)に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理部によって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定する撮像装置の制御装置。

(2)

 (1)記載の撮像装置の制御装置であって、

 上記撮像素子に被写体像を結像させる撮像光学系の合焦制御を行うための撮像における合焦用露出を制御する第二制御部を備え、

 上記第二制御部は、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の輝度特性に基づいて上記合焦用露出を決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、その第二顔領域の輝度特性に基づいて上記合焦用露出を決定する撮像装置の制御装置。

(3)

 (1)又は(2)記載の撮像装置の制御装置であって、

 上記画像特性は、輝度特性であり、

 上記パラメータは、上記撮像露出又は上記表示露出である撮像装置の制御装置。

(4)

 (1)又は(2)記載の撮像装置の制御装置であって、

 上記画像特性は、色特性であり、

 上記パラメータは、上記ホワイトバランスである撮像装置の制御装置。

(5)

 (1)から(4)のいずれか1つに記載の撮像装置の制御装置であって、

 上記第一顔領域又は上記第二顔領域の評価値を算出する顔評価値算出部を備え、

 上記第一制御部は、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性とその第一顔領域の上記評価値に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理部によって過去に検出済みの上記第一顔領域の画像特性とその第二顔領域の上記評価値に基づいて上記パラメータを決定する撮像装置の制御装置。

(6)

 (5)記載の撮像装置の制御装置であって、

 上記評価値は、顔の信頼性又は顔の重要性を示す指標である撮像装置の制御装置。

(7)

 (1)から(6)のいずれか1つに記載の撮像装置の制御装置であって、

 上記第一制御部は、上記パラメータの決定に用いる上記第一顔領域の画像特性として、上記第一顔領域が検出済みの複数の上記撮像画像の各々における上記第一顔領域の画像特性を平均化した平均画像特性を用いる撮像装置の制御装置。

(8)

 (1)から(7)のいずれか1つに記載の撮像装置の制御装置と、

 上記撮像素子と、を備える撮像装置。

(9)

 撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、

 上記顔検出処理ステップによって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理ステップによって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、

 上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御ステップと、を備え、

 上記第一制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理ステップによって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定する撮像装置の制御方法。

(10)

 (9)記載の撮像装置の制御方法であって、

 上記撮像素子に被写体像を結像させる撮像光学系の合焦制御を行うための撮像における合焦用露出を制御する第二制御ステップを備え、

 上記第二制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の輝度特性に基づいて上記合焦用露出を決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、その第二顔領域の輝度特性に基づいて上記合焦用露出を決定する撮像装置の制御方法。

(11)

 (9)又は(10)記載の撮像装置の制御方法であって、

 上記画像特性は、輝度特性であり、

 上記パラメータは、上記撮像露出又は上記表示露出である撮像装置の制御方法。

(12)

 (9)又は(10)記載の撮像装置の制御方法であって、

 上記画像特性は、色特性であり、

 上記パラメータは、上記ホワイトバランスである撮像装置の制御方法。

(13)

 (9)から(12)のいずれか1つに記載の撮像装置の制御方法であって、

 上記第一顔領域又は上記第二顔領域の評価値を算出する評価値算出ステップを備え、

 上記第一制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性とその第一顔領域の上記評価値に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記過去に検出済みの上記第一顔領域の画像特性とその第二顔領域の上記評価値に基づいて上記パラメータを決定する撮像装置の制御方法。

(14)

 (13)記載の撮像装置の制御方法であって、

 上記評価値は、顔の信頼性又は顔の重要性を示す指標である撮像装置の制御方法。

(15)

 (9)から(14)のいずれか1つに記載の撮像装置の制御方法であって、

 上記第一制御ステップは、上記パラメータの決定に用いる上記第一顔領域の画像特性として、上記第一顔領域が検出済みの複数の上記撮像画像の各々における上記第一顔領域の画像特性を平均化した平均画像特性を用いる撮像装置の制御方法。

(16)

 撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、

 上記顔検出処理ステップによって上記第一顔領域が非検出となった場合に、上記第一の撮像画像よりも前に上記撮像素子から出力され且つ上記顔検出処理ステップによって上記第一顔領域が検出済みの第二の撮像画像に含まれるその第一顔領域を基準として上記第一の撮像画像におけるその第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、

 上記撮像素子の撮像露出、上記撮像素子から出力される撮像画像を表示する際の表示露出、又は上記撮像素子の撮像時のホワイトバランスのいずれかであるパラメータを制御する第一制御ステップと、をコンピュータに実行させるためのプログラムであり、

 上記第一制御ステップは、上記第一の撮像画像から上記第一顔領域が検出された場合には、その第一顔領域の画像特性に基づいて上記パラメータを決定し、上記第一の撮像画像から上記第二顔領域が検出された場合には、上記顔検出処理ステップによって過去に検出済みの上記第一顔領域の画像特性に基づいて上記パラメータを決定する撮像装置の制御プログラム。

 本発明は、デジタルカメラ又はスマートフォン等に適用して利便性が高く、有効である。

1 撮像レンズ

2 絞り

4 レンズ制御部

5 撮像素子

6 アナログ信号処理部

7 アナログデジタル変換回路

8 レンズ駆動部

9 絞り駆動部

10 撮像素子駆動部

11 システム制御部

11A 顔検出処理部

11B 顔追尾処理部

11C 顔評価値算出部

11D 第一制御部

11E 第二制御部

14 操作部

15 メモリ制御部

16 メインメモリ

17 デジタル信号処理部

20 外部メモリ制御部

21 記憶媒体

22 表示制御部

23 表示部

24 制御バス

25 データバス

40 レンズ装置

200 スマートフォン

201 筐体

202 表示パネル

203 操作パネル

204 表示入力部

205 スピーカ

206 マイクロホン

207 操作部

208 カメラ部

210 無線通信部

211 通話部

212 記憶部

213 外部入出力部

214 GPS受信部

215 モーションセンサ部

216 電源部

217 内部記憶部

218 外部記憶部

220 主制御部

ST1~STn GPS衛星

Claims (16)


  1.  撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理部と、

     前記顔検出処理部によって前記第一顔領域が非検出となった場合に、前記第一の撮像画像よりも前に前記撮像素子から出力され且つ前記顔検出処理部によって前記第一顔領域が検出済みの第二の撮像画像に含まれる当該第一顔領域を基準として前記第一の撮像画像における当該第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理部と、

     前記撮像素子の撮像露出、前記撮像素子から出力される撮像画像を表示する際の表示露出、又は前記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御部と、を備え、

     前記第一制御部は、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の画像特性に基づいて前記パラメータを決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、前記顔検出処理部によって過去に検出済みの前記第一顔領域の画像特性に基づいて前記パラメータを決定する撮像装置の制御装置。

  2.  請求項1記載の撮像装置の制御装置であって、

     前記撮像素子に被写体像を結像させる撮像光学系の合焦制御を行うための撮像における合焦用露出を制御する第二制御部を備え、

     前記第二制御部は、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の輝度特性に基づいて前記合焦用露出を決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、当該第二顔領域の輝度特性に基づいて前記合焦用露出を決定する撮像装置の制御装置。

  3.  請求項1又は2記載の撮像装置の制御装置であって、

     前記画像特性は、輝度特性であり、

     前記パラメータは、前記撮像露出又は前記表示露出である撮像装置の制御装置。

  4.  請求項1又は2記載の撮像装置の制御装置であって、

     前記画像特性は、色特性であり、

     前記パラメータは、前記ホワイトバランスである撮像装置の制御装置。

  5.  請求項1から4のいずれか1項記載の撮像装置の制御装置であって、

     前記第一顔領域又は前記第二顔領域の評価値を算出する顔評価値算出部を備え、

     前記第一制御部は、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の画像特性と当該第一顔領域の前記評価値に基づいて前記パラメータを決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、前記顔検出処理部によって過去に検出済みの前記第一顔領域の画像特性と当該第二顔領域の前記評価値に基づいて前記パラメータを決定する撮像装置の制御装置。

  6.  請求項5記載の撮像装置の制御装置であって、

     前記評価値は、顔の信頼性又は顔の重要性を示す指標である撮像装置の制御装置。

  7.  請求項1から6のいずれか1項記載の撮像装置の制御装置であって、

     前記第一制御部は、前記パラメータの決定に用いる前記第一顔領域の画像特性として、前記第一顔領域が検出済みの複数の前記撮像画像の各々における前記第一顔領域の画像特性を平均化した平均画像特性を用いる撮像装置の制御装置。

  8.  請求項1から7のいずれか1項記載の撮像装置の制御装置と、

     前記撮像素子と、を備える撮像装置。

  9.  撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、

     前記顔検出処理ステップによって前記第一顔領域が非検出となった場合に、前記第一の撮像画像よりも前に前記撮像素子から出力され且つ前記顔検出処理ステップによって前記第一顔領域が検出済みの第二の撮像画像に含まれる当該第一顔領域を基準として前記第一の撮像画像における当該第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、

     前記撮像素子の撮像露出、前記撮像素子から出力される撮像画像を表示する際の表示露出、又は前記撮像素子の撮像時のホワイトバランスいずれかであるパラメータを制御する第一制御ステップと、を備え、

     前記第一制御ステップは、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の画像特性に基づいて前記パラメータを決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、前記顔検出処理ステップによって過去に検出済みの前記第一顔領域の画像特性に基づいて前記パラメータを決定する撮像装置の制御方法。

  10.  請求項9記載の撮像装置の制御方法であって、

     前記撮像素子に被写体像を結像させる撮像光学系の合焦制御を行うための撮像における合焦用露出を制御する第二制御ステップを備え、

     前記第二制御ステップは、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の輝度特性に基づいて前記合焦用露出を決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、当該第二顔領域の輝度特性に基づいて前記合焦用露出を決定する撮像装置の制御方法。

  11.  請求項9又は10記載の撮像装置の制御方法であって、

     前記画像特性は、輝度特性であり、

     前記パラメータは、前記撮像露出又は前記表示露出である撮像装置の制御方法。

  12.  請求項9又は10記載の撮像装置の制御方法であって、

     前記画像特性は、色特性であり、

     前記パラメータは、前記ホワイトバランスである撮像装置の制御方法。

  13.  請求項9から12のいずれか1項記載の撮像装置の制御方法であって、

     前記第一顔領域又は前記第二顔領域の評価値を算出する評価値算出ステップを備え、

     前記第一制御ステップは、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の画像特性と当該第一顔領域の前記評価値に基づいて前記パラメータを決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、前記過去に検出済みの前記第一顔領域の画像特性と当該第二顔領域の前記評価値に基づいて前記パラメータを決定する撮像装置の制御方法。

  14.  請求項13記載の撮像装置の制御方法であって、

     前記評価値は、顔の信頼性又は顔の重要性を示す指標である撮像装置の制御方法。

  15.  請求項9から14のいずれか1項記載の撮像装置の制御方法であって、

     前記第一制御ステップは、前記パラメータの決定に用いる前記第一顔領域の画像特性として、前記第一顔領域が検出済みの複数の前記撮像画像の各々における前記第一顔領域の画像特性を平均化した平均画像特性を用いる撮像装置の制御方法。

  16.  撮像素子から出力される第一の撮像画像から顔の領域である第一顔領域を検出する顔検出処理ステップと、

     前記顔検出処理ステップによって前記第一顔領域が非検出となった場合に、前記第一の撮像画像よりも前に前記撮像素子から出力され且つ前記顔検出処理ステップによって前記第一顔領域が検出済みの第二の撮像画像に含まれる当該第一顔領域を基準として前記第一の撮像画像における当該第一顔領域に類似する第二顔領域を探索する顔追尾処理を行う顔追尾処理ステップと、

     前記撮像素子の撮像露出、前記撮像素子から出力される撮像画像を表示する際の表示露出、又は前記撮像素子の撮像時のホワイトバランスのいずれかであるパラメータを制御する第一制御ステップと、をコンピュータに実行させるためのプログラムであり、

     前記第一制御ステップは、前記第一の撮像画像から前記第一顔領域が検出された場合には、当該第一顔領域の画像特性に基づいて前記パラメータを決定し、前記第一の撮像画像から前記第二顔領域が検出された場合には、前記顔検出処理ステップによって過去に検出済みの前記第一顔領域の画像特性に基づいて前記パラメータを決定する撮像装置の制御プログラム。
PCT/JP2019/048411 2019-01-29 2019-12-11 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム WO2020158200A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020569426A JP7085651B2 (ja) 2019-01-29 2019-12-11 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019013287 2019-01-29
JP2019-013287 2019-01-29

Publications (1)

Publication Number Publication Date
WO2020158200A1 true WO2020158200A1 (ja) 2020-08-06

Family

ID=71840128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/048411 WO2020158200A1 (ja) 2019-01-29 2019-12-11 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム

Country Status (2)

Country Link
JP (1) JP7085651B2 (ja)
WO (1) WO2020158200A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183291A (ja) * 2009-02-04 2010-08-19 Olympus Imaging Corp 追尾装置および追尾方法
JP2013223233A (ja) * 2012-04-19 2013-10-28 Olympus Imaging Corp 撮影機器
JP2015130615A (ja) * 2014-01-08 2015-07-16 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2016129287A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183291A (ja) * 2009-02-04 2010-08-19 Olympus Imaging Corp 追尾装置および追尾方法
JP2013223233A (ja) * 2012-04-19 2013-10-28 Olympus Imaging Corp 撮影機器
JP2015130615A (ja) * 2014-01-08 2015-07-16 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2016129287A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置

Also Published As

Publication number Publication date
JP7085651B2 (ja) 2022-06-16
JPWO2020158200A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
WO2019183819A1 (zh) 拍照方法、拍照装置和移动终端
US10095004B2 (en) Imaging apparatus and focusing control method
JP6028112B2 (ja) 撮像装置及び合焦制御方法
US11102419B2 (en) Imaging control device, imaging apparatus, imaging control method, and imaging control program
US11438521B2 (en) Image capturing device, image capturing method, and program
JPWO2016125352A1 (ja) カメラ装置、撮像システム、制御方法及びプログラム
JP6364560B2 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び、合焦制御プログラム
JPWO2015118727A1 (ja) 撮像装置及び合焦制御方法
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
JPWO2017110261A1 (ja) 撮像装置、合焦制御方法、及び合焦制御プログラム
JP7210517B2 (ja) 撮像装置、撮像制御方法、撮像制御プログラム
WO2020170945A1 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
JP5832673B2 (ja) 撮像装置およびその動作制御方法
WO2020209097A1 (ja) 画像表示装置、画像表示方法、及びプログラム
WO2020158200A1 (ja) 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム
US12062209B2 (en) Face region detection device, imaging apparatus, face region detection method, and face region detection program
US10992872B2 (en) Imaging control device, imaging apparatus, imaging control method, and storage medium
WO2014073441A1 (ja) 撮像装置およびその動作制御方法
WO2020166490A1 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
JPWO2020174911A1 (ja) 画像表示装置、画像表示方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19913589

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569426

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19913589

Country of ref document: EP

Kind code of ref document: A1