WO2022004305A1 - 撮像支援装置、撮像装置、撮像支援方法、及びプログラム - Google Patents
撮像支援装置、撮像装置、撮像支援方法、及びプログラム Download PDFInfo
- Publication number
- WO2022004305A1 WO2022004305A1 PCT/JP2021/021756 JP2021021756W WO2022004305A1 WO 2022004305 A1 WO2022004305 A1 WO 2022004305A1 JP 2021021756 W JP2021021756 W JP 2021021756W WO 2022004305 A1 WO2022004305 A1 WO 2022004305A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- subject
- category
- image pickup
- imaging
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Definitions
- the technology of the present disclosure relates to an image pickup support device, an image pickup device, an image pickup support method, and a program.
- Japanese Unexamined Patent Publication No. 2007-006033 discloses a target determination device that selects a face to be processed from a plurality of faces included in an image.
- the target determination device described in JP-A-2007-006033 records a face detecting means for detecting a face from an image, a face detected in the past by the face detecting means, and a detection history related to the detection in association with each other. It has a face information recording means and a face selection means for selecting a face to be processed from the faces included in the image based on the detection history.
- Japanese Patent Application Laid-Open No. 2009-52069 includes an image processing apparatus including a face recognition dictionary, an image acquisition means, a face area detection means, a feature extraction means, a discrimination means, a face recognition dictionary correction means, and a classification means.
- a face recognition dictionary facial features for determining whether or not the person is the same person are registered for each person.
- the image acquisition means acquires an image including a person.
- the face area detecting means detects the face area from the image acquired by the image acquiring means.
- the feature extraction means extracts facial features in the face region based on the face region detected by the face region detecting means.
- the discrimination means determines whether or not the facial features of the same person are registered in the face recognition dictionary based on the facial features extracted by the feature extraction means and the facial features registered in the face recognition dictionary. do.
- the face recognition dictionary correction means determines that the facial features of the same person are registered in the face recognition dictionary by the discrimination means
- the face recognition dictionary correction means corrects the registered face features based on the extracted face features. Then, when it is determined by the discrimination means that the facial features of the same person are not registered in the face recognition dictionary, the extracted facial features are registered as the facial features of a new person.
- the classification means determines that the facial features of the same person are registered in the face recognition dictionary by the discrimination means, classifies the face of the person in the image acquired by the image acquisition means as a known face, and the discrimination means.
- the face of the person in the image acquired by the image acquisition means is classified as an unknown face.
- Japanese Patent Application Laid-Open No. 2012-099943 describes a storage means for storing face image data, a face detection means for detecting a face from a video signal, and a face image in which a face detected by the face detection means is stored in the storage means.
- An image processing apparatus including a face recognition means for determining whether or not it is included in data and an image processing means is disclosed. The image processing means is used when a face determined to be included in the face image data stored in the storage means by the face recognition means and a face determined not to be included are detected from the video signal. Image processing is performed on the face determined to be included in the face image data and the area of the face determined not to be included in the face image data to have higher image quality than other areas.
- Japanese Patent Application Laid-Open No. 2009-003012 describes an image pickup lens capable of changing the lens focal position by driving at least a part of a plurality of lenses arranged along the optical axis direction along the optical axis direction, and image acquisition.
- An image pickup apparatus comprising means, a subject detection means, a focusing evaluation value calculation means, a selection means, and a recording means is disclosed.
- the image acquisition means continuously shoots while changing the lens focal position of the image pickup lens, and acquires a plurality of image data.
- the subject detecting means detects a main subject area according to the moving state of the subject among a plurality of image data obtained by the image acquiring means.
- the in-focus evaluation value calculating means calculates the in-focus evaluation value of the main subject area obtained by the subject detecting means for each of a plurality of image data.
- the selection means selects at least one from a plurality of image data based on the focus evaluation value obtained by the focus evaluation value calculation means.
- the recording means causes the recording medium to record the image data selected by the selection means.
- One embodiment according to the technique of the present disclosure provides an image pickup support device, an image pickup device, an image pickup support method, and a program capable of supporting image pickup by an image pickup device according to the frequency in which the characteristics of a subject are classified into categories. do.
- a first aspect of the technique of the present disclosure comprises a processor and a memory connected to or built into the processor, the subject being identified from a captured image obtained by the processor being imaged by an image pickup apparatus. It is an imaging support device that acquires frequency information indicating the frequency of features classified into categories based on the features, and performs support processing to support imaging by the imaging device based on the frequency information.
- a second aspect of the technique of the present disclosure is that the categories are categorized into a plurality of categories including at least one target category, the target categories are defined based on frequency information, and the support process is the target.
- the image pickup support device which is a process including a process of supporting image pickup for a subject in a target category having characteristics belonging to the category.
- the third aspect according to the technique of the present disclosure is the image pickup support device according to the second aspect, wherein the support process is a process including a display process for displaying a recommended image of a subject in the target category.
- a fourth aspect of the technique of the present disclosure is that the display process causes the display to display the display image obtained by being imaged by the image pickup apparatus, and the target category indicates the subject in the display image.
- the image pickup support device according to a third aspect, which is a process of displaying a subject image in a manner distinguishable from other image areas.
- a fifth aspect of the technique of the present disclosure includes an image corresponding to a subject in the target category, provided that the processor detects the subject in the target category based on the image pickup result by the image pickup device and detects the subject in the target category.
- the image pickup support device according to any one of the second to fourth aspects of acquiring an image.
- a sixth aspect according to the technique of the present disclosure is a second aspect in which the processor displays an object indicating a designated imaging range defined according to an instruction given from the outside and an object indicating a target category subject in different display modes.
- the image pickup support device according to any one of the fifth aspects from the above aspect.
- a seventh aspect according to the technique of the present disclosure is a case where the processor has a degree of difference between the first image pickup condition given from the outside and the second image pickup condition given to the subject of the target category to be equal to or more than the default degree of difference.
- the image pickup support device according to any one of the second to sixth aspects of performing the default processing.
- An eighth aspect according to the technique of the present disclosure relates to any one of the second to seventh aspects, wherein the target category is a low frequency category in which the frequency is relatively low among a plurality of categories. It is an imaging support device.
- a ninth aspect of the technique of the present disclosure is that when a target category subject is imaged by an imaging device, the target category is a category determined according to the state of the target category subject, and the characteristics of the target category subject.
- a tenth aspect according to the technique of the present disclosure is from the second aspect to the second aspect, in which when a plurality of objects are imaged by an image pickup apparatus, the target category is an object target category in which each of the plurality of objects can be identified.
- the image pickup support device according to any one of the nine aspects.
- the eleventh aspect according to the technique of the present disclosure is a support device according to any one of the first to tenth aspects in which the category is made for at least one unit.
- the twelfth aspect according to the technique of the present disclosure is the image pickup support device according to the eleventh aspect, in which one of the units is a period.
- the thirteenth aspect according to the technique of the present disclosure is an image pickup support device according to the eleventh aspect or the twelfth aspect, in which one of the units is a position.
- a fourteenth aspect according to the technique of the present disclosure is a first aspect in which a processor classifies a feature with respect to a classifier, and the classifier classifies a feature when the scene to be imaged by the image pickup device matches a specific scene. It is an image pickup support device which concerns on any one aspect from an aspect
- the fifteenth aspect according to the technique of the present disclosure is the image pickup support device according to the fourteenth aspect, in which the specific scene is a scene imaged in the past.
- a sixteenth aspect according to the technique of the present disclosure is an image pickup support device according to any one of the first to fifteenth aspects, wherein the support process is a process including a process of displaying frequency information. ..
- a seventeenth aspect of the technique of the present disclosure is that the assistive process assists in imaging the category corresponding to the specified frequency information when the frequency information is specified by the receiving device while the frequency information is displayed.
- the image pickup support device according to the sixteenth aspect which is a process including the process of performing.
- An eighteenth aspect of the technique of the present disclosure comprises a processor, a memory connected to or built into the processor, and features of the subject included in the captured image obtained by the processor being imaged by an image pickup apparatus. It is an image pickup support device that acquires frequency information indicating the frequency of captured images classified into categories based on the above, and performs support processing for supporting image pickup by the image pickup device based on the frequency information.
- a nineteenth aspect according to the technique of the present disclosure includes an image pickup support device and an image sensor according to any one of the first to eighteenth aspects, and a processor performs support processing.
- This is an imaging device that supports imaging using an image sensor.
- a twentieth aspect according to the technique of the present disclosure is to acquire frequency information indicating the frequency of features classified into categories based on the characteristics of a subject specified from an captured image obtained by being imaged by an image pickup device.
- This is an imaging support method including performing support processing for supporting imaging by an imaging device based on frequency information.
- a twenty-first aspect according to the technique of the present disclosure is to acquire frequency information indicating the frequency of captured images classified into categories based on the characteristics of a subject specified from the captured images obtained by being imaged by an imaging device. It is an image pickup support method including performing a support process for supporting an image pickup by an image pickup apparatus based on frequency information.
- a twenty-second aspect according to the technique of the present disclosure is frequency information indicating the frequency of features classified into categories based on the characteristics of a subject identified from a captured image obtained by being imaged by a computer in a computer. It is a program for executing a process including the acquisition of the image and the support process for supporting the image pickup by the image pickup apparatus based on the frequency information.
- a twenty-third aspect of the technique of the present disclosure is a frequency indicating to a computer the frequency of captured images classified into categories based on the characteristics of the subject identified from the captured images obtained by imaging by the imaging device. It is a program for executing a process including acquiring information and performing a support process for supporting an image pickup by an image pickup apparatus based on frequency information.
- FIG. 3 is a conceptual diagram showing an example of incident characteristics of subject light with respect to the first phase difference pixel and the second phase difference pixel included in the photoelectric conversion element shown in FIG.
- FIG. 3 is a conceptual diagram showing an example of incident characteristics of subject light with respect to the first phase difference pixel and the second phase difference pixel included in the photoelectric conversion element shown in FIG.
- FIG. 3 is a conceptual diagram showing an example of incident characteristics of subject light with respect to the first phase difference pixel and the second phase difference pixel included in the photoelectric conversion element shown in FIG.
- FIG. 3 is a conceptual diagram showing an example of incident characteristics of subject light with respect to the first phase difference pixel and the second phase difference pixel included in the photoelectric conversion element shown in FIG.
- It is a schematic block diagram which shows an example of the structure of the non-phase difference pixel included in the photoelectric conversion element shown in FIG.
- It is a schematic block diagram which shows an example of the hardware configuration of an image pickup apparatus.
- CPU refers to the abbreviation of "Central Processing Unit”.
- RAM is an abbreviation for "RandomAccessMemory”.
- IC refers to the abbreviation of "Integrated Circuit”.
- ASIC refers to the abbreviation of "ApplicationSpecific Integrated Circuit”.
- PLD is an abbreviation for "Programmable Logic Device”.
- FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
- SoC is an abbreviation for "System-on-a-chip”.
- SSD is an abbreviation for "Solid State Drive”.
- USB is an abbreviation for "Universal Serial Bus”.
- HDD is an abbreviation for "Hard Disk Drive”.
- EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
- EL refers to the abbreviation of "Electro-Luminescence”.
- I / F refers to the abbreviation of "Interface”.
- UI refers to the abbreviation of "User Interface”.
- TOF is an abbreviation for "Time of Flight”.
- fps is an abbreviation for "frame per second”.
- MF is an abbreviation for "Manual Focus”.
- AF is an abbreviation for "AutoFocus”.
- CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
- CCD refers to the abbreviation of "Charge Coupled Device”.
- RTC is an abbreviation for "Real Time Clock”.
- GPS is an abbreviation for "Global Positioning System”.
- LAN is an abbreviation for "Local Area Network”.
- WAN is an abbreviation for "Wide Area Network”.
- GNSS is an abbreviation for "Global Navigation Satellite System”.
- a CPU is illustrated as an example of the “processor” according to the technique of the present disclosure, but the “processor” according to the technique of the present disclosure includes a plurality of processing devices such as a CPU and a GPU. It may be a combination of.
- the GPU operates under the control of the CPU and is responsible for executing image processing.
- vertical means, in addition to perfect verticality, an error generally allowed in the technical field to which the technology of the present disclosure belongs, to the extent that it does not contradict the purpose of the technology of the present disclosure. Refers to the vertical in the sense including the error of.
- match is an error generally allowed in the technical field to which the technique of the present disclosure belongs, in addition to the perfect match, to the extent that it does not contradict the purpose of the technique of the present disclosure. Refers to a match in the sense including the error of.
- the image pickup apparatus 10 is a digital camera having an interchangeable lens and omitting a reflex mirror.
- the image pickup apparatus 10 includes an image pickup apparatus main body 12 and an interchangeable lens 14 interchangeably attached to the image pickup apparatus main body 12.
- a digital camera having an interchangeable lens and omitting a reflex mirror is mentioned, but the technique of the present disclosure is not limited to this, and the lens is fixed. It may be a digital camera, a digital camera in which the reflex mirror is not omitted, and various electronic devices such as smart devices, wearable terminals, cell observation devices, ophthalmic observation devices, or surgical microscopes. It may be a built-in digital camera.
- the image sensor 16 is provided on the image pickup apparatus main body 12.
- the image sensor 16 is a CMOS image sensor.
- the image sensor 16 captures an imaging region including a group of subjects.
- the interchangeable lens 14 is attached to the image pickup apparatus main body 12
- the subject light indicating the subject is transmitted through the interchangeable lens 14 and imaged on the image sensor 16, and the image data indicating the image of the subject is generated by the image sensor 16. Will be done.
- the CMOS image sensor is exemplified as the image sensor 16, but the technique of the present disclosure is not limited to this, and for example, the image sensor 16 is another type of image sensor such as a CCD image sensor.
- the technology of this disclosure is established.
- a release button 18 and a dial 20 are provided on the upper surface of the image pickup apparatus main body 12.
- the dial 20 is operated when setting the operation mode of the image pickup system, the operation mode of the reproduction system, and the like, and by operating the dial 20, the image pickup apparatus 10 selectively selects the image pickup mode and the reproduction mode as the operation modes. Is set to.
- the release button 18 functions as an imaging preparation instruction unit and an imaging instruction unit, and can detect a two-step pressing operation of an imaging preparation instruction state and an imaging instruction state.
- the imaging preparation instruction state refers to a state in which the image is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state is a state in which the image is pressed to the final pressed position (fully pressed position) beyond the intermediate position. Point to. In the following, the "state of being pressed from the standby position to the half-pressed position" is referred to as "half-pressed state", and the "state of being pressed from the standby position to the full-pushed position” is referred to as "full-pressed state”.
- the image pickup preparation instruction state may be a state in which the user's finger is in contact with the release button 18, and the image pickup instruction state is a state in which the operating user's finger is in contact with the release button 18. It may be in a state of transition from the state to a state away from the state.
- a touch panel display 22 and an instruction key 24 are provided on the back surface of the image pickup apparatus main body 12.
- the touch panel display 22 includes a display 26 and a touch panel 28 (see also FIG. 3).
- An example of the display 26 is an organic EL display.
- the display 26 is not an organic EL display, but may be another type of display such as a liquid crystal display or an inorganic EL display.
- the display 26 displays an image and / or character information and the like.
- the display 26 is used for imaging for a live view image, that is, for displaying a live view image obtained by performing continuous imaging when the imaging device 10 is in the imaging mode.
- Imaging for a live view image (hereinafter, also referred to as “imaging for a live view image”) is performed according to, for example, a frame rate of 60 fps. 60 fps is only an example, and a frame rate of less than 60 fps may be used, or a frame rate of more than 60 fps may be used.
- live view image refers to a moving image for display based on the image data obtained by being imaged by the image sensor 16. Live view images are also commonly referred to as through images.
- the live view image is an example of a "display image" according to the technique of the present disclosure.
- the display 26 is also used for displaying a still image obtained by taking an image for a still image when an instruction for taking an image for a still image is given to the image pickup device 10 via a release button 18. Be done. Further, the display 26 is also used for displaying a reproduced image and displaying a menu screen or the like when the image pickup apparatus 10 is in the reproduction mode.
- the touch panel 28 is a transmissive touch panel and is superimposed on the surface of the display area of the display 26.
- the touch panel 28 receives an instruction from the user by detecting contact with an indicator such as a finger or a stylus pen.
- an indicator such as a finger or a stylus pen.
- the above-mentioned "fully pressed state” includes a state in which the user turns on the soft key for starting imaging via the touch panel 28.
- an out-cell type touch panel display in which the touch panel 28 is superimposed on the surface of the display area of the display 26 is mentioned, but this is only an example.
- an on-cell type or in-cell type touch panel display can be applied as the touch panel display 22
- the instruction key 24 receives various instructions.
- the "various instructions” are, for example, an instruction to display a menu screen on which various menus can be selected, an instruction to select one or a plurality of menus, an instruction to confirm the selected contents, and an instruction to delete the selected contents.
- Zoom in, zoom out, and various instructions such as frame advance. Further, these instructions may be given by the touch panel 28.
- the image sensor 16 includes a photoelectric conversion element 30.
- the photoelectric conversion element 30 has a light receiving surface 30A.
- the photoelectric conversion element 30 is arranged in the image pickup apparatus main body 12 (see FIG. 1) so that the center of the light receiving surface 30A and the optical axis OA (see FIG. 1) coincide with each other.
- the photoelectric conversion element 30 has a plurality of photosensitive pixels arranged in a matrix, and the light receiving surface 30A is formed by the plurality of photosensitive pixels.
- the photosensitive pixel is a pixel having a photodiode PD, photoelectrically converts the received light, and outputs an electric signal according to the amount of received light.
- phase difference pixel P which is a so-called image plane phase difference pixel
- non-phase difference pixel N which is a pixel different from the phase difference pixel P. ..
- a color filter is arranged on the photodiode PD.
- the color filter includes a G filter corresponding to the G (green) wavelength range, an R filter corresponding to the R (red) wavelength range, and a B filter corresponding to the B (blue) wavelength range, which contributes most to obtaining a brightness signal. include.
- the non-phase difference pixel N is also referred to as a normal pixel.
- the photoelectric conversion element 30 has three types of photosensitive pixels, R pixel, G pixel, and B pixel, as the non-phase difference pixel N.
- the R pixel, G pixel, B pixel, and retardation pixel P are in the row direction (for example, the horizontal direction when the bottom surface of the image pickup apparatus main body 12 is in contact with the horizontal plane) and the column direction (for example, with respect to the horizontal direction). It is regularly arranged in each of the vertical directions (vertical directions) with a predetermined periodicity.
- the R pixel is a pixel corresponding to the photodiode PD in which the R filter is arranged
- the G pixel and the phase difference pixel P are the pixels corresponding to the photodiode PD in which the G filter is arranged
- the B pixel is B. It is a pixel corresponding to the photodiode PD in which the filter is arranged.
- phase difference pixel lines 32A and a plurality of non-phase difference pixel lines 32B are arranged on the light receiving surface 30A.
- the phase difference pixel line 32A is a horizontal line including the phase difference pixel P.
- the phase difference pixel line 32A is a horizontal line in which the phase difference pixel P and the non-phase difference pixel N are mixed.
- the non-phase difference pixel line 32B is a horizontal line including only a plurality of non-phase difference pixels N.
- the retardation pixel lines 32A and the non-phase difference pixel lines 32B corresponding to the predetermined number of lines are alternately arranged along the column direction.
- the "default number of lines" referred to here refers to, for example, two lines.
- 2 lines are exemplified as the default number of lines, but the technique of the present disclosure is not limited to this, and the default number of lines may be 3 or more lines, or a dozen or more lines. , Dozens of lines, hundreds of lines, etc.
- the phase difference pixel lines 32A are arranged by skipping two rows in the column direction from the first row to the last row.
- a part of the pixels of the phase difference pixel line 32A is the phase difference pixel P.
- the phase difference pixel line 32A is a horizontal line in which the phase difference pixels P and the non-phase difference pixels N are periodically arranged.
- the phase difference pixel P is roughly classified into a first phase difference pixel L and a second phase difference pixel R.
- the first phase difference pixel L and the second phase difference pixel R are alternately arranged as G pixels at intervals of several pixels in the line direction.
- the first phase difference pixel L and the second phase difference pixel R are arranged so as to appear alternately in the column direction.
- the first phase difference pixel L, the second phase difference pixel R, the first phase difference pixel L, and the second phase difference pixel R are arranged along the column direction from the first row. They are arranged in order. That is, the first phase difference pixel L and the second phase difference pixel R are alternately arranged along the column direction from the first row.
- the second phase difference pixel R, the first phase difference pixel L, the second phase difference pixel R, and the first phase difference pixel along the column direction from the first row are arranged in the order of L. That is, the second phase difference pixel R and the first phase difference pixel L are alternately arranged along the column direction from the first row.
- the photoelectric conversion element 30 is divided into two regions. That is, the photoelectric conversion element 30 has a non-phase difference pixel division area 30N and a phase difference pixel division area 30P.
- the phase difference pixel division region 30P is a phase difference pixel group composed of a plurality of phase difference pixels P, and receives subject light to generate phase difference image data as an electric signal according to the amount of received light.
- the phase difference image data is used for distance measurement, for example.
- the non-phase difference pixel division region 30N is a group of non-phase difference pixels composed of a plurality of non-phase difference pixels N, and receives subject light to generate non-phase difference image data as an electric signal according to the amount of received light.
- the non-phase difference image data is displayed on the display 26 (see FIG. 2) as a visible light image, for example.
- the first phase difference pixel L includes a light-shielding member 34A, a microlens 36, and a photodiode PD.
- a light-shielding member 34A is arranged between the microlens 36 and the light-receiving surface of the photodiode PD.
- the left half of the light receiving surface of the photodiode PD in the row direction (the left side when facing the subject from the light receiving surface (in other words, the right side when facing the light receiving surface from the subject)) is shielded by the light shielding member 34A.
- the second phase difference pixel R includes a light-shielding member 34B, a microlens 36, and a photodiode PD.
- the light-shielding member 34B is arranged between the microlens 36 and the light-receiving surface of the photodiode PD.
- the right half of the light receiving surface of the photodiode PD in the row direction (the right side when facing the subject from the light receiving surface (in other words, the left side when facing the light receiving surface from the subject)) is shielded by the light shielding member 34B.
- the light shielding member 34B In the following, for convenience of explanation, when it is not necessary to distinguish between the light-shielding members 34A and 34B, they are referred to as “light-shielding members” without reference numerals.
- the interchangeable lens 14 includes an image pickup lens 40.
- the luminous flux passing through the exit pupil of the image pickup lens 40 is roughly classified into left region passing light 38L and right region passing light 38R.
- the left region passing light 38L refers to the left half of the luminous flux passing through the exit pupil of the image pickup lens 40 when facing the subject side from the phase difference pixel P side
- the right region passing light 38R refers to the imaging lens.
- the luminous flux passing through the exit pupil of 40 it refers to the luminous flux of the right half when facing the subject side from the phase difference pixel P side.
- the luminous flux passing through the exit pupil of the image pickup lens 40 is divided into left and right by the microlens 36, the light blocking member 34A, and the light blocking member 34B that function as the pupil dividing portion, and the first retardation pixel L is the light passing through the left region as the subject light. 38L is received, and the second phase difference pixel R receives the right region passing light 38R as the subject light.
- the photoelectric conversion element 30 combines the first phase difference image data corresponding to the subject image corresponding to the left region passing light 38L and the second phase difference image data corresponding to the subject image corresponding to the right region passing light 38R. Generated.
- the amount of deviation ⁇ between the first phase difference image data for one line and the second phase difference image data for one line (hereinafter, simply “shift amount ⁇ ”).
- the distance to the subject that is, the subject distance is measured based on (also referred to as). Since the method of deriving the subject distance from the deviation amount ⁇ is a known technique, detailed description thereof will be omitted here.
- the non-phase difference pixel N is different from the phase difference pixel P in that it does not have a light-shielding member.
- the photodiode PD of the non-phase difference pixel N receives the left region passing light 38L and the right region passing light 38R as subject light.
- the image pickup lens 40 includes an objective lens 40A, a focus lens 40B, and a diaphragm 40C.
- the objective lens 40A, the focus lens 40B, and the aperture 40C are the objective lens 40A, the focus lens 40B, and the aperture 40C along the optical axis OA from the subject side (object side) to the image pickup device main body 12 side (image side). They are arranged in order.
- the interchangeable lens 14 includes a slide mechanism 42, a motor 44, and a motor 46.
- a focus lens 40B is attached to the slide mechanism 42 so as to be slidable along the optical axis OA.
- a motor 44 is connected to the slide mechanism 42, and the slide mechanism 42 operates by receiving the power of the motor 44 to move the focus lens 40B along the optical axis OA.
- the diaphragm 40C is a diaphragm in which the size of the opening is variable.
- a motor 46 is connected to the diaphragm 40C, and the diaphragm 40C adjusts the exposure by operating under the power of the motor 46.
- the structure and / or operation method of the interchangeable lens 14 can be changed as needed.
- the motors 44 and 46 are connected to the image pickup apparatus main body 12 via a mount (not shown), and the drive is controlled according to a command from the image pickup apparatus main body 12.
- a stepping motor is adopted as an example of the motors 44 and 46. Therefore, the motors 44 and 46 operate in synchronization with the pulse signal in response to a command from the image pickup apparatus main body 12.
- FIG. 6 an example in which the motors 44 and 46 are provided in the interchangeable lens 14 is shown, but the present invention is not limited to this, and one of the motors 44 and 46 is provided in the image pickup apparatus main body 12. Both the motors 44 and 46 may be provided in the image pickup apparatus main body 12.
- the MF mode and the AF mode are selectively set according to the instruction given to the image pickup device main body 12.
- the MF mode is an operation mode for manually focusing.
- the focus lens 40B moves along the optical axis OA with a movement amount corresponding to the operation amount of the focus ring, whereby the focus is adjusted. Will be done.
- the image pickup device main body 12 calculates the focusing position according to the subject distance, and moves the focus lens 40B toward the calculated focusing position to adjust the focus.
- the in-focus position refers to the position of the focus lens 40B on the optical axis OA in a state of being in focus.
- the control for aligning the focus lens 40B with the in-focus position is also referred to as "AF control”.
- the calculation of the in-focus position is also referred to as “AF calculation”.
- the CPU 48A which will be described later, performs AF calculation to detect the focus on a plurality of subjects. Then, the CPU 48A, which will be described later, focuses on the subject based on the result of the AF calculation, that is, the focus detection result.
- the image pickup device main body 12 includes an image sensor 16, a controller 48, an image memory 50, a UI device 52, an external I / F 54, a photoelectric conversion element driver 56, a motor driver 58, a motor driver 60, a mechanical shutter driver 62, and a mechanical shutter actuator. It has 64. Further, the image pickup apparatus main body 12 includes a mechanical shutter 72. Further, the image sensor 16 includes a signal processing circuit 74.
- a controller 48, an image memory 50, a UI device 52, an external I / F 54, a photoelectric conversion element driver 56, a motor driver 58, a motor driver 60, a mechanical shutter driver 62, and a signal processing circuit 74 are connected to the input / output interface 70. Has been done.
- the controller 48 includes a CPU 48A, a storage 48B, and a memory 48C.
- the CPU 48A is an example of a "processor” according to the technique of the present disclosure
- the memory 48C is an example of a “memory” according to the technique of the present disclosure
- the controller 48 is an "image support device” according to the technique of the present disclosure.
- a "computer" an example of a "computer”.
- the CPU 48A, the storage 48B, and the memory 48C are connected via the bus 76, and the bus 76 is connected to the input / output interface 70.
- bus 76 may be a serial bus, or may be a parallel bus including a data bus, an address bus, a control bus, and the like.
- the storage 48B stores various parameters and various programs.
- the storage 48B is a non-volatile storage device.
- EEPROM is adopted as an example of the storage 48B.
- the EEPROM is only an example, and an HDD and / or an SSD or the like may be applied as the storage 48B in place of or together with the EEPROM.
- the memory 48C temporarily stores various information and is used as a work memory.
- An example of the memory 48C is RAM, but the memory is not limited to this, and other types of storage devices may be used.
- the CPU 48A reads a necessary program from the storage 48B, and executes the read program on the memory 48C.
- the CPU 48A controls the entire image pickup apparatus main body 12 according to a program executed on the memory 48C.
- the image memory 50, the UI device 52, the external I / F 54, the photoelectric conversion element driver 56, the motor driver 58, the motor driver 60, and the mechanical shutter driver 62 are controlled by the CPU 48A.
- a photoelectric conversion element driver 56 is connected to the photoelectric conversion element 30.
- the photoelectric conversion element driver 56 supplies an imaging timing signal defining the timing of imaging performed by the photoelectric conversion element 30 to the photoelectric conversion element 30 according to an instruction from the CPU 48A.
- the photoelectric conversion element 30 resets, exposes, and outputs an electric signal according to the image pickup timing signal supplied from the photoelectric conversion element driver 56.
- Examples of the imaging timing signal include a vertical synchronization signal and a horizontal synchronization signal.
- the photoelectric conversion element 30 photoelectrically converts the subject light received by the light receiving surface 30A, and signals an electric signal according to the amount of the subject light as analog image data indicating the subject light.
- the signal processing circuit 74 reads analog image data from the photoelectric conversion element 30 in units of one frame and for each horizontal line by an exposure sequential reading method. The analog image data is roughly classified into analog phase difference image data generated by the phase difference pixel P and analog non-phase difference image data generated by the non-phase difference pixel N.
- the signal processing circuit 74 generates digital image data by digitizing the analog image data input from the photoelectric conversion element 30.
- the signal processing circuit 74 includes a non-phase difference image data processing circuit 74A and a phase difference image data processing circuit 74B.
- the non-phase difference image data processing circuit 74A generates digital non-phase difference image data by digitizing analog non-phase difference image data.
- the phase difference image data processing circuit 74B generates digital phase difference image data by digitizing analog phase difference image data.
- digital image data when it is not necessary to distinguish between digital non-phase difference image data and digital phase difference image data, it is referred to as “digital image data”. Further, in the following, for convenience of explanation, when it is not necessary to distinguish between analog image data and digital image data, they are referred to as “image data”.
- the mechanical shutter 72 is a focal plane shutter and is arranged between the diaphragm 40C and the light receiving surface 30A.
- the mechanical shutter 72 includes a front curtain (not shown) and a rear curtain (not shown). Each of the front curtain and the rear curtain has a plurality of blades. The first curtain is placed closer to the subject than the second curtain.
- the mechanical shutter actuator 64 is an actuator having a solenoid for the front curtain (not shown) and a solenoid for the rear curtain (not shown).
- the solenoid for the front curtain is a drive source for the front curtain and is mechanically connected to the front curtain.
- the rear curtain solenoid is a drive source for the rear curtain and is mechanically connected to the rear curtain.
- the mechanical shutter driver 62 controls the mechanical shutter actuator 64 according to the instruction from the CPU 48A.
- the solenoid for the front curtain generates power under the control of the mechanical shutter driver 62, and by applying the generated power to the front curtain, the front curtain is selectively wound and pulled down.
- the rear curtain solenoid generates power under the control of the mechanical shutter driver 62, and by applying the generated power to the rear curtain, the rear curtain is selectively wound and pulled down.
- the opening and closing of the front curtain and the opening and closing of the rear curtain are controlled by the CPU 48A, so that the exposure amount to the photoelectric conversion element 30 is controlled.
- the image pickup for a live view image and the image pickup for a recorded image for recording a still image and / or a moving image are performed by an exposure sequential readout method (rolling shutter method).
- the image sensor 16 has an electronic shutter function, and imaging for a live view image is realized by operating the electronic shutter function without operating the mechanical shutter 72 in the fully open state.
- the electronic shutter function is activated and the mechanical shutter 72 is closed from the front curtain closed state to the rear curtain closed state. This is achieved by operating the mechanical shutter 72 so as to transition to the state.
- the image obtained by performing the main exposure imaging by the image pickup apparatus 10 (hereinafter, also referred to as “the main exposure image”) is an example of the “captured image” according to the technique of the present disclosure.
- Digital image data is stored in the image memory 50. That is, the non-phase difference image data processing circuit 74A stores the non-phase difference image data in the image memory 50, and the phase difference image data processing circuit 74B stores the phase difference image data in the image memory 50.
- the CPU 48A acquires digital image data from the image memory 50 and executes various processes using the acquired digital image data.
- the UI device 52 includes a display 26, and the CPU 48A causes the display 26 to display various information. Further, the UI device 52 includes a reception device 80.
- the reception device 80 includes a touch panel 28 and a hard key unit 82.
- the hard key unit 82 is a plurality of hard keys including an instruction key 24 (see FIG. 2).
- the CPU 48A operates according to various instructions received by the touch panel 28.
- the hard key unit 82 is included in the UI device 52, but the technique of the present disclosure is not limited to this, and for example, even if the hard key unit 82 is connected to the external I / F 54. good.
- the external I / F 54 controls the exchange of various information with a device existing outside the image pickup device 10 (hereinafter, also referred to as an “external device”).
- An example of the external I / F 54 is a USB interface.
- External devices such as smart devices, personal computers, servers, USB memory, memory cards, and / or printers are directly or indirectly connected to the USB interface.
- the motor driver 58 is connected to the motor 44 and controls the motor 44 according to an instruction from the CPU 48A. By controlling the motor 44, the position of the focus lens 40B on the optical axis OA is controlled via the slide mechanism 42. The focus lens 40B moves according to the instruction from the CPU 48A, avoiding the period of the main exposure by the image sensor 16.
- the motor driver 60 is connected to the motor 46 and controls the motor 46 according to an instruction from the CPU 48A. By controlling the motor 46, the size of the opening of the diaphragm 40C is controlled.
- the image pickup support processing program 84 is stored in the storage 48B.
- the CPU 48A reads the image pickup support processing program 84 from the storage 48B, and executes the read image pickup support processing program 84 on the memory 48C.
- the CPU 48A performs image pickup support processing according to the image pickup support process program 84 executed on the memory 48C (see also FIGS. 20A and 20B).
- the CPU 48A is classified according to the characteristics of the subject (hereinafter, also referred to as “subject characteristics") specified from the main exposure image obtained by being imaged by the image pickup apparatus 10 by executing the image pickup support process. Acquire frequency information indicating the frequency of subject features classified into. Next, the CPU 48A performs a support process (hereinafter, also simply referred to as “support process”) for supporting the image pickup by the image pickup apparatus 10 based on the acquired frequency information.
- support process hereinafter, also simply referred to as “support process”
- the CPU 48A operates as an acquisition unit 48A1, a subject recognition unit 48A2, a feature extraction unit 48A3, a classification unit 38A4, and a control unit 48A5 by executing the image pickup support processing program 84.
- the classification unit 38A4 is an example of a "classifier" according to the technique of the present disclosure.
- the acquisition unit 48A1 acquires non-phase difference image data from the image memory 50 as live view image data.
- the live view image data is acquired from the image memory 50 by the acquisition unit 48A1 at a predetermined frame rate (for example, 60 fps).
- the live view image data is image data indicating a live view image.
- the live view image data is obtained by capturing the image pickup region by the image sensor 16.
- the live view image data obtained by capturing an imaging region including a plurality of people is shown.
- a plurality of persons are an example of "a plurality of objects" according to the technique of the present disclosure.
- a person is illustrated as the subject of the image pickup apparatus 10 for convenience of explanation, but the technique of the present disclosure is not limited to this, and the subject may be other than the person.
- subjects other than humans include small animals, insects, plants, buildings, landscapes, organs of living organisms, and / or cells of living organisms. That is, the image pickup region does not have to include a person, and may include a subject that can be imaged by the image sensor 16.
- the control unit 48A5 causes the display 26 to display the live view image indicated by the live view image data acquired by the acquisition unit 48A1 each time the acquisition unit 48A1 acquires the live view image data for one frame.
- the live view image includes a plurality of person images showing a plurality of people as a plurality of subject images showing a plurality of subjects.
- a designated imaging range is determined according to an instruction given from the outside (for example, an instruction received by the reception device 80) while the live view image is displayed on the display 26.
- the designated imaging range is determined by operating the touch panel 28 with the user's finger.
- One of the purposes of determining the designated imaging range is, for example, to determine the imaging range to be focused.
- the inside of the rectangular frame (the frame of the alternate long and short dash line in the example shown in FIG. 10) formed by the user sliding on the touch panel 28 while touching the touch panel 28 is the designated imaging range.
- the control unit 48A5 stores the designated imaging range information 86 indicating the designated imaging range defined according to the instruction given from the outside in the storage 48B.
- the designated imaging range information 86 stored in the storage 48B is updated every time the designated imaging range is newly determined.
- the acquisition unit 48A1 acquires non-phase difference image data from the image memory 50 as the main exposure image data.
- the subject recognition unit 48A2 recognizes a subject in the imaging region based on the main exposure image data acquired by the acquisition unit 48A1.
- the trained model 92 is stored in the storage 48B, and the subject recognition unit 48A2 recognizes the subject in the imaging region using the trained model 92.
- An example of the trained model 92 is a trained model using a cascade classifier.
- a trained model using a cascade classifier is constructed as a trained model for image recognition, for example, by performing supervised machine learning on a neural network.
- the trained model 92 does not have to be limited to the trained model using the cascade classifier, and may be a dictionary for pattern matching. That is, the trained model 92 may be any trained model as long as it is a trained model used in image analysis performed when a subject is recognized.
- the subject recognition unit 48A2 recognizes a person included in the imaging region as a subject by performing image analysis on the main exposure image data. Further, the subject recognition unit 48A2 performs image analysis on the main exposed image data, such as the face (facial expression) of the person, the posture of the person, the opening and closing of the eyes of the person, and the presence or absence of the person within the designated imaging range. Recognize the characteristics of the person as the subject characteristics.
- the subject recognition unit 48A2 recognizes a person's face as one of the subject features.
- the face of a person is, for example, a smiling face, a crying face, an angry face, or a straight face.
- the subject recognition unit 48A2 recognizes, for example, a smile, a crying face, an angry face, and a true face as subject features belonging to the category of "person's face".
- a smile means a facial expression in which a person is laughing
- a crying face means a facial expression in which a person is crying
- an angry face means a facial expression in which a person is angry
- a true face means a smile.
- a crying face, and an angry face means a smile.
- the subject recognition unit 48A2 recognizes the posture of the person as one of the subject features.
- the posture of the person is, for example, either frontal or non-frontal.
- the subject recognition unit 48A2 recognizes, for example, the front and the non-front as subject features belonging to the category of "posture of a person".
- the front means that the person is facing the front with respect to the light receiving surface 30A (see FIG. 6).
- the non-front means that the direction of the person is other than the front.
- the subject recognition unit 48A2 recognizes a person's eyes as one of the subject features.
- the human eye is, for example, either open or closed.
- the subject recognition unit 48A2 recognizes, for example, open eyes and closed eyes as subject features belonging to the category of "human eyes".
- the term "open eyes” refers to a state in which the person has his eyes open
- the term “closed eyes” refers to a state in which the person has his eyes closed.
- the subject recognition unit 48A2 recognizes the presence or absence of a person within the designated imaging range as one of the subject features.
- the subject recognition unit 48A2 recognizes the inside of the designated imaging range and the outside of the designated imaging range as subject features belonging to the category of "designated imaging range".
- the term "within the designated imaging range” refers to a state in which a person exists within the designated imaging range
- the term “outside the designated imaging range” refers to a state in which a person exists outside the designated imaging range.
- the subject recognition unit 48A2 stores the recognition result information 94 indicating the result of recognizing the subject (here, a person as an example) included in the imaging region in the memory 48C.
- the recognition result information 94 is overwritten and saved in the memory 48C in units of one frame.
- the recognition result information 94 is information including the subject name, the subject feature, and the recognition area specific coordinates, and the subject name, the subject feature, and the recognition area specific coordinates are associated with each subject included in the imaging area. It is stored in the memory 48C.
- the recognition area specific coordinates are a quadrangular frame (hereinafter, "subject frame") that surrounds a characteristic area of a subject image indicating a subject recognized by the subject recognition unit 48A2 (for example, a face area indicating a person's face).
- (Also called) refers to the coordinates indicating the position in the live view image.
- the recognition area specific coordinates the coordinates of two vertices on the diagonal line of the subject frame in the live view image (for example, the coordinates of the upper left corner and the coordinates of the lower right corner) can be mentioned.
- the shape of the subject frame is a quadrangle
- the recognition area specific coordinates may be the coordinates of three vertices or the coordinates of four vertices.
- the shape of the subject frame is not limited to a quadrangle, and may be another shape. In this case as well, the coordinates that can specify the position of the subject image in the live view image may be used as the recognition area specific coordinates.
- the feature extraction unit 48A3 extracts subject-specific feature information from the recognition result information 94 stored in the memory 48C.
- the subject-specific feature information is information in which the subject name and the subject feature are associated one-to-one with each subject.
- a category database 96 is constructed in the storage 48B.
- the category database 96 includes a plurality of subject-specific category groups 98.
- the subject-specific category group 98 is assigned to each subject one by one.
- a plurality of subject-specific category groups 98 a plurality of categories including a person A category group, a person B category group, a person C category group, a person D category group, and a person E category group are included.
- the category group (category group assigned to each person) is shown.
- Each of the plurality of subject-specific category groups 98 is a category in which each of the plurality of persons can be identified.
- the subject-specific category group 98 is an example of the "object target category" according to the technique of the present disclosure.
- the classification unit 48A4 identifies the subject-specific category group 98 corresponding to the subject name from the subject name included in the subject-specific feature information, and classifies the subject feature corresponding to the subject name into the specified subject-specific category group 98.
- the subject-specific category group 98 includes a plurality of categories. Each of the plurality of categories included in the subject-specific category group 98 is a category created for each unit independent of each other.
- the unit refers to the unit of the subject feature.
- a face category, a posture category, an eye category, a designated imaging range category, and the like are shown as an example of a plurality of categories included in the subject-specific category group 98.
- the face category is a category defined by the subject characteristics of the unit "face of a person”.
- the posture category is a category defined by the subject characteristics of the unit "posture of a person”.
- the eye category is a category defined by the subject characteristics of the unit "human eye”.
- the designated imaging range category is a category defined by the subject characteristics of the unit called "designated imaging range” applied to a person.
- the small category is a category in which subject features that are subordinate to the subject features indicated by the large category are classified.
- the number of classifications is associated with a plurality of subcategories.
- the subject features are classified by the classification unit 48A4. Every time a subject feature is classified once and added to a small category, "1" is added to the number of classifications as the number of times the subject feature is classified.
- a smile category, a crying face category, an angry face category, and a true face category are shown as a plurality of categories included in the face category in the subject-specific category group 98 used for the person A.
- the classification unit 48A4 classifies the subject feature "smile” of the person A into the smile category. Then, the classification unit 48A4 adds "1" to the number of classifications for the smile category every time the subject feature "smile” is classified into the smile category once.
- the subject features of person A such as "crying face”, “angry face”, and “true face" are also classified into the corresponding categories by the classification unit 48A4 in the same manner as the subject feature of "smile", and the corresponding number of classifications is ". 1 ”is added.
- the number of classifications is also associated with the face category.
- the number of classifications for the face category is the total number of classifications for the smile category, the number of classifications for the crying face category, the number of classifications for the angry face category, and the number of classifications for the true face category.
- a front category and a non-front category are shown as a plurality of categories included in the posture category in the subject-specific category group 98 used for the person A.
- the classification unit 48A4 classifies the subject feature "front” of the person A into the front category. Then, each time the classification unit 48A4 classifies the subject feature "front” into the front category once, "1" is added to the number of classifications for the front category. Similar to the subject feature "front”, the subject feature "non-front” of the person A is also classified into the non-front category by the classification unit 48A4, and "1" is added to the corresponding number of classifications.
- the number of classifications is also associated with the posture category.
- the number of classifications for the posture category is the sum of the number of classifications for the front category and the number of classifications for the non-front category.
- the eye open category and the eye closed category are shown as a plurality of categories included in the eye category in the subject-specific category group 98 used for the person A.
- the classification unit 48A4 classifies the subject feature "eye open” of the person A into the eye open category. Then, the classification unit 48A4 adds "1" to the number of classifications for the eye-opening category every time the subject feature "eye-opening" is classified into the eye-opening category once. Similar to the subject feature "closed eyes", the subject feature "closed eyes” of the person A is also classified into the closed eyes category by the classification unit 48A4, and "1" is added to the corresponding number of classifications.
- the number of classifications is also associated with the eye category.
- the number of classifications for the eye category is the sum of the number of classifications for the open eye category and the number of classifications for the closed eye category.
- a category within the designated imaging range and a category outside the designated imaging range are shown as a plurality of categories included in the designated imaging range category in the subject-specific category group 98 used for the person A.
- the classification unit 48A4 classifies the subject feature "within the designated imaging range” into the category within the designated imaging range. Then, each time the classification unit 48A4 classifies the subject feature "within the designated imaging range” into the category within the designated imaging range once, "1" is added to the number of classifications for the category within the designated imaging range. Similar to the subject feature "within the designated imaging range", the subject feature "outside the designated imaging range” is also classified into the category outside the designated imaging range by the classification unit 48A4, and "1" is added to the corresponding number of classifications. ..
- the number of classifications is also associated with the specified imaging range category.
- the number of classifications for the designated imaging range category is the sum of the number of classifications for the categories within the designated imaging range and the number of classifications for the categories outside the designated imaging range.
- the subject-specific category group 98 is a category defined by the subject feature in the unit of "subject name", and the subject feature called the subject name is classified in the subject-specific category group 98.
- the number of classifications is also associated with the subject-specific category group 98.
- the number of classifications associated with the subject-specific category group 98 is the sum of the number of classifications of a plurality of large categories belonging to the subject-specific category group 98.
- the acquisition unit 48A1 acquires non-phase difference image data from the image memory 50 as live view image data.
- the subject recognition unit 48A2 recognizes a subject in the imaging region using the trained model 92 based on the live view image data acquired by the acquisition unit 48A1.
- the subject recognition unit 48A2 recognizes a person included in the imaging region as a subject by performing image analysis on the live view image data. Further, the subject recognition unit 48A2 performs image analysis on the live view image data to determine the face of the person, the posture of the person, the opening and closing of the eyes of the person, and the presence or absence of the person within the designated imaging range. Recognize features as subject features.
- the subject recognition unit 48A2 recognizes a smiling face, a crying face, an angry face, and a true face as subject features belonging to the face category by performing image analysis on the live view image data. Further, the subject recognition unit 48A2 recognizes front and non-front as subject features belonging to the posture category by performing image analysis on the live view image data. Further, the subject recognition unit 48A2 recognizes open eyes and closed eyes as subject features belonging to the eye category by performing image analysis on the live view image data. Further, the subject recognition unit 48A2 recognizes within the designated imaging range and outside the designated imaging range as subject features belonging to the designated imaging range category by performing image analysis on the live view image data. The subject recognition unit 48A2 stores the recognition result information 94 indicating the result of recognizing the person included in the image pickup region in the memory 48C. The recognition result information 94 is overwritten and saved in the memory 48C in units of one frame.
- the control unit 48A5 causes the display 26 to display the live view image indicated by the live view image data acquired by the acquisition unit 48A1. Further, the control unit 48A5 refers to the recognition result information 94 stored in the memory 48C, and refers to a person recognized as a subject by the subject recognition unit 48A2 based on the live view image data (hereinafter, also referred to as a “recognition person”). ) Is obtained from each category included in the category database 96. That is, the control unit 48A5 acquires the number of classifications for each recognized person from each category of the subject-specific category group 98 corresponding to the recognized person.
- the control unit 48A5 generates an image pickup support screen 100 based on the number of classifications acquired from each category included in the category database 96, and superimposes and displays the generated image pickup support screen 100 on the live view image.
- the imaging support screen 100 is displayed on the upper left of the live view image.
- a bubble chart 100A and a category selection screen 100B are displayed in the image pickup support screen 100.
- the bubble chart 100A is a chart in which bubbles showing the number of classifications are plotted on two axes, an axis showing a plurality of recognized persons and an axis showing a category.
- a bubble chart related to a face category (hereinafter, also referred to as a “face category bubble chart”) is shown as an example of the bubble chart 100A.
- the face category bubble chart is a chart in which bubbles of each classification number of smile category, crying face category, angry face category, and true face category belonging to the face category are plotted for each of a plurality of persons including persons A to E.
- a bubble chart related to the posture category (hereinafter, also referred to as “posture category bubble chart”) and a bubble chart related to the eye category (hereinafter, also referred to as “eye category bubble chart”).
- a bubble chart relating to the designated imaging range category (hereinafter, also referred to as “designated imaging range category bubble chart”) are selectively displayed according to an instruction given from the outside.
- examples of the instruction given from the outside include an instruction received by the reception device 80.
- a plurality of softkeys showing the names of each category are displayed in a scrolling manner in the category selection screen 100B.
- the number of classifications of each category of the bubble chart 100A currently displayed for the selected person is a histogram. It is displayed in the image pickup support screen 100 as 100C (see FIG. 18).
- the person A in the bubble chart 100A is selected via the touch panel by the operation by the user's finger.
- the histogram 100C a histogram showing the imaging tendency of the face category (hereinafter, also referred to as “face category histogram”) is displayed for the person A.
- face category histogram the horizontal axis shows each category of smile category, crying face category, angry face category, and true face category, and the vertical axis shows the number of classifications.
- the face category histogram is shown as the histogram 100C, but different types of histograms are displayed as the histogram 100C depending on the type of the bubble chart 100A and the person selected by the user.
- types of the histogram 100C in addition to the face category histogram, for example, a histogram showing the imaging tendency of the posture category (hereinafter, also referred to as “posture category histogram”) and the imaging tendency of the eye category for each selected person are shown.
- the histogram is not limited to the histogram for each person, and may be a histogram in which the horizontal axis is the person A to E and the vertical axis is the number of times classified into the subject-specific category group 98. As described above, the horizontal axis and the vertical axis of the histogram may be the axes of any element as long as they can form the histogram.
- the display switching instruction screen 100D is displayed in the image pickup support screen 100.
- the display switching instruction screen 100D is a screen that receives an instruction to switch from the display of the histogram 100C to the display of the bubble chart 100A.
- a message for guiding the switching to the bubble chart 100A in the example shown in FIG. 18, the message "Do you want to return to the bubble chart screen?"
- the switching soft key (example shown in FIG. 18). Then, the softkey displayed as "Yes") is displayed.
- the switching softkey is turned on via the touch panel by the operation of the user's finger, the display of the histogram 100C is switched to the display of the bubble chart 100A.
- the reception device 80 (touch panel 28 in the example shown in FIG. 18) specifies the number of classifications of any category in the histogram 100C.
- the smile category is selected by the user's finger via the touch panel 28, so that the number of times the smile category is classified is specified.
- the control unit 48A5 performs support processing for the category corresponding to the designated number of classifications (hereinafter, also referred to as “target category”).
- the smile category is designated as the target category from a plurality of categories (smile category, crying face category, angry face category, and true face category) in the histogram 100C for the person A.
- the target category is a category determined based on the number of classifications (in the example shown in FIG. 18, a category designated based on the number of classifications according to the instruction received by the touch panel 28).
- an image pickup using the image sensor 16 is supported for a person A (hereinafter, also referred to as “target category subject S” (see FIG. 19)) having a “smile” which is a subject feature belonging to the smile category. Processing is done.
- the target category is the state of the target category subject S (for example, facial expression, posture, open / closed state of eyes, and / or the positional relationship between the person and the designated imaging range. Etc.), and is a category in which the subject characteristics of the target category subject S are classified.
- the smile category to which the features are classified is designated as the target category by the user.
- the smile category designated as the target category by the user from the histogram 100C is the category with the lowest number of classifications as compared with the crying face category, the angry face category, and the true face category. This means that the number of main-exposed images in which the person A is shown with a smile is smaller than the number of main-exposed images in which the person A is shown with other facial expressions.
- the smile category in the histogram 100C is an example of the "low frequency category" according to the technique of the present disclosure.
- the control unit 48A5 obtains a live image obtained by capturing an image pickup region including the target category subject S by the image pickup device 10.
- a display process is performed in which the view image is displayed on the display 26, and as a support process, the target category subject S with a smile is specified based on the recognition result information 94, and the specified target category subject S is recommended to be imaged. ..
- the display process displays an arrow pointing to the target category subject image S1 indicating the target category subject S with a smile on the live view image, and captures the image of the target category subject S indicated by the target category subject image S1 indicated by the arrow.
- It includes a process of displaying recommended information (hereinafter, also referred to as "imaging recommended information").
- imaging recommended information hereinafter, also referred to as "imaging recommended information”
- the display process includes a process of displaying the target category subject image S1 in the live view image in a manner distinguishable from other image areas.
- the control unit 48A5 detects the face area of the target category subject image (the image area showing the face of the target category subject S) based on the recognition result information 94 stored in the memory 48C, and the detected face.
- the target category subject image S1 is displayed in the live view image in a manner distinguishable from other image areas.
- the method of displaying the target category subject image S1 in the live view image in a manner distinguishable from other image areas is not limited to this, and for example, only the target category subject image S1 is displayed in the live view image by the peaking method. It may be done.
- 20A and 20B show an example of the flow of the image pickup support process executed by the CPU 48A when the image pickup mode is set for the image pickup apparatus 10.
- the flow of the image pickup support process is an example of the "imaging image support method" according to the technique of the present disclosure.
- the image pickup device 10 is performing the imaging for the live view image at a predetermined frame rate.
- the designated imaging range information 86 is stored in the storage 48B and the category database 96 has already been constructed.
- step ST100 the acquisition unit 48A1 acquires live view image data from the image memory 50.
- control unit 48A5 causes the display 26 to display the live view image indicated by the live view image data acquired in the step ST100.
- the subject recognition unit 48A2 recognizes the subject in the imaging region using the trained model 92 based on the live view image data acquired in step ST100.
- control unit 48A5 acquires the number of classifications for each category of the subject recognized in step ST104 from the category database 96.
- control unit 48A5 creates an image pickup support screen 100 based on the number of classifications acquired in step ST106, and displays the created image pickup support screen 100 in a part of the live view image.
- step ST110 the control unit 48A5 determines whether or not any of the classification counts has been specified from the histogram 100C in the image pickup support screen 100.
- step ST110 if any of the number of classifications is not yet specified from the histogram 100C in the image pickup support screen 100, the determination is denied and the image pickup support process shifts to step ST116 shown in FIG. 20B.
- step ST110 if any of the number of classifications is specified from the histogram 100C in the image pickup support screen 100, the determination is affirmed and the image pickup support process proceeds to step ST112.
- step ST112 the control unit 48A5 sets the detection frame 102 so as to surround the face area of the target category subject image S1 indicating the target category subject S having subject features belonging to the specified target category based on the specified number of classifications. Display in the live view image.
- step ST114 the control unit 48A5 displays the imaging recommended information in the live view image.
- step ST114 the image pickup support process shifts to step ST116 shown in FIG. 20B.
- step ST116 the control unit 48A5 determines whether or not the condition for starting the main exposure (hereinafter referred to as "main exposure start condition") is satisfied.
- the main exposure start condition there is a condition that the above-mentioned fully pressed state is obtained by the instruction received by the reception device 80. If the main exposure start condition is not satisfied in step ST116, the determination is denied and the imaging support process shifts to step ST130. If the main exposure start condition is satisfied in step ST116, the determination is affirmed, and the imaging support process shifts to step ST118.
- step ST118 the control unit 48A5 causes the image sensor 16 to perform main exposure imaging for the imaging region including the target category subject S.
- the image memory 50 stores the main exposure image data showing the main exposure image of the imaging region including the target category subject S.
- the acquisition unit 48A1 acquires the main exposure image data from the image memory 50.
- the subject recognition unit 48A2 recognizes the subject in the imaging region using the trained model 92 based on the main exposure image data acquired in step ST120, and the recognition result information 94 is stored in the memory 48C.
- the feature extraction unit 48A3 extracts subject-specific feature information for each subject from the recognition result information 94 stored in the memory 48C.
- the classification unit 48A4 identifies the subject-specific category group 98 corresponding to the subject name from the subject name included in the subject-specific feature information extracted in step ST124, and within the specified subject-specific category group 98. Classify subject features into the corresponding categories of.
- the classification unit 48A4 updates the number of classifications by adding "1" to the number of classifications of the category in which the subject features are classified.
- control unit 48A5 erases the live view image and the like (for example, the live view image, the imaging support screen 100, the detection frame 102, and the imaging recommended information) from the display 26.
- the control unit 48A5 determines whether or not the condition for terminating the imaging support process (hereinafter, also referred to as “imaging support process end condition”) is satisfied.
- the image pickup support process end condition the condition that the image pickup mode set for the image pickup apparatus 10 is canceled, or the instruction to end the image pickup support process is received by the reception device 80. Conditions and the like can be mentioned. If the condition for ending the image pickup support process is not satisfied in step ST120, the determination is denied and the image pickup support process proceeds to step ST100. If the condition for ending the image pickup support process is satisfied in step ST132, the determination is affirmed and the image pickup support process ends.
- the control unit 48A5 acquires the number of classifications of the subject features classified into categories based on the subject features of the subject specified from the main exposure image. Then, the control unit 48A5 performs a support process for supporting the image pickup by the image pickup apparatus 10 based on the number of classifications. Therefore, according to this configuration, it is possible to support the imaging by the imaging device 10 according to the number of classifications in which the subject features are classified into categories.
- the categories are classified into a plurality of categories including the target category.
- the target category is a category determined based on the number of classifications. In the example shown in FIG. 18, the target category is specified by selecting the number of classifications by the user.
- the control unit 48A5 performs a process of supporting imaging of the target category subject S having subject characteristics belonging to the target category. In the example shown in FIG. 19, a process of supporting imaging is performed on the subject S of the target category of a smile.
- the smile category is specified by selecting the number of classifications of the smile category by the user, imaging of the smile target category subject S is supported, but other
- the number of classifications of subject features for example, crying face, angry face, and / or true face
- a small category other than the smile category is specified among a plurality of small categories in the face category. Is a process of supporting imaging of a target category subject S having subject features belonging to the designated target category.
- the small category is specified by the user selecting the number of classifications of the subject features classified into the small categories belonging to other large categories, not limited to the small category belonging to the face category, it is specified as the target category. Processing is performed to support imaging for the target category subject S having the subject characteristics belonging to the small category.
- the subject-specific category group 98 is specified by the user selecting the number of classifications of the subject names classified as the subject features in the subject-specific category group 98, the subject-specific category designated as the target category.
- a process for supporting imaging is performed on the target category subject S having the subject characteristics belonging to the group 98, that is, the target category subject S having the subject name corresponding to the subject-specific category group 98 designated as the target category.
- the imaging recommended information (in the example shown in FIG. 19, the message "It is recommended to take this subject") is displayed as the display recommending the imaging of the target category subject S. .. Therefore, according to this configuration, the efficiency of the target category subject with the facial expression desired by the user is higher than that in the case where the subject category subject S having the subject characteristics desired by the user is judged only by the intuition of the imager and the image is taken. Can be imaged.
- control unit 48A5 displays the live view image on the display 26, and the target category subject image S1 is displayed in the live view image in a manner in which the target category subject image S1 can be distinguished from other image areas. Therefore, according to this configuration, the user can visually recognize the target category subject.
- control unit 48A5 displays the live view image on the display 26, and the detection frame 102 is displayed for the face area of the target category subject image S1 in the live view image. Therefore, according to this configuration, the user can be made to recognize that the subject corresponding to the display area in which the detection frame 102 is displayed is the subject in the target category.
- the target category a category in which the number of classifications is relatively low among the plurality of categories (in the example shown in FIG. 18, the smile category) is designated by the user. Therefore, according to this configuration, the subject is classified among a plurality of categories as compared with the case where the subject is judged only by the intuition of the imager whether or not the subject is in a category in which the number of classifications is relatively low among the plurality of categories. It is possible to efficiently image a subject in a category with a relatively low number of times.
- the target category is a category determined according to the state of the target category subject S (for example, the facial expression of a person).
- a smile category defined according to the state of the subject S called "smile" is designated.
- the control unit 48A5 performs a process of supporting imaging of the target category subject S, which is a subject having subject characteristics classified into the designated category. Therefore, according to this configuration, the number of times of imaging of a subject in the same state can be increased, and conversely, the number of times of imaging of a subject in the same state can be reduced.
- a plurality of subject-specific category groups 98 are included in the category database 96 as categories in which each of the plurality of persons can be identified. Therefore, the control unit 48A5 performs a process of supporting the imaging of the target category subject S, which is the subject corresponding to the subject-specific category group 98 designated by the user. Therefore, according to this configuration, the number of times of imaging of the same subject can be increased, and conversely, the number of times of imaging of the same subject can be reduced.
- categories in which subject features are classified are created for each of a plurality of units.
- the plurality of units include, for example, a unit called "subject name (for example, a person's name or an identifier capable of identifying a person)", a unit called “a person's face (facial expression)", and a unit called “person's posture”. Examples include a unit called "human eye” and a unit called "designated imaging range”. Therefore, according to this configuration, it is possible to support the image pickup by the image pickup apparatus 10 according to the number of classifications in which the subject features are classified into the categories of the designated units.
- a process including a process of displaying the number of classifications on the display 26 is performed by the control unit 48A5.
- the number of classifications is expressed using the bubble chart 100A, and in the example shown in FIG. 18, the number of classifications is expressed using the histogram 100C. Therefore, according to this configuration, it is possible for the user to grasp the number of times the image is taken for each of the various subject features.
- the technique of the present disclosure is not limited to this.
- the target category subject image S1 is located outside the object Ob indicating the designated imaging range in the live view image. Is displayed.
- the control unit 48A5 separates the object Ob indicating the designated imaging range and the target category subject image S1 (an example of the “object indicating the target category subject” according to the technique of the present disclosure) in the live view image. Display in the display mode.
- the target category subject image S1 is displayed in a peaking manner, and the object Ob is colored with a translucent color (for example, translucent gray).
- the number of classifications shown in the histogram 100C is designated by the user via the touch panel 28, so that the category corresponding to the designated number of classifications (in the example shown in FIG. 18, the smile category).
- the techniques of the present disclosure are not limited to this.
- the control unit 48A5 may specify a low-frequency category having a relatively low number of classifications as a target category among a plurality of categories, and perform processing to support imaging of the specified low-frequency category.
- the low frequency category is among a plurality of small categories (smile category, crying face category, angry face category, and true face category) belonging to a large category (for example, face category) designated by the user via the reception device 80.
- the control unit 48A5 identifies and identifies the attention subject having the subject feature classified into the low frequency category among the attention subjects (for example, the person A) designated by the user via the reception device 80 in the live view image. Performs processing to support imaging of the subject of interest. In this case, it is not necessary to select the histogram 100C (operation by the user), and the imaging support screen 100 may not be displayed.
- the imaging support processing is executed by the CPU 48A as shown in FIG. 22 as an example. ..
- the flowchart shown in FIG. 22 is different from the flowchart shown in FIG. 20A in that it has step ST200 and step ST202 instead of steps ST106 to ST112.
- step ST200 of the imaging support process shown in FIG. 22 the control unit 48A5 identifies a low-frequency category from a plurality of small categories within the large category designated by the user for the subject of interest designated by the user. For example, according to the bubble chart 100A shown in FIG. 22, when the face category is designated as a large category by the user and the person A is designated as the subject of interest by the user, the smile category is set to the low frequency category by the control unit 48A5. Specified as.
- the control unit 48A5 indicates a subject image (hereinafter, "attention subject image") showing a attention subject having subject characteristics classified into a low frequency category among the attention subjects specified by the user in the live view image. (Also referred to as)), and the detection frame 102 (see FIGS. 19 and 21) is displayed for the face area of the subject image of interest.
- the control unit 48A5 in the live view image based on the recognition result information 94. In, the person image showing the smiling person A among the person A is specified as the attention subject image.
- control unit 48A5 displays a detection frame 102 that surrounds the face area of the person image showing the smiling person A in the live view image.
- "automatic" means that the controller 48 does not move by using an artificial operation (for example, an operation by the user) as a trigger.
- control unit 48A5 detects the target category subject based on the image pickup result by the image pickup device 10, and automatically acquires the image including the image corresponding to the target category subject on condition that the target category subject is detected. You may do it.
- the control unit 48A5 first identifies the low frequency category as the target category, as in the example shown in FIG. Then, when the control unit 48A5 detects that the low-frequency attention subject image, which is the attention subject image corresponding to the low-frequency category, exists in the live view image based on the recognition result information 94, it is automatically detected.
- the main exposure imaging is started.
- the low-frequency attention subject image corresponding to the low-frequency category is, for example, a person when the smile category is specified as the low-frequency category by the control unit 48A5 on the premise that the person A is designated as the attention subject. It refers to a noteworthy subject image showing a person A having a subject feature of "smile" in A.
- one frame of the main exposure image data may be stored in a predetermined storage area (for example, the image memory 50), or one frame of the main exposure image data may be stored. Of these, only the data related to the low-frequency attention subject image may be stored in the default storage area.
- the image pickup support process is performed as shown in FIG. 23 as an example. It is executed by the CPU 48A.
- the flowchart shown in FIG. 23 is different from the flowcharts shown in FIGS. 20A and 20B in that it has steps ST300 and ST302 instead of steps ST106 to ST116.
- step ST300 of the imaging support process shown in FIG. 23 the control unit 48A5 executes the same process as the process of step ST200 shown in FIG. 22.
- step ST302 the control unit 48A5 determines whether or not the low-frequency attention subject image exists in the live view image based on the recognition result information 94. In step ST302, if the low-frequency attention subject image does not exist in the live view image, the determination is denied and the imaging support process shifts to step ST130. In step ST302, if the low-frequency attention subject image is present in the live view image, the determination is affirmed, and the imaging support process shifts to step ST118.
- control unit 48A5 detects that the low-frequency attention subject image is present in the live view image, the main exposure imaging is started. Therefore, the subject in the target category is visually found and an instruction from the user is given. It is possible to reduce the time and effort required for imaging a subject in the target category, as compared with the case where imaging is started on the condition that the image is received by the reception device 80.
- step ST302 of the imaging support process it is determined whether or not the low-frequency attention subject image exists in the live view image, and the low-frequency attention subject image exists in the live view image.
- the present invention has been described with reference to a form example in which the main exposure imaging is started when it is determined that the present exposure image is present, the technique of the present disclosure is not limited to this.
- the process of step ST352 shown in FIG. 24 may be executed by the control unit 48A5.
- the control unit 48A5 determines whether or not the imaging range condition is satisfied.
- the imaging range condition refers to a condition that the subject in the target category is included in the designated imaging range indicated by the designated imaging range information 86 (see FIGS. 10 and 11).
- the determination of whether or not the target category subject is included in the designated imaging range includes, for example, the attention subject indicated by the low-frequency attention subject image in the designated imaging range based on the designated imaging range information 86 and the recognition result information 94. It is done by determining whether or not it is done. If the imaging range condition is not satisfied in step ST352, the determination is denied and the imaging support process shifts to step ST130. If the imaging range condition is satisfied in step ST352, the determination is affirmed, and the imaging support process shifts to step ST118.
- the user can visually detect that the subject in the target category is included in the specified imaging range.
- the image pickup is started on the condition that the instruction of the above is received by the reception device 80, it is possible to reduce the time and effort required for the image pickup of the subject in the target category.
- the main exposure imaging is performed in step ST118 of the imaging support process, but the imaging may be performed in a state where the subject in the target category within the designated imaging range is in focus.
- the "imaging” here may be an imaging for a live view image or an imaging for a recorded image (for example, a still image or a moving image).
- the imaging support process shown in FIG. 25 is executed by the CPU 48A.
- the flowchart shown in FIG. 25 is different from the flowchart shown in FIG. 24 in that it has step ST400 instead of step ST118.
- step ST400 of the imaging support process shown in FIG. 25 the control unit 48A5 determines the subject category subject (for example, a low-frequency attention subject image in the live view image) based on the result of the AF calculation for the imaging region including the target category subject S. After focusing on the subject of interest (shown by), the image sensor 16 is made to perform the main exposure imaging. After the process of step ST400 is executed, the image pickup support process shifts to step ST120.
- the subject category subject for example, a low-frequency attention subject image in the live view image
- the target category subject is positioned within the designated imaging range and then the target category subject is focused and imaged. It is possible to reduce the time and effort required for this.
- control unit 48A5 has a first imaging condition given from the outside (for example, an imaging condition determined according to an instruction received by the receiving device 80) and a second imaging condition given to a subject in the target category. If the degree of difference from and is greater than or equal to the default degree, the default processing may be performed.
- the imaging support process shown in FIG. 26 is executed by the CPU 48A.
- the flowchart shown in FIG. 26 is different from the flowchart shown in FIG. 25 in that it has steps ST450 to ST456 instead of step ST352, step ST400, and step ST120.
- step ST450 of the imaging support process shown in FIG. 26 the control unit 48A5 acquires the first imaging condition and the second imaging condition. Examples of the first imaging condition and the second imaging condition will be described later.
- control unit 48A5 indicates the degree of difference between the first imaging condition and the second imaging condition acquired in step ST450 (for example, how much the first imaging condition and the second imaging condition deviate from each other). Value) is calculated.
- step ST454 the control unit 48A5 determines whether or not the degree of difference calculated in step ST452 is equal to or greater than the predetermined degree of difference. In step ST454, if the degree of difference calculated in step ST452 is less than the default degree of difference, the determination is denied, and the control unit 48A5 corresponds to the processing of step ST400 and the processing of steps ST120 to ST132 (see FIG. 25). After executing the process to be performed, the process proceeds to step ST100. In step ST454, if the degree of difference calculated in step ST452 is equal to or greater than the default degree of difference, the determination is affirmed and the imaging support process proceeds to step ST456.
- step ST456 the control unit 48A5 executes the default process.
- the default processing is an imaging process after adjusting the depth of field to perform main exposure imaging after adjusting the depth of field, and / or a focus bracket imaging process for performing main exposure imaging by the focus bracket method. It is a process including.
- the image pickup support process shifts to step ST122.
- the default is when the degree of difference between the first imaging condition given from the outside and the second imaging condition given to the subject in the target category is equal to or greater than the default degree of difference. Since the processing is performed, it is possible to contribute to imaging under the imaging conditions intended by the user.
- the content of the image pickup process after adjusting the depth of field is shown.
- the first imaging condition is the position of the designated imaging range
- the second imaging condition is the position of the target category subject
- the position of the target category subject is not within the designated imaging range
- control is performed.
- the unit 48A5 determines that the degree of difference is equal to or greater than the predetermined degree of difference.
- the control unit 48A5 controls the image pickup device 10 to keep the subject within the designated imaging range and the subject in the target category within the depth of field, and to cover the subject within the designated imaging range and the subject in the target category.
- the image sensor 16 is made to perform the main exposure imaging in a state of being within the depth of field.
- the acquisition unit 48A1 has a plurality of subjects, that is, at least one subject within the designated imaging range (hereinafter, “subject within the designated imaging range”).
- the focus position is calculated for each of the subject within the specified imaging range and the subject of the target category based on the result of the AF calculation for each of the subjects of the target category.
- the acquisition unit 48A1 is designated based on the phase difference image data corresponding to each position of the subject image within the designated imaging range (image showing the subject within the designated imaging range) and the target category subject image S1 in the live view image.
- the in-focus position for each of the subject within the imaging range and the subject of the target category is calculated.
- the method of calculating the in-focus position is only an example, and the in-focus position may be calculated by the calculation method of the TOF method or the contrast AF method.
- the acquisition unit 48A1 calculates the depth of field to accommodate the subject within the designated imaging range and the subject in the target category based on the plurality of in-focus positions calculated for each of the subject within the designated imaging range and the subject in the target category.
- the depth of field is calculated using the first arithmetic expression.
- the first arithmetic expression is, for example, an arithmetic expression in which a plurality of in-focus positions are independent variables and the depth of field is a dependent variable.
- a first table in which a plurality of focusing positions and a depth of field are associated with each other may be used.
- the acquisition unit 48A1 calculates an F value that realizes the calculated depth of field.
- the acquisition unit 48A1 calculates the F value using the second arithmetic expression.
- the second arithmetic expression used here is, for example, an arithmetic expression in which the depth of field is an independent variable and the F value is a dependent variable.
- a second table in which a value indicating the depth of field and an F value are associated with each other may be used.
- the control unit 48A5 operates the aperture 40C by controlling the motor 46 via the motor driver 60 according to the F value calculated by the acquisition unit 48A1.
- the subject within the designated imaging range and the target category subject S are contained in the depth of field.
- the aperture 40C is operated, and the main exposure imaging is performed with the subject within the designated imaging range and the subject in the target category within the depth of field.
- the subject image within the designated imaging range and the subject image in the target category have high contrast without being imaged multiple times. Can be obtained.
- control unit 48A5 causes the image pickup device 10 to take an image of the subject within the designated image pickup range and the subject in the target category by the focus bracket method.
- the acquisition unit 48A1 is based on the phase difference image data corresponding to each position of the subject image within the designated imaging range and the target category subject image S1 in the live view image.
- the first focusing position and the second focusing position are calculated.
- the first focusing position is the focusing position with respect to the center of the subject within the designated imaging range
- the second focusing position is the focusing position with respect to the target category subject S.
- the first and second in-focus positions are the in-focus positions used when the main exposure imaging is performed by the focus bracket method.
- the control unit 48A5 moves the focus lens 40B to the first in-focus position, and the focus lens 40B is the first. 1 Instruct the image sensor to start main exposure imaging at the timing of reaching the in-focus position. In response to this, the image sensor 16 performs the main exposure imaging. After the main exposure imaging is performed with the focus lens 40B aligned to the first focus position, the control unit 48A5 moves the focus lens 40B to the second focus position, and the focus lens 40B is the second focus lens 40B. The image sensor is instructed to start the main exposure imaging at the timing of reaching the in-focus position. In response to this, the image sensor 16 performs the main exposure imaging.
- the first and second focusing positions are exemplified as the focusing positions used in the main exposure imaging by the focus bracket method, but these are merely examples and are used in the main exposure imaging by the focus bracket method. Three or more focusing positions may be used as the focusing position.
- the focus bracket is used.
- the main exposure imaging is performed on the subject within the designated imaging range and the subject in the target category S by the method.
- the image is within the designated imaging range due to the structure of the imaging device 10. Even if both the subject and the subject S in the target category do not fit in the depth of field, a high-contrast image can be obtained as the subject image within the designated imaging range and the subject image in the target category.
- the position of the designated imaging range is exemplified as the first imaging condition
- the position of the target category subject S is exemplified as the second imaging condition
- the first imaging condition may be the brightness of the reference subject (for example, the subject within the designated imaging range)
- the second imaging condition may be the brightness of the target category subject S.
- the control unit 48A5 performs the above-mentioned default processing when the degree of difference between the brightness of the reference subject and the brightness of the target category subject S (hereinafter, also referred to as “brightness difference”) is equal to or greater than the default brightness difference.
- the exposure bracket method imaging process is executed.
- the exposure bracket method imaging process is a process of causing the image pickup apparatus 10 to image a reference subject and a target category subject S by the exposure bracket method.
- control unit 48A5 causes the image pickup device 10 to image the reference subject and the target category subject S with the exposure determined with reference to the reference subject. ..
- the exposure bracket type image pickup process is realized by executing the image pickup support process shown in FIG. 31 by the CPU 48A as an example.
- the flowchart shown in FIG. 31 is different from the flowchart shown in FIG. 26 in that it has steps ST500 to ST508 instead of steps ST450 to ST456.
- the acquisition unit 48A1 acquires the photometric values for each of the subject within the designated imaging range and the target category subject S.
- the photometric value may be calculated based on the live view image data, or may be detected by a photometric sensor (not shown).
- control unit 48A5 calculates the degree of brightness difference using the two photometric values acquired for each of the subject within the designated imaging range and the subject in the target category S in the step ST500.
- the brightness difference is, for example, the absolute value of the difference between the two photometric values.
- the control unit 48A5 determines whether or not the brightness difference calculated in step ST502 is equal to or greater than the default brightness difference.
- the default brightness difference may be a fixed value or a variable value that is changed according to a given instruction and / or a given condition. If the brightness difference is less than the default brightness difference in step ST504, the determination is denied and the imaging support process proceeds to step ST508. If the brightness difference is equal to or greater than the default brightness difference in step ST504, the determination is affirmed and the imaging support process proceeds to step ST506.
- step ST506 the control unit 48A5 controls the image pickup device 10 to execute the main exposure image pickup by the exposure bracket method for each of the subject within the designated image pickup range and the target category subject S.
- the image pickup support process shifts to step ST122.
- the main exposure image data of each frame obtained by performing the main exposure imaging of the exposure bracket method may be individually stored in a predetermined storage area, or may be stored individually, or may be combined to obtain 1 It may be stored in the default storage area as the composite image data of the frame.
- step ST508 the control unit 48A5 controls the image pickup apparatus 10 to perform main exposure imaging for the subject within the designated imaging range and the subject in the target category S with the exposure determined with reference to the subject within the designated imaging range. Run. After the process of step ST508 is executed, the control unit 48A5 executes the process corresponding to steps ST120 to ST132 (see FIG. 25), and then shifts to step ST100.
- the main exposure imaging is performed for the subject within the designated imaging range and the target category subject S by the exposure bracket method. Will be.
- the subject image within the designated imaging range and the subject image S1 in the target category are compared with the case where only one frame is imaged under the condition that the brightness is uneven between the subject within the designated imaging range and the subject S in the target category. As a result, it is possible to obtain an image with less unevenness in brightness.
- the exposure within the specified imaging range and the target category subject S with the exposure determined with reference to the reference subject are obtained.
- This exposure imaging is performed. This reduces the time and effort required for main exposure imaging of the subject within the designated imaging range and the subject S of the target category after eliminating the unevenness of brightness between the subject within the designated imaging range and the subject S of the target category. Can be done.
- the face category, the posture category, the eye category, and the designated imaging range category are given as an example of the large categories included in the subject-specific category group 98, but the technique of the present disclosure is not limited to this.
- a period category which is a category defined by a subject feature in the unit of "period", and / or a subject feature in the unit of "position”.
- the position category which is the category defined in the above, may be included.
- the period refers to the period during which the subject was imaged.
- the position refers to the position where the subject is imaged.
- the period category includes multiple date categories with different dates as small categories.
- the number of classifications is associated with each of the plurality of date categories.
- the number of classifications is also associated with the period category.
- the number of classifications of the period category is the sum of the number of classifications of the plurality of date categories.
- the position category includes a plurality of small position categories whose positions are different from each other as small categories.
- the number of classifications is associated with each of the plurality of small position categories.
- the number of classifications is also associated with the position category.
- the number of classifications of position categories is the sum of the number of classifications of a plurality of small position categories.
- the map data 104 is stored in the storage 48B.
- the map data 104 is data in which position coordinates such as latitude, longitude, and height are associated with an address on a map.
- the map data 104 is referred to by the classification unit 48A4.
- the small position category is not limited to the address on the map, but may be position coordinates.
- the RTC 106 and the GPS receiver 108 which is an example of the GNSS receiver, are connected to the classification unit 48A4.
- RTC106 acquires the current time.
- the RTC 106 receives drive power from a power supply system disconnected from the power supply system for the controller 48, and continues to tick the current time (year, month, day, hour, minute, and second) even when the controller 48 is shut down.
- the GPS receiver 108 receives radio waves from a plurality of GPS satellites (not shown), which is an example of a plurality of GNSS satellites, and calculates position coordinates capable of specifying the current position of the image pickup device 10 based on the reception result.
- the classification unit 48A4 acquires the current time from the RTC 106 each time one frame of main exposure imaging is performed, and uses the acquired current time as the imaging time, and is among a plurality of date categories included in the period category. Classify into the corresponding date category. Each time the classification unit 48A4 classifies the imaging time into the date category, "1" is added to the number of classifications of the previous date category in which the imaging time is classified.
- the classification unit 48A4 acquires the current time from the RTC 106
- the current time may be acquired via a communication network such as the Internet.
- the classification unit 48A4 acquires the position coordinates from the GPS receiver 108 as the position where the imaging was performed (hereinafter, also referred to as "imaging position") every time the main exposure imaging for one frame is performed.
- the classification unit 48A4 identifies the address corresponding to the acquired imaging position from the map data 104. Then, the classification unit 48A4 classifies the imaging position into the small position category corresponding to the specified address. Each time the classification unit 48A4 classifies the imaging position into the small position category, "1" is added to the number of classifications of the small position category to which the imaging position is classified.
- a bubble chart related to a period category (hereinafter, also referred to as a “period category bubble chart”) is displayed as a bubble chart 100A in the imaging support screen 100. Similar to the face category bubble chart (see FIG. 17), the period category bubble chart also plots bubbles showing the number of classifications on two axes, an axis showing multiple recognized persons and an axis showing the date category. There is.
- the image pickup support screen 100 displays a bubble chart related to the position category (hereinafter referred to as a position category bubble chart) as the bubble chart 100A. Is displayed. Similar to the bubble chart for the face category (see FIG. 17), the position category bubble chart also plots bubbles indicating the number of classifications on two axes, an axis indicating a plurality of recognized persons and an axis indicating a small position category. ..
- a histogram relating to the period category (hereinafter, also referred to as “period category histogram”) is displayed as the histogram 100C in the imaging support screen 100.
- the horizontal axis of the period category histogram shows the date category, and the vertical axis of the period category histogram shows the number of classifications.
- a histogram relating to the position category (hereinafter, also referred to as “position category histogram”) is displayed so as to be switchable with a histogram of another category (not shown).
- the horizontal axis of the position category histogram shows the small position category, and the vertical axis of the position category histogram shows the number of classifications.
- the subject-specific category group 98 includes, as a large category, a period category defined by the subject characteristics in the unit of "period".
- the period category includes a plurality of date categories having different dates from each other. Then, each time the main exposure imaging for one frame is performed, the imaging time is classified into the date category, and the period category bubble chart and the period category histogram according to the number of classifications are displayed on the display 26 together with the live view image. ..
- the period category bubble chart and the period category histogram are used in the same manner as the face category bubble chart and the face category histogram described in the above embodiment.
- the imaging apparatus 10 it is possible to support the imaging by the imaging apparatus 10 according to the number of classifications counted by classifying the imaging time into the date category.
- the date category separated by date is illustrated, but this is just an example, and the period is divided by year, month, day, hour, minute, or second. You may.
- the subject-specific category group 98 includes, as a large category, a position category defined by a subject feature in the unit of "position".
- the position category includes a plurality of small position categories whose positions are different from each other. Then, each time the main exposure imaging for one frame is performed, the imaging position is classified into the small position category, and the position category bubble chart and the position category histogram according to the number of classifications are displayed on the display 26 together with the live view image.
- the position category bubble chart and the position category histogram are used in the same manner as the face category bubble chart and the face category histogram described in the above embodiment. Therefore, according to this configuration, it is possible to support the imaging by the imaging apparatus 10 according to the number of classifications counted by classifying the imaging position into the small position category.
- the technique of the present disclosure is not limited to this, and the image pickup support process is performed. It may be executed intermittently depending on the time and / or position.
- the imaging support process is executed only for a specified time (for example, 10 minutes) at time checkpoints separated by predetermined time (for example, 1 hour) intervals. May be good.
- the default time interval that determines the time checkpoint may be fixed or may be changed according to a given instruction and / or a given condition (eg, imaging condition).
- the image pickup support process may be executed only at a designated time at a plurality of position checkpoints divided for each position.
- the position checkpoint can be specified by using, for example, the map data 104 and the GPS receiver 108.
- the subject features are classified into categories by the classification unit 48A4 regardless of the image pickup scene imaged by the image pickup device 10, but the technique of the present disclosure is not limited to this.
- the classification unit 48A4 classifies subject features into categories when the scene to be imaged by the image pickup device 10 matches a specific scene (for example, a scene of an athletic meet, a scene of a beach, a scene of a concert, etc.). You may.
- the specific scene may be a scene captured in the past.
- the imaging support process shown in FIG. 36 is executed by the CPU 48A.
- the flowchart shown in FIG. 36 is different from the flowchart shown in FIG. 23 in that step ST550 is provided between step ST118 and step ST120.
- step ST550 of the imaging support process shown in FIG. 36 the subject recognition unit 48A2 recognizes the subject in the imaging region based on the latest main exposure image data obtained by performing the main exposure imaging in step ST118. Specify the current imaging scene with. Further, the subject recognition unit 48A2 identifies a past imaging scene based on the past main exposure image data (for example, the main exposure image data obtained within a period specified by the user). Then, the subject recognition unit 48A2 determines whether or not the current image pickup scene and the past image pickup scene match. If the current imaging scene and the past imaging scene do not match in step ST550, the determination is denied and the imaging support process shifts to step ST130. If the current imaging scene and the past imaging scene match in step ST550, the determination is affirmed, and the imaging support process shifts to step ST120. As a result, in step ST126, the subject features are classified into categories for each subject by the classification unit 48A4.
- the subject characteristics are classified into categories for each subject by the classification unit 48A4, so that the main exposure imaging is performed for the scene not intended by the user. It is possible to prevent the subject features specified from the present exposure image data obtained by the above from being classified into categories.
- the subject characteristics are classified into categories for each subject by the classification unit 48A4, so that the current imaging scene that matches the past imaging scene is categorized.
- Subject features identified from the main exposure image data obtained by performing the main exposure imaging can be classified into categories.
- the main exposure image obtained by performing the main exposure imaging may be classified by the classification unit 48A4 into each of the plurality of categories.
- the classification unit 48A4 Every time the main exposed image is classified into a category, "1" is added to the number of classifications of the category in which the main exposed image is classified.
- the subject-specific category group 98 constructed in this way is also used in the same manner as the subject-specific category group 98 described in the above embodiment. Therefore, according to this configuration, it is possible to support the imaging by the image pickup apparatus 10 according to the number of times the exposed image is classified into categories.
- the face category histogram (see FIG. 18) relating to the person A is illustrated, but the technique of the present disclosure is not limited to this.
- a 4-quadrant face category bubble chart may be used instead of the face category histogram. 4 quadrant face category
- the smile category is assigned to the 1st quadrant
- the crying face category is assigned to the 2nd quadrant
- the angry face category is assigned to the 3rd quadrant
- the true face category is assigned to the 4th quadrant. ..
- the number of classifications corresponding to each category is expressed by the size of the bubble.
- facial expressions when displaying in a category of four quadrants, facial expressions may be classified more finely and a scatter diagram may be displayed instead of the bubble chart.
- a delicate facial expression can be expressed by adjusting the plot position of the points based on the classified facial expressions. For example, even in the same smile category, an image showing a smile closer to a crying face is plotted on the left side of the figure in the first quadrant. In addition, the image with a smile closer to the true face is plotted on the lower side of the figure in the first quadrant. With such a scatter plot, the user can grasp in more detail what kind of face of the person was imaged.
- the bubble chart 100A and the histogram 100C are exemplified, but the technique of the present disclosure is not limited to this, and other graphs may be used, and numerical values indicating the number of classifications are for each subject and for each category. It may be displayed in a form divided by each.
- the technique of the present disclosure is not limited to this, and imaging is supported.
- the category to be created may be directly selected by the user from the histogram 100C or the like via the reception device 80 (for example, the touch panel 28).
- the embodiment in which the main exposure image data is stored in the image memory 50 has been described, but it can be obtained by performing the main exposure imaging supported by the above-mentioned support processing.
- Data including the main exposure image data may be used as training data for machine learning of the trained model 92.
- the image pickup support process may be executed by the computer 114 in the external device 112 communicably connected to the image pickup device 10 via the network 110 such as LAN or WAN.
- the computer 114 includes a CPU 116, a storage 118, and a memory 120.
- a category database 96 is constructed in the storage 118, and an imaging support processing program 84 is stored in the storage 118.
- the image pickup device 10 requests the external device 112 to execute the image pickup support process via the network 110.
- the CPU 116 of the external device 112 reads the image pickup support processing program 84 from the storage 118, and executes the image pickup support processing program 84 on the memory 120.
- the CPU 116 performs image pickup support processing according to the image pickup support process program 84 executed on the memory. Then, the CPU 116 provides the processing result obtained by executing the image pickup support process to the image pickup apparatus 10 via the network 110.
- the image pickup device 10 and the external device 112 may execute the image pickup support process in a distributed manner, or the plurality of devices including the image pickup device 10 and the external device 112 may execute the image pickup support process in a distributed manner. You may do so.
- the CPU 48A of the image pickup device 10 is operated as the acquisition unit 48A1 and the control unit 48A5, and the CPU of a device other than the image pickup device 10 (for example, the external device 112) is used as the subject recognition unit 48A2 and the feature extraction unit. It may be operated as 48A3 and the classification unit 48A4. That is, the processing load on the image pickup apparatus 10 may be reduced by causing an external device having a higher computing power than the image pickup apparatus 10 to carry out the processing having a relatively large processing load.
- a still image is exemplified as the main exposure image, but the technique of the present disclosure is not limited to this, and a moving image may be used as the main exposure image.
- the moving image may be a moving image for recording or a moving image for display, that is, a live view image or a post view image.
- the imaging recommended information is displayed in the live view image, but it does not necessarily have to be displayed in the live view image.
- a display at least one of an arrow, a face frame, and a message
- the imaging device 10 can recognize that the target category subject is included in the moving image by using the imaging device 10. Can be done. Further, the user can acquire a still image including the target category subject by cutting out a frame including the target category subject after the main exposure imaging of the moving image by using the image pickup device 10.
- the image pickup apparatus 10 may classify the subject into the same category as described above every time the subject in the target category is specified by the main exposure imaging of the moving image, and may update and display the histogram and / or the bubble chart. .. By doing so, the user can grasp what kind of subject is included only by taking an image for a moving image and acquiring the moving image by using the image pickup device 10. Further, in this case, the value based on the still image and the value based on the moving image may be displayed in different modes in the histogram and / or the bubble chart or the like. For example, in a histogram, a stacked bar graph displays a histogram based on a still image and a histogram based on a moving image in different colors.
- the user can grasp whether each classification count is based on a still image or a moving image.
- the histogram and / or the bubble chart may be created based only on the classification of the subject indicated by the subject area included in one moving image. By doing so, the user can grasp what kind of category the subject area is included in the one moving image. It should be noted that such a histogram and / or a bubble chart is displayed on the display 26 based on a user's operation or the like after imaging for a still image or a moving image, or in a playback mode in which a live view image is not displayed. You may.
- the number of classifications corresponding to at least one category included in the subject-specific category group 98 may be reset periodically or at a designated timing. For example, it may be reset depending on the time and / or position. Specifically, it may be reset once a day, once an hour, or every 100 meters of position change.
- the smile category is exemplified as the target category, but the technique of the present disclosure is not limited to this, and other categories may be the target category, or a plurality of categories may be the target category.
- the number of classifications related to a plurality of categories for example, a smile category and a crying face category
- a plurality of categories may be selected by the user.
- the person A is exemplified as the subject of the target category, but the technique of the present disclosure is not limited to this, and the subject of the target category may be a plurality of subjects.
- the subject of the target category may be a plurality of subjects.
- a plurality of persons for example, person A, person B, and person C
- the various support processes described above are performed when at least one of the plurality of persons selected by the user smiles.
- the number of classifications which is a simple number of times the subject features are classified into categories, is illustrated, but the technique of the present disclosure is not limited to this. For example, it may be the number of classifications per unit time.
- the detection frame 102 (see FIGS. 19 and 21) has been exemplified, but the technique of the present disclosure is not limited to this, and information about the subject surrounded by the detection frame 102 together with the detection frame 102. (For example, name and / or category name, etc.) may also be displayed.
- a physical camera (hereinafter, also referred to as “physical camera”) is exemplified as the image pickup apparatus 10, but the technique of the present disclosure is not limited to this, and is different instead of the physical camera.
- the image shown by the virtual viewpoint image data that is, the virtual viewpoint image is an example of the "captured image" according to the technique of the present disclosure.
- an example of a mode in which the non-phase difference pixel division area 30N and the phase difference pixel division area 30P are used in combination has been described, but the technique of the present disclosure is not limited to this.
- an area sensor may be used in which the phase difference image data and the non-phase difference image data are selectively generated and read out.
- a plurality of photosensitive pixels are arranged two-dimensionally on the area sensor.
- a pair of independent photodiodes having no light-shielding member are used.
- photoelectric conversion is performed by the entire region of the photosensitive pixel (a pair of photodiodes), and when phase difference image data is generated and read out (for example, passive distance measurement). ), Photoelectric conversion is performed by one of the pair of photodiodes.
- one photodiode of the pair of photodiodes is a photodiode corresponding to the first phase difference pixel L described in the above embodiment
- one photodiode of the pair of photodiodes is the above-mentioned photodiode. It is a photodiode corresponding to the second phase difference pixel R described in the embodiment.
- phase difference image data and the non-phase difference image data may be selectively generated and read by all the photosensitive pixels included in the area sensor, but the present invention is not limited to this and is included in the area sensor.
- the phase difference image data and the non-phase difference image data may be selectively generated and read by the photosensitive pixel of the unit.
- the image plane phase difference pixel is exemplified as the phase difference pixel P, but the technique of the present disclosure is not limited to this.
- the non-phase difference pixel N is arranged in place of the phase difference pixel P included in the photoelectric conversion element 30, and the phase difference AF plate including a plurality of phase difference pixels P is the photoelectric conversion element 30. It may be provided separately in the image pickup apparatus main body 12.
- the AF method using the distance measurement result based on the phase difference image data that is, the phase difference AF method is exemplified, but the technique of the present disclosure is not limited to this.
- the contrast AF method may be adopted instead of the phase difference AF method.
- an AF method based on a distance measurement result using the parallax of a pair of images obtained from a stereo camera, or an AF method using a TOF method distance measurement result using a laser beam or the like may be adopted.
- the focal plane shutter has been described as an example of the mechanical shutter 72, but the technique of the present disclosure is not limited to this, and other types of mechanical shutters such as a lens shutter are applied instead of the focal plane shutter.
- the technology of the present disclosure is established.
- the image pickup support processing program 84 may be stored in the storage medium 200.
- the storage medium 200 is a non-temporary storage medium.
- An example of the storage medium 200 is any portable storage medium such as SSD or USB memory.
- the image pickup support processing program 84 stored in the storage medium 200 is installed in the controller 48.
- the CPU 48A executes the image pickup support process according to the image pickup support process program 84.
- the image pickup support processing program 84 is stored in a storage unit of another computer or server device connected to the controller 48 via a communication network (not shown), and the image pickup support process is performed in response to a request from the image pickup device 10.
- the program 84 may be downloaded and installed on the controller 48.
- controller 48 is built in the image pickup device 10
- the technique of the present disclosure is not limited to this, and for example, the controller 48 is provided outside the image pickup device 10. You may be able to do it.
- the CPU 48A is a single CPU, but may be a plurality of CPUs. Further, the GPU may be applied instead of the CPU 48A.
- the controller 48 is exemplified, but the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD may be applied instead of the controller 48. .. Further, instead of the controller 48, a combination of a hardware configuration and a software configuration may be used.
- the processor includes software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing image pickup support processing by executing a program.
- examples of the processor include a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC.
- a memory is built-in or connected to any processor, and each processor executes imaging support processing by using the memory.
- the hardware resource that performs the imaging support process may consist of one of these various processors, or a combination of two or more processors of the same type or dissimilarity (eg, a combination of multiple FPGAs, or a combination of multiple FPGAs). It may be composed of a combination of a CPU and an FPGA). Further, the hardware resource for executing the image pickup support process may be one processor.
- one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource for executing image pickup support processing. ..
- SoC SoC
- a processor that realizes the functions of the entire system including a plurality of hardware resources for executing image pickup support processing with one IC chip is used.
- the image pickup support process is realized by using one or more of the above-mentioned various processors as a hardware resource.
- a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, it may be only B, or it may be a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.
- the processor acquires frequency information indicating the frequency of the features classified into categories based on the features of the subject specified from the captured image obtained by being imaged by the image pickup device.
- An image pickup support device that performs support processing to support image pickup by the image pickup device based on the frequency information.
- the above categories are categorized into a plurality of categories including at least one target category.
- the target category is a category determined based on the frequency information.
- the image pickup support device according to Appendix 1, wherein the support process includes a process of supporting the image pickup of a target category subject having the above characteristics belonging to the target category.
- Appendix 3 The image pickup support device according to Appendix 2, wherein the support process includes a display process for displaying a recommended image of a subject in the target category.
- Appendix 4 The imaging support device according to Appendix 3, wherein the display process is a process of displaying the display image on the display and displaying a frame surrounding at least a part of the target category subject image in the display image. ..
- the processor detects the subject in the target category, and causes the image pickup apparatus to perform the image pickup accompanied by the main exposure on the condition that the subject in the target category is included in the default imaging range.
- the processor controls the imaging device to control the designated imaging range and the target category subject.
- the imaging support device according to any one of Supplementary note 2 to Supplementary note 6, which is contained in the depth of field.
- the processor causes the imaging device to image the target category subject in a state of focusing on the target category subject.
- the imaging support device according to Appendix 8.
- the processor causes the image pickup device to image the reference subject and the target category subject with the exposure determined based on the target category subject.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
撮像支援装置は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備え、プロセッサは、撮像装置によって撮像されることで得られた撮像画像に含まれる被写体の特徴に基づいてカテゴリに分類された特徴の頻度を示す頻度情報を取得し、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行う。
Description
本開示の技術は、撮像支援装置、撮像装置、撮像支援方法、及びプログラムに関する。
特開2007-006033号公報には、画像中に含まれる複数の顔から処理の対象とする顔を選択する対象決定装置が開示されている。特開2007-006033号公報に記載の対象決定装置は、画像から顔を検出する顔検出手段と、顔検出手段によって過去に検出された顔と、その検出にかかる検出履歴とを関連付けて記録する顔情報記録手段と、検出履歴に基づいて、画像中に含まれる顔の中から処理の対象とする顔を選択する顔選択手段と、を有する。
特開2009-252069号公報には、顔認識辞書、画像取得手段、顔領域検出手段、特徴抽出手段、判別手段、顔認識辞書修正手段、及び分類手段を備えたことを特徴とする画像処理装置が開示されている。顔認識辞書には、同一人物か否かを判別するための顔の特徴が人物ごとに登録される。画像取得手段は、人物を含む画像を取得する。顔領域検出手段は、画像取得手段により取得された画像から顔領域を検出する。特徴抽出手段は、顔領域検出手段により検出された顔領域に基づいて、顔領域の顔の特徴を抽出する。判別手段は、特徴抽出手段により抽出された顔の特徴と、顔認識辞書に登録された顔の特徴とに基づいて、同一人物の顔の特徴が顔認識辞書に登録されているか否かを判別する。顔認識辞書修正手段は、判別手段によって同一人物の顔の特徴が顔認識辞書に登録されていると判別されると、抽出された顔の特徴に基づいて、登録されている顔の特徴を修正し、判別手段によって同一人物の顔の特徴が顔認識辞書に登録されていないと判別されると、抽出された顔の特徴を新規の人物の顔の特徴として登録する。分類手段は、判別手段によって同一人物の顔の特徴が顔認識辞書に登録されていると判別されると、画像取得手段により取得された画像中の人物の顔を既知顔として分類し、判別手段によって同一人物の顔の特徴が顔認識辞書に登録されていないと判別されると、画像取得手段により取得された画像中の人物の顔を未知顔として分類する。
特開2012-099943号公報には、顔画像データを記憶する記憶手段と、映像信号から顔を検出する顔検出手段と、顔検出手段により検出された顔が記憶手段に記憶されている顔画像データに含まれているか否かを判定する顔認識手段と、画像処理手段とを備えることを特徴とする画像処理装置が開示されている。画像処理手段は、顔認識手段により記憶手段に記憶されている顔画像データに含まれていると判定された顔と含まれていないと判定された顔とが映像信号から検出された場合に、顔画像データに含まれていると判定された顔、及び顔画像データに含まれていないと判定された顔の領域を、他の領域よりも高画質化した画像処理を行う。
特開2009-003012号公報には、光軸方向に沿って配列された複数のレンズ中の少なくとも一部を光軸方向に沿って駆動し、レンズ焦点位置を変更可能な撮像レンズと、画像取得手段と、被写体検出手段と、合焦評価値演算手段と、選択手段と、記録手段とを具備したことを特徴とする撮像装置が開示されている。画像取得手段は、撮像レンズのレンズ焦点位置を変更しながら連続して撮影を実行し、複数の画像データを取得する。被写体検出手段は、画像取得手段で得た複数の画像データ間での被写体の移動状態に伴って主要被写体領域を検出する。合焦評価値演算手段は、被写体検出手段で得た主要被写体領域の合焦評価値を複数の画像データごとに算出する。選択手段は、合焦評価値演算手段で得た合焦評価値に基づき、複数の画像データ中から少なくとも1つを選択する。記録手段は、選択手段で選択した画像データを記録媒体に記録させる。
本開示の技術に係る一つの実施形態は、被写体の特徴がカテゴリに分類される頻度に応じて撮像装置による撮像を支援することができる撮像支援装置、撮像装置、撮像支援方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備え、プロセッサが、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された特徴の頻度を示す頻度情報を取得し、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行う撮像支援装置である。
本開示の技術に係る第2の態様は、カテゴリが、少なくとも1つの対象カテゴリを含む複数のカテゴリに類別され、対象カテゴリが、頻度情報に基づいて定められたカテゴリであり、支援処理が、対象カテゴリに属する特徴を有する対象カテゴリ被写体に対する撮像を支援する処理を含む処理である、第1の態様に係る撮像支援装置である。
本開示の技術に係る第3の態様は、支援処理が、対象カテゴリ被写体の撮像を推奨する表示を行う表示処理を含む処理である、第2の態様に係る撮像支援装置である。
本開示の技術に係る第4の態様は、表示処理が、撮像装置によって撮像されることで得られた表示用画像をディスプレイに表示させ、かつ、表示用画像内で対象カテゴリ被写体を示す対象カテゴリ被写体画像を他の画像領域と区別可能な態様で表示する処理である、第3の態様に係る撮像支援装置である。
本開示の技術に係る第5の態様は、プロセッサが、撮像装置による撮像結果に基づいて対象カテゴリ被写体を検出し、対象カテゴリ被写体を検出したことを条件に、対象カテゴリ被写体に対応する画像を含む画像を取得する第2の態様から第4の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第6の態様は、プロセッサが、外部から与えられた指示に従って定められた指定撮像範囲を示すオブジェクトと、対象カテゴリ被写体を示すオブジェクトとを別の表示態様で表示する第2の態様から第5の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第7の態様は、プロセッサが、外部から与えられた第1撮像条件と対象カテゴリ被写体に対して与えられている第2撮像条件との相違度が既定相違度以上の場合に、既定処理を行う第2の態様から第6の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第8の態様は、対象カテゴリが、複数のカテゴリ間で頻度が相対的に低い低頻度カテゴリである、第2の態様から第7の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第9の態様は、対象カテゴリ被写体が撮像装置によって撮像される場合、対象カテゴリが、対象カテゴリ被写体の状態に応じて定められたカテゴリであって、対象カテゴリ被写体についての特徴が分類されるカテゴリである、第2の態様から第8の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第10の態様は、複数の物体が撮像装置によって撮像される場合、対象カテゴリが、複数の物体のそれぞれ自体を特定可能な物体対象カテゴリである、第2の態様から第9の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第11の態様は、カテゴリが、少なくとも1つの単位毎に作られている第1の態様から第10の態様の何れか1つの態様に係る支援装置である。
本開示の技術に係る第12の態様は、単位の1つが、期間である、第11の態様に係る撮像支援装置である。
本開示の技術に係る第13の態様は、単位の1つが、位置である、第11の態様又は第12の態様に係る撮像支援装置である。
本開示の技術に係る第14の態様は、プロセッサが、特徴を分類器に対して分類させ、分類器が、撮像装置による撮像対象シーンが特定シーンと一致した場合に特徴を分類する第1の態様から第13の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第15の態様は、特定シーンが、過去に撮像されたシーンである、第14の態様に係る撮像支援装置である。
本開示の技術に係る第16の態様は、支援処理が、頻度情報を表示する処理を含む処理である、第1の態様から第15の態様の何れか1つの態様に係る撮像支援装置である。
本開示の技術に係る第17の態様は、支援処理が、頻度情報が表示された状態で、受付デバイスによって頻度情報が指定された場合に、指定された頻度情報に対応するカテゴリに関する撮像を支援する処理を含む処理である、第16の態様に係る撮像支援装置である。
本開示の技術に係る第18の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備え、プロセッサが、撮像装置によって撮像されることで得られた撮像画像に含まれる被写体の特徴に基づいてカテゴリに分類された撮像画像の頻度を示す頻度情報を取得し、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行う撮像支援装置である。
本開示の技術に係る第19の態様は、第1の態様から第18の態様の何れか1つの態様に係る撮像支援装置と、イメージセンサと、を備え、プロセッサが、支援処理を行うことでイメージセンサを用いた撮像を支援する撮像装置である。
本開示の技術に係る第20の態様は、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された特徴の頻度を示す頻度情報を取得すること、及び、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行うことを含む撮像支援方法である。
本開示の技術に係る第21の態様は、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された撮像画像の頻度を示す頻度情報を取得すること、及び、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行うことを含む撮像支援方法である。
本開示の技術に係る第22の態様は、コンピュータに、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された特徴の頻度を示す頻度情報を取得すること、及び、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行うことを含む処理を実行させるためのプログラムである。
本開示の技術に係る第23の態様は、コンピュータに、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された撮像画像の頻度を示す頻度情報を取得すること、及び、頻度情報に基づいて、撮像装置による撮像を支援する支援処理を行うことを含む処理を実行させるためのプログラムである。
以下、添付図面に従って本開示の技術に係る撮像支援装置、撮像装置、撮像支援方法、及びプログラムの実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。TOFとは、“Time of Flight”の略称を指す。fpsとは、“frame per second”の略称を指す。MFとは、“Manual Focus”の略称を指す。AFとは、“Auto Focus”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。RTCとは、“Real Time Clock”の略称を指す。GPSとは、“Global Positioning System”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。GNSSとは、“Global Navigation Satellite System”の略称を指す。以下では、説明の便宜上、本開示の技術に係る「プロセッサ」の一例として、CPUを例示しているが、本開示の技術に係る「プロセッサ」は、CPU及びGPU等のように複数の処理装置の組み合わせであってもよい。本開示の技術に係る「プロセッサ」の一例として、CPU及びGPUの組み合わせが適用される場合、GPUは、CPUの制御下で動作し、画像処理の実行を担う。
本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの垂直を指す。本明細書の説明において、「一致」とは、完全な一致の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの一致を指す。
一例として図1に示すように、撮像装置10は、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラである。撮像装置10は、撮像装置本体12と、撮像装置本体12に交換可能に装着される交換レンズ14と、を備えている。なお、ここでは、撮像装置10の一例として、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラが挙げられているが、本開示の技術はこれに限定されず、レンズ固定式のデジタルカメラであってもよいし、レフレックスミラーが省略されていないデジタルカメラであってもよいし、スマートデバイス、ウェアラブル端末、細胞観察装置、眼科観察装置、又は外科顕微鏡等の各種の電子機器に内蔵されるデジタルカメラであってもよい。
撮像装置本体12には、イメージセンサ16が設けられている。イメージセンサ16は、CMOSイメージセンサである。イメージセンサ16は、被写体群を含む撮像領域を撮像する。交換レンズ14が撮像装置本体12に装着された場合に、被写体を示す被写体光は、交換レンズ14を透過してイメージセンサ16に結像され、被写体の画像を示す画像データがイメージセンサ16によって生成される。
なお、本実施形態では、イメージセンサ16としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、イメージセンサ16がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
撮像装置本体12の上面には、レリーズボタン18及びダイヤル20が設けられている。ダイヤル20は、撮像系の動作モード及び再生系の動作モード等の設定の際に操作され、ダイヤル20が操作されることによって、撮像装置10では、動作モードとして撮像モードと再生モードとが選択的に設定される。
レリーズボタン18は、撮像準備指示部及び撮像指示部として機能し、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能である。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。撮像装置10の構成によっては、撮像準備指示状態とは、ユーザの指がレリーズボタン18に接触した状態であってもよく、撮像指示状態とは、操作するユーザの指がレリーズボタン18に接触した状態から離れた状態に移行した状態であってもよい。
一例として図2に示すように、撮像装置本体12の背面には、タッチパネル・ディスプレイ22及び指示キー24が設けられている。
タッチパネル・ディスプレイ22は、ディスプレイ26及びタッチパネル28(図3も参照)を備えている。ディスプレイ26の一例としては、有機ELディスプレイが挙げられる。ディスプレイ26は、有機ELディスプレイではなく、液晶ディスプレイ又は無機ELディスプレイなどの他種類のディスプレイであってもよい。
ディスプレイ26は、画像及び/又は文字情報等を表示する。ディスプレイ26は、撮像装置10が撮像モードの場合に、ライブビュー画像用の撮像、すなわち、連続的な撮像が行われることにより得られたライブビュー画像の表示に用いられる。ライブビュー画像用の撮像(以下、「ライブビュー画像用撮像」とも称する)は、例えば、60fpsのフレームレートに従って行われる。60fpsは、あくまでも一例に過ぎず、60fps未満のフレームレートであってもよいし、60fpsを超えるフレームレートであってもよい。
ここで、「ライブビュー画像」とは、イメージセンサ16によって撮像されることにより得られた画像データに基づく表示用の動画像を指す。ライブビュー画像は、一般的には、スルー画像とも称されている。なお、ライブビュー画像は、本開示の技術に係る「表示用画像」の一例である。
ディスプレイ26は、撮像装置10に対してレリーズボタン18を介して静止画像用の撮像の指示が与えられた場合に、静止画像用の撮像が行われることで得られた静止画像の表示にも用いられる。更に、ディスプレイ26は、撮像装置10が再生モードの場合の再生画像の表示及びメニュー画面等の表示にも用いられる。
タッチパネル28は、透過型のタッチパネルであり、ディスプレイ26の表示領域の表面に重ねられている。タッチパネル28は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。なお、以下では、説明の便宜上、上述した「全押し状態」には、撮像開始用のソフトキーに対してユーザがタッチパネル28を介してオンした状態も含まれる。
また、本実施形態では、タッチパネル・ディスプレイ22の一例として、タッチパネル28がディスプレイ26の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ22として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
指示キー24は、各種の指示を受け付ける。ここで、「各種の指示」とは、例えば、各種メニューを選択可能なメニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、選択内容の消去の指示、ズームイン、ズームアウト、及びコマ送り等の各種の指示等を指す。また、これらの指示はタッチパネル28によってされてもよい。
一例として図3に示すように、イメージセンサ16は、光電変換素子30を備えている。光電変換素子30は、受光面30Aを有する。光電変換素子30は、受光面30Aの中心と光軸OA(図1参照)とが一致するように撮像装置本体12(図1参照)内に配置されている。光電変換素子30は、マトリクス状に配置された複数の感光画素を有しており、受光面30Aは、複数の感光画素によって形成されている。感光画素は、フォトダイオードPDを有する画素であり、受光した光を光電変換し、受光量に応じた電気信号を出力する。光電変換素子30に含まれている感光画素の種類は、いわゆる像面位相差画素と呼ばれる位相差画素Pと、位相差画素Pとは異なる画素である非位相差画素Nとの2種類である。
フォトダイオードPDには、カラーフィルタが配置されている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑色)波長域に対応するGフィルタ、R(赤色)波長域に対応するRフィルタ、及びB(青色)波長域に対応するBフィルタを含む。
一般的に、非位相差画素Nは、通常画素とも称される。光電変換素子30は、非位相差画素Nとして、R画素、G画素、及びB画素の3種類の感光画素を有する。R画素、G画素、B画素、及び位相差画素Pは、行方向(例えば、撮像装置本体12の底面を水平面に接触させた状態での水平方向)及び列方向(例えば、水平方向に対して垂直な方向である垂直方向)の各々に既定の周期性で規則的に配置されている。R画素は、Rフィルタが配置されたフォトダイオードPDに対応する画素であり、G画素及び位相差画素Pは、Gフィルタが配置されたフォトダイオードPDに対応する画素であり、B画素は、Bフィルタが配置されたフォトダイオードPDに対応する画素である。
受光面30Aには、複数の位相差画素ライン32Aと複数の非位相差画素ライン32Bとが配列されている。位相差画素ライン32Aは、位相差画素Pを含む水平ラインである。具体的には、位相差画素ライン32Aは、位相差画素Pと非位相差画素Nとが混在している水平ラインである。非位相差画素ライン32Bは、複数の非位相差画素Nのみを含む水平ラインである。
受光面30Aには、位相差画素ライン32Aと、既定ライン数分の非位相差画素ライン32Bとが列方向に沿って交互に配置されている。ここで言う「既定ライン数」とは、例えば、2ラインを指す。なお、ここでは、既定ライン数として、2ラインを例示しているが、本開示の技術はこれに限らず、既定ライン数は、3ライン以上の数ラインであってもよいし、十数ライン、数十ライン、又は数百ライン等であってもよい。
位相差画素ライン32Aは、1行目から最終行にかけて列方向に2行飛ばしで配列されている。位相差画素ライン32Aの一部の画素が位相差画素Pである。具体的には、位相差画素ライン32Aは、位相差画素Pと非位相差画素Nとが周期的に配列された水平ラインである。位相差画素Pは、第1位相差画素Lと第2位相差画素Rとに大別される。位相差画素ライン32Aには、G画素として第1位相差画素Lと第2位相差画素Rとがライン方向に数画素間隔で交互に配置されている。
第1位相差画素L及び第2位相差画素Rは、列方向で交互に現れるように配置されている。図3に示す例では、4列目において、1行目から列方向に沿って第1位相差画素L、第2位相差画素R、第1位相差画素L、及び第2位相差画素Rの順に配置されている。すなわち、第1位相差画素Lと第2位相差画素Rとが1行目から列方向に沿って交互に配置されている。また、図3に示す例では、10列目において、1行目から列方向に沿って第2位相差画素R、第1位相差画素L、第2位相差画素R、及び第1位相差画素Lの順に配置されている。すなわち、第2位相差画素Rと第1位相差画素Lとが1行目から列方向に沿って交互に配置されている。
光電変換素子30は、2つの領域に区分される。すなわち、光電変換素子30は、非位相差画素区分領域30N及び位相差画素区分領域30Pを有する。位相差画素区分領域30Pは、複数の位相差画素Pによる位相差画素群であり、被写体光を受光して受光量に応じた電気信号として位相差画像データを生成する。位相差画像データは、例えば、測距に用いられる。非位相差画素区分領域30Nは、複数の非位相差画素Nによる非位相差画素群であり、被写体光を受光して受光量に応じた電気信号として非位相差画像データを生成する。非位相差画像データは、例えば、可視光画像としてディスプレイ26(図2参照)に表示される。
一例として図4に示すように、第1位相差画素Lは、遮光部材34A、マイクロレンズ36、及びフォトダイオードPDを備えている。第1位相差画素Lでは、マイクロレンズ36とフォトダイオードPDの受光面との間に遮光部材34Aが配置されている。フォトダイオードPDの受光面における行方向の左半分(受光面から被写体を臨む場合の左側(換言すると、被写体から受光面を臨む場合の右側))は、遮光部材34Aによって遮光されている。
第2位相差画素Rは、遮光部材34B、マイクロレンズ36、及びフォトダイオードPDを備えている。第2位相差画素Rでは、マイクロレンズ36とフォトダイオードPDの受光面との間に遮光部材34Bが配置されている。フォトダイオードPDの受光面における行方向の右半分(受光面から被写体を臨む場合の右側(換言すると、被写体から受光面を臨む場合の左側))は、遮光部材34Bによって遮光されている。なお、以下では、説明の便宜上、遮光部材34A及び34Bを区別して説明する必要がない場合、符号を付さずに「遮光部材」と称する。
交換レンズ14は、撮像レンズ40を備えている。撮像レンズ40の射出瞳を通過する光束は、左領域通過光38L及び右領域通過光38Rに大別される。左領域通過光38Lとは、撮像レンズ40の射出瞳を通過する光束のうち、位相差画素P側から被写体側を臨む場合の左半分の光束を指し、右領域通過光38Rとは、撮像レンズ40の射出瞳を通過する光束のうち、位相差画素P側から被写体側を臨む場合の右半分の光束を指す。撮像レンズ40の射出瞳を通過する光束は、瞳分割部として機能するマイクロレンズ36、遮光部材34A、及び遮光部材34Bにより左右に分割され、第1位相差画素Lが被写体光として左領域通過光38Lを受光し、第2位相差画素Rが被写体光として右領域通過光38Rを受光する。この結果、左領域通過光38Lに対応する被写体像に相当する第1位相差画像データと、右領域通過光38Rに対応する被写体像に相当する第2位相差画像データとが光電変換素子30によって生成される。
撮像装置10では、例えば、同一の位相差画素ライン32Aにおいて、1ライン分の第1位相差画像データと1ライン分の第2位相差画像データとのずれ量α(以下、単に「ずれ量α」とも称する)に基づいて被写体までの距離、すなわち、被写体距離が測定される。なお、ずれ量αから被写体距離が導出される方法は公知技術であるので、ここでの詳細な説明は省略する。
一例として図5に示すように、非位相差画素Nは、位相差画素Pに比べ、遮光部材を有しない点が異なる。非位相差画素NのフォトダイオードPDは、被写体光として左領域通過光38L及び右領域通過光38Rを受光する。
一例として図6に示すように、撮像レンズ40は、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cを備えている。対物レンズ40A、フォーカスレンズ40B、及び絞り40Cは、被写体側(物体側)から撮像装置本体12側(像側)にかけて、光軸OAに沿って、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cの順に配置されている。
また、交換レンズ14は、スライド機構42、モータ44、及びモータ46を備えている。スライド機構42には、光軸OAに沿ってスライド可能にフォーカスレンズ40Bが取り付けられている。また、スライド機構42にはモータ44が接続されており、スライド機構42は、モータ44の動力を受けて作動することでフォーカスレンズ40Bを光軸OAに沿って移動させる。絞り40Cは、開口の大きさが可変な絞りである。絞り40Cにはモータ46が接続されており、絞り40Cは、モータ46の動力を受けて作動することで露出を調節する。なお、交換レンズ14の構成物及び/又は動作方法は、必要に応じて変更可能である。
モータ44及び46は、マウント(図示省略)を介して撮像装置本体12に接続されており、撮像装置本体12からの命令に従って駆動が制御される。なお、本実施形態では、モータ44及び46の一例として、ステッピングモータが採用されている。従って、モータ44及び46は、撮像装置本体12からの命令によりパルス信号に同期して動作する。また、図6に示す例では、モータ44及び46が交換レンズ14に設けられている例が示されているが、これに限らず、モータ44及び46のうちの一方が撮像装置本体12に設けられていてもよいし、モータ44及び46の双方が撮像装置本体12に設けられていてもよい。
撮像装置10では、撮像モードの場合に、撮像装置本体12に対して与えられた指示に従ってMFモードとAFモードとが選択的に設定される。MFモードは、手動でピントを合わせる動作モードである。MFモードでは、例えば、ユーザによって交換レンズ14のフォーカスリングが操作されることで、フォーカスリングの操作量に応じた移動量でフォーカスレンズ40Bが光軸OAに沿って移動し、これによってピントが調節される。
AFモードでは、撮像装置本体12が被写体距離に応じた合焦位置の演算を行い、演算して得た合焦位置に向けてフォーカスレンズ40Bを移動させることで、ピントを調節する。ここで、合焦位置とは、ピントが合っている状態でのフォーカスレンズ40Bの光軸OA上での位置を指す。
なお、以下では、説明の便宜上、フォーカスレンズ40Bを合焦位置に合わせる制御を「AF制御」とも称する。また、以下では、説明の便宜上、合焦位置の演算を「AF演算」とも称する。撮像装置10では、後述のCPU48Aによって、AF演算が行われることで複数の被写体に対する焦点の検出が行われる。そして、後述のCPU48Aによって、AF演算の結果、すなわち、焦点の検出結果に基づいて、被写体に対するピント合わせが行われる。
撮像装置本体12は、イメージセンサ16、コントローラ48、画像メモリ50、UI系デバイス52、外部I/F54、光電変換素子ドライバ56、モータドライバ58、モータドライバ60、メカニカルシャッタドライバ62、及びメカニカルシャッタアクチュエータ64を備えている。また、撮像装置本体12は、メカニカルシャッタ72を備えている。また、イメージセンサ16は、信号処理回路74を備えている。
入出力インタフェース70には、コントローラ48、画像メモリ50、UI系デバイス52、外部I/F54、光電変換素子ドライバ56、モータドライバ58、モータドライバ60、メカニカルシャッタドライバ62、及び信号処理回路74が接続されている。
コントローラ48は、CPU48A、ストレージ48B、及びメモリ48Cを備えている。CPU48Aは、本開示の技術に係る「プロセッサ」の一例であり、メモリ48Cは、本開示の技術に係る「メモリ」の一例であり、コントローラ48は、本開示の技術に係る「画像支援装置」及び「コンピュータ」の一例である。
CPU48A、ストレージ48B、及びメモリ48Cは、バス76を介して接続されており、バス76は入出力インタフェース70に接続されている。
なお、図6に示す例では、図示の都合上、バス76として1本のバスが図示されているが、複数本のバスであってもよい。バス76は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
ストレージ48Bは、各種パラメータ及び各種プログラムを記憶している。ストレージ48Bは、不揮発性の記憶装置である。ここでは、ストレージ48Bの一例として、EEPROMが採用されている。EEPROMはあくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をストレージ48Bとして適用してもよい。また、メモリ48Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ48Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
ストレージ48Bには、各種プログラムが記憶されている。CPU48Aは、ストレージ48Bから必要なプログラムを読み出し、読み出したプログラムをメモリ48C上で実行する。CPU48Aは、メモリ48C上で実行するプログラムに従って撮像装置本体12の全体を制御する。図6に示す例では、画像メモリ50、UI系デバイス52、外部I/F54、光電変換素子ドライバ56、モータドライバ58、モータドライバ60、及びメカニカルシャッタドライバ62がCPU48Aによって制御される。
光電変換素子30には、光電変換素子ドライバ56が接続されている。光電変換素子ドライバ56は、光電変換素子30によって行われる撮像のタイミングを規定する撮像タイミング信号を、CPU48Aからの指示に従って光電変換素子30に供給する。光電変換素子30は、光電変換素子ドライバ56から供給された撮像タイミング信号に従って、リセット、露光、及び電気信号の出力を行う。撮像タイミング信号としては、例えば、垂直同期信号及び水平同期信号が挙げられる。
交換レンズ14が撮像装置本体12に装着された場合、撮像レンズ40に入射された被写体光は、撮像レンズ40によって受光面30Aに結像される。光電変換素子30は、光電変換素子ドライバ56の制御下で、受光面30Aによって受光された被写体光を光電変換し、被写体光の光量に応じた電気信号を、被写体光を示すアナログ画像データとして信号処理回路74に出力する。具体的には、信号処理回路74が、露光順次読み出し方式で、光電変換素子30から1フレーム単位で且つ水平ライン毎にアナログ画像データを読み出す。アナログ画像データは、位相差画素Pによって生成されたアナログの位相差画像データと、非位相差画素Nによって生成されたアナログの非位相差画像データとに大別される。
信号処理回路74は、光電変換素子30から入力されたアナログ画像データをデジタル化することでデジタル画像データを生成する。信号処理回路74は、非位相差画像データ処理回路74A及び位相差画像データ処理回路74Bを備えている。非位相差画像データ処理回路74Aは、アナログの非位相差画像データをデジタル化することでデジタルの非位相差画像データを生成する。位相差画像データ処理回路74Bは、アナログの位相差画像データをデジタル化することでデジタルの位相差画像データを生成する。
なお、以下では、説明の便宜上、デジタルの非位相差画像データとデジタルの位相差画像データとを区別して説明する必要がない場合、「デジタル画像データ」と称する。また、以下では、説明の便宜上、アナログ画像データとデジタル画像データとを区別して説明する必要がない場合、「画像データ」と称する。
メカニカルシャッタ72は、フォーカルプレーンシャッタであり、絞り40Cと受光面30Aとの間に配置されている。メカニカルシャッタ72は、先幕(図示省略)及び後幕(図示省略)を備えている。先幕及び後幕の各々は、複数枚の羽根を備えている。先幕は、後幕よりも被写体側に配置されている。
メカニカルシャッタアクチュエータ64は、先幕用ソレノイド(図示省略)及び後幕用ソレノイド(図示省略)を有するアクチュエータである。先幕用ソレノイドは、先幕の駆動源であり、先幕に機械的に連結されている。後幕用ソレノイドは、後幕の駆動源であり、後幕に機械的に連結されている。メカニカルシャッタドライバ62は、CPU48Aからの指示に従って、メカニカルシャッタアクチュエータ64を制御する。
先幕用ソレノイドは、メカニカルシャッタドライバ62の制御下で動力を生成し、生成した動力を先幕に付与することで先幕の巻き上げ及び引き下ろしを選択的に行う。後幕用ソレノイドは、メカニカルシャッタドライバ62の制御下で動力を生成し、生成した動力を後幕に付与することで後幕の巻き上げ及び引き下ろしを選択的に行う。撮像装置10では、先幕の開閉と後幕の開閉とがCPU48Aによって制御されることで、光電変換素子30に対する露光量が制御される。
撮像装置10では、ライブビュー画像用撮像と、静止画像及び/又は動画像を記録するための記録画像用の撮像とが露光順次読み出し方式(ローリングシャッタ方式)で行われる。イメージセンサ16は、電子シャッタ機能を有しており、ライブビュー画像用撮像は、メカニカルシャッタ72を全開状態にしたまま作動させずに、電子シャッタ機能を働かせることで実現される。
これに対し、本露光を伴う撮像、すなわち、静止画像用の撮像(以下、「本露光撮像」とも称する)は、電子シャッタ機能を働かせ、かつ、メカニカルシャッタ72を先幕閉状態から後幕閉状態に遷移させるようにメカニカルシャッタ72を作動させることで実現される。なお、撮像装置10によって本露光撮像が行われることで得られる画像(以下、「本露光画像」とも称する)は、本開示の技術に係る「撮像画像」の一例である。
画像メモリ50には、デジタル画像データが記憶される。すなわち、非位相差画像データ処理回路74Aが画像メモリ50に対して非位相差画像データを記憶させ、位相差画像データ処理回路74Bが画像メモリ50に対して位相差画像データを記憶させる。CPU48Aは、画像メモリ50からデジタル画像データを取得し、取得したデジタル画像データを用いて各種処理を実行する。
UI系デバイス52は、ディスプレイ26を備えており、CPU48Aは、ディスプレイ26に対して各種情報を表示させる。また、UI系デバイス52は、受付デバイス80を備えている。受付デバイス80は、タッチパネル28及びハードキー部82を備えている。ハードキー部82は、指示キー24(図2参照)を含む複数のハードキーである。CPU48Aは、タッチパネル28によって受け付けられた各種指示に従って動作する。なお、ここでは、ハードキー部82がUI系デバイス52に含まれているが、本開示の技術はこれに限定されず、例えば、ハードキー部82は、外部I/F54に接続されていてもよい。
外部I/F54は、撮像装置10の外部に存在する装置(以下、「外部装置」とも称する)との間の各種情報の授受を司る。外部I/F54の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接的又は間接的に接続される。
モータドライバ58は、モータ44に接続されており、CPU48Aからの指示に従ってモータ44を制御する。モータ44が制御されることによって、スライド機構42を介してフォーカスレンズ40Bの光軸OA上での位置が制御される。フォーカスレンズ40Bは、CPU48Aからの指示に従って、イメージセンサ16による本露光の期間を回避して移動する。
モータドライバ60は、モータ46に接続されており、CPU48Aからの指示に従ってモータ46を制御する。モータ46が制御されることによって絞り40Cの開口の大きさが制御される。
一例として図7に示すように、ストレージ48Bには、撮像支援処理プログラム84が記憶されている。CPU48Aは、ストレージ48Bから撮像支援処理プログラム84を読み出し、読み出した撮像支援処理プログラム84をメモリ48C上で実行する。CPU48Aは、メモリ48C上で実行する撮像支援処理プログラム84に従って撮像支援処理を行う(図20A及び図20Bも参照)。
CPU48Aは、撮像支援処理を実行することで、先ず、撮像装置10によって撮像されることで得られた本露光画像から特定される被写体の特徴(以下、「被写体特徴」とも称する)に基づいてカテゴリに分類された被写体特徴の頻度を示す頻度情報を取得する。そして、次に、CPU48Aは、取得した頻度情報に基づいて、撮像装置10による撮像を支援する支援処理(以下、単に「支援処理」とも称する)を行う。以下、撮像支援処理の内容について、より詳しく説明する。
一例として図8に示すように、CPU48Aは、撮像支援処理プログラム84を実行することで、取得部48A1、被写体認識部48A2、特徴抽出部48A3、分類部38A4、及び制御部48A5として動作する。なお、分類部38A4は、本開示の技術に係る「分類器」の一例である。
一例として図9に示すように、取得部48A1は、画像メモリ50から非位相差画像データをライブビュー画像データとして取得する。ライブビュー画像データは、取得部48A1によって既定のフレームレート(例えば、60fps)で画像メモリ50から取得される。ライブビュー画像データは、ライブビュー画像を示す画像データである。ライブビュー画像データは、イメージセンサ16によって、撮像領域が撮像されることで得られる。図9に示す例では、ライブビュー画像データとして、複数の人物が含まれている撮像領域が撮像されることによって得られたライブビュー画像データが示されている。ここで、複数の人物は、本開示の技術に係る「複数の物体」の一例である。
なお、本実施形態では、説明の便宜上、撮像装置10の被写体として人物を例示しているが、本開示の技術はこれに限定されず、被写体は人物以外であってもよい。人物以外の被写体としては、例えば、小動物、虫、植物、建造物、風景、生物の器官、及び/又は生物の細胞等が挙げられる。すなわち、撮像領域には、人物が含まれていなくてもよく、イメージセンサ16によって撮像可能な被写体が含まれていればよい。
制御部48A5は、取得部48A1によって1フレーム分のライブビュー画像データが取得される毎に、取得部48A1によって取得されたライブビュー画像データにより示されるライブビュー画像をディスプレイ26に表示させる。ライブビュー画像には、複数の人物を示す複数の人物画像が複数の被写体を示す複数の被写体画像として含まれている。
一例として図10に示すように、ディスプレイ26にライブビュー画像が表示されている状態で、外部から与えられた指示(例えば、受付デバイス80によって受け付けられた指示)に従って指定撮像範囲が定められる。例えば、指定撮像範囲は、ユーザの指でタッチパネル28が操作されることによって定められている。指定撮像範囲を定める目的の1つは、例えば、ピント合わせ対象となる撮像範囲を定めることである。
図10に示す例では、ユーザがタッチパネル28に指を接触させながらタッチパネル28上でスライドさせることにより形成された長方形枠(図10に示す例では、二点鎖線の枠)内が指定撮像範囲である。制御部48A5は、外部から与えられた指示に従って定められた指定撮像範囲を示す指定撮像範囲情報86をストレージ48Bに記憶する。ストレージ48Bに記憶された指定撮像範囲情報86は、指定撮像範囲が新たに定められる毎に更新される。
一例として図11に示すように、取得部48A1は、画像メモリ50から非位相差画像データを本露光画像データとして取得する。被写体認識部48A2は、取得部48A1によって取得された本露光画像データに基づいて、撮像領域内の被写体を認識する。図11に示す例では、ストレージ48Bに学習済みモデル92が記憶されており、被写体認識部48A2は、学習済みモデル92を用いて撮像領域内の被写体を認識する。
学習済みモデル92の一例としては、カスケード分類器を用いた学習済みモデルが挙げられる。カスケード分類器を用いた学習済みモデルは、例えば、ニューラルネットワークに対して教師有り機械学習が行われることによって画像認識用の学習済みモデルとして構築される。なお、学習済みモデル92は、カスケード分類器を用いた学習済みモデルに限定される必要はなく、パターンマッチング用の辞書であってもよい。すなわち、学習済みモデル92は、被写体が認識される場合に行われる画像解析で用いられる学習済みモデルであれば如何なる学習済みモデルであってもよい。
被写体認識部48A2は、本露光画像データに対して画像解析を行うことで、撮像領域に含まれる人物を被写体として認識する。また、被写体認識部48A2は、本露光画像データに対して画像解析を行うことで、人物の顔(表情)、人物の姿勢、人物の眼の開閉、及び指定撮像範囲内での人物の有無等の人物の特徴を被写体特徴として認識する。
被写体認識部48A2は、人物の顔を被写体特徴の1つとして認識する。人物の顔は、例えば、笑顔、泣き顔、怒り顔、及び真顔の何れかである。被写体認識部48A2は、例えば、笑顔、泣き顔、怒り顔、及び真顔を「人物の顔」というカテゴリに属する被写体特徴として認識する。なお、ここで、笑顔とは、人物が笑っている表情を指し、泣き顔とは、人物が泣いている表情を指し、怒り顔とは、人物が怒っている表情を指し、真顔とは、笑顔、泣き顔、及び怒り顔の何れにも該当しない表情を指す。
また、被写体認識部48A2は、人物の姿勢を被写体特徴の1つとして認識する。人物の姿勢は、例えば、正面及び非正面の何れかである。被写体認識部48A2は、例えば、正面及び非正面を「人物の姿勢」というカテゴリに属する被写体特徴として認識する。なお、ここで、正面とは、受光面30A(図6参照)に対して人物が正面を向いている状態であることを意味する。また、非正面とは、人物の向きが正面以外の向きであることを意味する。
また、被写体認識部48A2は、人物の眼を被写体特徴の1つとして認識する。人物の眼は、例えば、開眼及び閉眼の何れかである。被写体認識部48A2は、例えば、開眼及び閉眼を「人物の眼」というカテゴリに属する被写体特徴として認識する。なお、ここで、開眼とは、人物が眼を開いている状態を指し、閉眼とは、人物が眼を閉じている状態を指す。
また、被写体認識部48A2は、指定撮像範囲内での人物の有無を被写体特徴の1つとして認識する。被写体認識部48A2は、指定撮像範囲内及び指定撮像範囲外を「指定撮像範囲」というカテゴリに属する被写体特徴として認識する。なお、ここで、指定撮像範囲内とは、指定撮像範囲内に人物が存在している状態を指し、指定撮像範囲外とは、指定撮像範囲外に人物が存在している状態を指す。
また、被写体認識部48A2は、撮像領域に含まれる被写体(ここでは、一例として人物)を認識した結果を示す認識結果情報94をメモリ48Cに記憶する。認識結果情報94は、1フレーム単位でメモリ48Cに上書き保存される。認識結果情報94は、被写体名、被写体特徴、及び認識領域特定座標を含む情報であり、撮像領域に含まれる被写体単位で、被写体名、被写体特徴、及び認識領域特定座標が対応付けられた状態でメモリ48Cに記憶される。
ここで、認識領域特定座標とは、被写体認識部48A2によって認識された被写体を示す被写体画像の特徴的な領域(例えば、人物の顔を示す顔領域)を取り囲む四角形枠(以下、「被写体枠」とも称する)のライブビュー画像内での位置を示す座標を指す。認識領域特定座標の一例としては、ライブビュー画像内での被写体枠の対角線上の2頂点の座標(例えば、左上隅の座標と右下隅の座標)が挙げられる。なお、被写体枠の形状が四角形であれば、認識領域特定座標は、3頂点の座標であってもよいし、4頂点の座標であってもよい。また、被写体枠の形状は、四角形に限らず、他形状であってもよい。この場合も、ライブビュー画像内での被写体画像の位置を特定可能な座標が認識領域特定座標として用いられるようにすればよい。
一例として図12に示すように、特徴抽出部48A3は、メモリ48Cに記憶されている認識結果情報94から被写体別特徴情報を抽出する。被写体別特徴情報は、被写体単位で被写体名と被写体特徴とが1対1で対応付けられた情報である。
一例として図13に示すように、ストレージ48Bには、カテゴリデータベース96が構築されている。カテゴリデータベース96には、複数の被写体別カテゴリ群98が含まれている。被写体別カテゴリ群98は、被写体毎に1つずつ割り当てられている。図13に示す例では、複数の被写体別カテゴリ群98として、人物A用カテゴリ群、人物B用カテゴリ群、人物C用カテゴリ群、人物D用カテゴリ群、及び人物E用カテゴリ群を含む複数のカテゴリ群(各人物に対して各々割り当てられたカテゴリ群)が示されている。複数の被写体別カテゴリ群98の各々は、複数の人物のそれぞれ自体を特定可能なカテゴリである。なお、被写体別カテゴリ群98は、本開示の技術に係る「物体対象カテゴリ」の一例である。
分類部48A4は、被写体別特徴情報に含まれる被写体名から、被写体名に対応する被写体別カテゴリ群98を特定し、特定した被写体別カテゴリ群98に、被写体名に対応する被写体特徴を分類する。
被写体別カテゴリ群98には、複数のカテゴリが含まれている。被写体別カテゴリ群98に含まれる複数のカテゴリの各々は、互いに独立した単位毎に作られたカテゴリである。単位とは、被写体特徴の単位を指す。図13に示す例では、被写体別カテゴリ群98に含まれる複数のカテゴリの一例として、顔カテゴリ、姿勢カテゴリ、眼カテゴリ、及び指定撮像範囲カテゴリ等が示されている。顔カテゴリは、「人物の顔」という単位の被写体特徴で定められたカテゴリである。姿勢カテゴリは、「人物の姿勢」という単位の被写体特徴で定められたカテゴリである。眼カテゴリは、「人物の眼」という単位の被写体特徴で定められたカテゴリである。指定撮像範囲カテゴリは、人物に対して適用される「指定撮像範囲」という単位の被写体特徴で定められたカテゴリである。
一例として図14に示すように、顔カテゴリ、姿勢カテゴリ、眼カテゴリ、及び指定撮像範囲カテゴリを大カテゴリとした場合、大カテゴリに対して複数の小カテゴリが従属している。小カテゴリは、大カテゴリが示す被写体特徴に従属する被写体特徴が分類されるカテゴリである。複数の小カテゴリには、分類回数が対応付けられている。小カテゴリには、被写体特徴が分類部48A4によって分類される。小カテゴリに被写体特徴が1回分類されて加わる毎に、被写体特徴が分類された回数として「1」が分類回数に加算される。
図14に示す例では、人物Aに対して用いられる被写体別カテゴリ群98内の顔カテゴリに含まれる複数のカテゴリとして、笑顔カテゴリ、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリが示されている。分類部48A4は、人物Aの「笑顔」という被写体特徴を笑顔カテゴリに分類する。そして、分類部48A4は、笑顔カテゴリに「笑顔」という被写体特徴を1回分類する毎に、笑顔カテゴリについての分類回数に「1」を加算する。人物Aの「泣き顔」、「怒り顔」、及び「真顔」という各被写体特徴についても、「笑顔」という被写体特徴と同様に、分類部48A4によって対応するカテゴリに分類され、対応する分類回数に「1」が加算される。
顔カテゴリに対しても分類回数が対応付けられている。顔カテゴリについての分類回数は、笑顔カテゴリについての分類回数、泣き顔カテゴリについての分類回数、怒り顔カテゴリについての分類回数、及び真顔カテゴリについての分類回数の総和である。
また、図14に示す例では、人物Aに対して用いられる被写体別カテゴリ群98内の姿勢カテゴリに含まれる複数のカテゴリとして、正面カテゴリ及び非正面カテゴリが示されている。分類部48A4は、人物Aの「正面」という被写体特徴を正面カテゴリに分類する。そして、分類部48A4は、正面カテゴリに「正面」という被写体特徴を1回分類する毎に、正面カテゴリについての分類回数に「1」を加算する。人物Aの「非正面」という被写体特徴についても、「正面」という被写体特徴と同様に、分類部48A4によって非正面カテゴリに分類され、対応する分類回数に「1」が加算される。
姿勢カテゴリに対しても分類回数が対応付けられている。姿勢カテゴリについての分類回数は、正面カテゴリについての分類回数及び非正面カテゴリについての分類回数の総和である。
また、図14に示す例では、人物Aに対して用いられる被写体別カテゴリ群98内の眼カテゴリに含まれる複数のカテゴリとして、開眼カテゴリ及び閉眼カテゴリが示されている。分類部48A4は、人物Aの「開眼」という被写体特徴を開眼カテゴリに分類する。そして、分類部48A4は、開眼カテゴリに「開眼」という被写体特徴を1回分類する毎に、開眼カテゴリについての分類回数に「1」を加算する。人物Aの「閉眼」という被写体特徴についても、「閉眼」という被写体特徴と同様に、分類部48A4によって閉眼カテゴリに分類され、対応する分類回数に「1」が加算される。
眼カテゴリに対しても分類回数が対応付けられている。眼カテゴリについての分類回数は、開眼カテゴリについての分類回数及び閉眼カテゴリについての分類回数の総和である。
更に、図14に示す例では、人物Aに対して用いられる被写体別カテゴリ群98内の指定撮像範囲カテゴリに含まれる複数のカテゴリとして、指定撮像範囲内カテゴリ及び指定撮像範囲外カテゴリが示されている。分類部48A4は、「指定撮像範囲内」という被写体特徴を指定撮像範囲内カテゴリに分類する。そして、分類部48A4は、指定撮像範囲内カテゴリに「指定撮像範囲内」という被写体特徴を1回分類する毎に、指定撮像範囲内カテゴリについての分類回数に「1」を加算する。「指定撮像範囲外」という被写体特徴についても、「指定撮像範囲内」という被写体特徴と同様に、分類部48A4によって指定撮像範囲外カテゴリに分類され、対応する分類回数に「1」が加算される。
指定撮像範囲カテゴリに対しても分類回数が対応付けられている。指定撮像範囲カテゴリについての分類回数は、指定撮像範囲内カテゴリについての分類回数及び指定撮像範囲外カテゴリについての分類回数の総和である。
被写体別カテゴリ群98は、「被写体名」という単位の被写体特徴で定められたカテゴリであり、被写体別カテゴリ群98には、被写体名という被写体特徴が分類される。被写体別カテゴリ群98に対しても分類回数が対応付けられている。被写体別カテゴリ群98に対応付けられている分類回数は、被写体別カテゴリ群98に属する複数の大カテゴリの分類回数の総和である。
一例として図15に示すように、取得部48A1は、画像メモリ50から非位相差画像データをライブビュー画像データとして取得する。被写体認識部48A2は、取得部48A1によって取得されたライブビュー画像データに基づいて、学習済みモデル92を用いて撮像領域内の被写体を認識する。
被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、撮像領域に含まれる人物を被写体として認識する。また、被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、人物の顔、人物の姿勢、人物の眼の開閉、及び指定撮像範囲内での人物の有無等の人物の特徴を被写体特徴として認識する。
すなわち、被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、顔カテゴリに属する被写体特徴として、笑顔、泣き顔、怒り顔、及び真顔を認識する。また、被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、姿勢カテゴリに属する被写体特徴として、正面及び非正面を認識する。また、被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、眼カテゴリに属する被写体特徴として、開眼及び閉眼を認識する。更に、被写体認識部48A2は、ライブビュー画像データに対して画像解析を行うことで、指定撮像範囲カテゴリに属する被写体特徴として、指定撮像範囲内及び指定撮像範囲外を認識する。被写体認識部48A2は、撮像領域に含まれる人物を認識した結果を示す認識結果情報94をメモリ48Cに記憶する。認識結果情報94は、1フレーム単位でメモリ48Cに上書き保存される。
一例として図16に示すように、制御部48A5は、取得部48A1によって取得されたライブビュー画像データにより示されるライブビュー画像をディスプレイ26に表示させる。また、制御部48A5は、メモリ48Cに記憶されている認識結果情報94を参照して、ライブビュー画像データに基づいて被写体認識部48A2によって被写体として認識された人物(以下、「認識人物」とも称する)についてのカテゴリ毎の分類回数を、カテゴリデータベース96に含まれる各カテゴリから取得する。すなわち、制御部48A5は、認識人物に対応する被写体別カテゴリ群98の各カテゴリから、認識人物毎に分類回数を取得する。
制御部48A5は、カテゴリデータベース96に含まれる各カテゴリから取得した分類回数に基づいて撮像支援画面100を生成し、生成した撮像支援画面100をライブビュー画像に重畳表示する。図16に示す例では、ライブビュー画像の左上に撮像支援画面100が表示されている。
一例として図17に示すように、撮像支援画面100内には、バブルチャート100A及びカテゴリ選択画面100Bが表示されている。バブルチャート100Aは、複数の認識人物を示す軸と、カテゴリを示す軸との2軸上に分類回数を示すバブルがプロットされたチャートである。
図17に示す例では、バブルチャート100Aの一例として、顔カテゴリに関するバブルチャート(以下、「顔カテゴリバブルチャート」とも称する)が示されている。顔カテゴリバブルチャートは、人物A~Eを含む複数の人物の各々について、顔カテゴリに属する笑顔カテゴリ、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリの各分類回数のバブルがプロットされたチャートである。
撮像支援画面100には、顔カテゴリバブルチャートの他にも、姿勢カテゴリに関するバブルチャート(以下、「姿勢カテゴリバブルチャート」とも称する)、眼カテゴリに関するバブルチャート(以下、「眼カテゴリバブルチャート」とも称する)、及び指定撮像範囲カテゴリに関するバブルチャート(以下、「指定撮像範囲カテゴリバブルチャート」とも称する)が、外部から与えられた指示に従って選択的に表示される。ここで、外部から与えられた指示とは、例えば、受付デバイス80によって受け付けられた指示が挙げられる。図17に示す例では、カテゴリ選択画面100B内に、各カテゴリの名称が示された複数のソフトキーがスクロール方式で表示されている。ユーザの指による操作でタッチパネルを介して何れかのソフトキーがオンされると、オンされたソフトキーに対応するカテゴリに関するバブルチャートが新たなバブルチャート100Aとして撮像支援画面100内に表示される。
また、ユーザの指による操作でタッチパネルを介してバブルチャート100A内の何れかの人物が選択されると、選択された人物について、現時点で表示されているバブルチャート100Aの各カテゴリの分類回数がヒストグラム100C(図18参照)として撮像支援画面100内に表示される。図17に示す例では、ユーザの指による操作でタッチパネルを介してバブルチャート100A内の人物Aが選択されている。この場合、一例として図18に示すように、ヒストグラム100Cとして、人物Aについて、顔カテゴリの撮像傾向を示すヒストグラム(以下、「顔カテゴリヒストグラム」とも称する)が表示される。顔カテゴリヒストグラムは、横軸は、笑顔カテゴリ、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリの各カテゴリを示しており、縦軸は分類回数を示している。
図18に示す例では、ヒストグラム100Cとして顔カテゴリヒストグラムが示されているが、バブルチャート100Aの種類、及びユーザによって選択された人物に応じて、異なる種類のヒストグラムがヒストグラム100Cとして表示される。ヒストグラム100Cの種類としては、顔カテゴリヒストグラムの他に、例えば、選択された人物毎に、姿勢カテゴリの撮像傾向を示すヒストグラム(以下、「姿勢カテゴリヒストグラム」とも称する)、眼カテゴリの撮像傾向を示すヒストグラム(以下、「眼カテゴリヒストグラム」とも称する)、及び指定撮像範囲カテゴリの撮像傾向を示すヒストグラム(以下、「指定撮像範囲カテゴリヒストグラム」とも称する)等が挙げられる。また、人物毎のヒストグラムに限らず、横軸を人物A~Eとし、縦軸を被写体別カテゴリ群98に分類された回数としたヒストグラムであってもよい。このように、ヒストグラムの横軸及び縦軸は、ヒストグラムを構成し得る要素であれば如何なる要素の軸であってもよい。
図18に示す例では、撮像支援画面100内に表示切替指示画面100Dが表示されている。表示切替指示画面100Dは、ヒストグラム100Cの表示からバブルチャート100Aの表示への切り替えの指示を受け付ける画面である。表示切替指示画面100Dには、バブルチャート100Aへの切り替えを案内するメッセージ(図18に示す例では、「バブルチャート画面に戻しますか?」というメッセージ)と、切替ソフトキー(図18に示す例では、「はい」と表示されたソフトキー)とが表示されている。ユーザの指による操作でタッチパネルを介して切替ソフトキーがオンされると、ヒストグラム100Cの表示からバブルチャート100Aの表示へ切り替えられる。
ここで、受付デバイス80(図18に示す例では、タッチパネル28)によって、ヒストグラム100C内の何れかのカテゴリの分類回数が指定される。図18に示す例では、笑顔カテゴリがユーザの指でタッチパネル28を介して選択されることで笑顔カテゴリの分類回数が指定されている。このように、何れかのカテゴリの分類回数が指定された場合、指定された分類回数に対応するカテゴリ(以下、「対象カテゴリ」とも称する)についての支援処理が制御部48A5によって行われる。
また、図18に示す例では、人物Aについてのヒストグラム100C内の複数のカテゴリ(笑顔カテゴリ、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリ)から笑顔カテゴリが対象カテゴリとして指定されている。対象カテゴリは、分類回数に基づいて定められたカテゴリ(図18に示す例では、タッチパネル28によって受け付けられた指示に従って、分類回数に基づいて指定されたカテゴリ)である。この場合、支援処理として、笑顔カテゴリに属する被写体特徴である「笑顔」を有する人物A(以下、「対象カテゴリ被写体S」とも称する(図19参照))に対するイメージセンサ16を用いた撮像を支援する処理が行われる。
対象カテゴリ被写体が撮像装置10によって撮像される場合、対象カテゴリは、対象カテゴリ被写体Sの状態(例えば、顔の表情、姿勢、眼の開閉状態、及び/又は、人物と指定撮像範囲との位置関係等)に応じて定められたカテゴリであって、対象カテゴリ被写体Sについての被写体特徴が分類されるカテゴリである。図18に示す例では、対象カテゴリ被写体Sとして人物Aが撮像装置10によって撮像される場合、人物Aの笑顔、泣き顔、怒り顔、及び真顔のうち、最も撮像されていない表情である笑顔という被写体特徴が分類される笑顔カテゴリがユーザによって対象カテゴリとして指定されている。
ヒストグラム100Cからユーザによって対象カテゴリとして指定された笑顔カテゴリは、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリに比べ、分類回数が最も低いカテゴリである。これは、人物Aが笑顔で写っている本露光画像の枚数が、他の表情で写っている本露光画像の枚数よりも少ないことを意味する。なお、ヒストグラム100Cにおいて笑顔カテゴリは、本開示の技術に係る「低頻度カテゴリ」の一例である。
このようにヒストグラム100Cから対象カテゴリが指定されると、一例として図19に示すように、制御部48A5は、対象カテゴリ被写体Sを含む撮像領域が撮像装置10によって撮像されることで得られたライブビュー画像をディスプレイ26に表示させ、かつ、支援処理として、認識結果情報94に基づいて笑顔の対象カテゴリ被写体Sを特定し、特定した対象カテゴリ被写体Sの撮像を推奨する表示を行う表示処理を行う。表示処理は、ライブビュー画像上において、笑顔の対象カテゴリ被写体Sを示す対象カテゴリ被写体画像S1を指し示す矢印を表示し、かつ、矢印が指し示す対象カテゴリ被写体画像S1により示される対象カテゴリ被写体Sの撮像を推奨する情報(以下、「撮像推奨情報」とも称する)を表示する処理を含む。図19に示す例では、撮像推奨情報の一例として、「この被写体を撮ることをお勧めします」というメッセージが示されている。
また、表示処理は、ライブビュー画像内で対象カテゴリ被写体画像S1を他の画像領域と区別可能な態様で表示する処理を含む。この場合、例えば、制御部48A5は、メモリ48Cに記憶されている認識結果情報94に基づいて対象カテゴリ被写体画像の顔領域(対象カテゴリ被写体Sの顔を示す画像領域)を検出し、検出した顔領域を取り囲む検出枠102をライブビュー画像内に表示することで、ライブビュー画像内で対象カテゴリ被写体画像S1を他の画像領域と区別可能な態様で表示する。
なお、ライブビュー画像内で対象カテゴリ被写体画像S1を他の画像領域と区別可能な態様で表示する方法はこれに限らず、例えば、ライブビュー画像内において対象カテゴリ被写体画像S1のみがピーキング方式で表示されるようにしてもよい。
次に、撮像装置10の作用について図20A及び図20Bを参照しつつ説明する。
図20A及び図20Bには、撮像装置10に対して撮像モードが設定された場合にCPU48Aによって実行される撮像支援処理の流れの一例が示されている。撮像支援処理の流れは、本開示の技術に係る「撮像支援方法」の一例である。なお、以下では、説明の便宜上、撮像装置10によってライブビュー画像用の撮像が既定のフレームレートで行われていることを前提として説明する。また、以下では、説明の便宜上、ストレージ48Bに指定撮像範囲情報86が記憶されており、カテゴリデータベース96が構築済みであることを前提として説明する。
図20Aに示す撮像支援処理では、先ず、ステップST100で、取得部48A1は、画像メモリ50からライブビュー画像データを取得する。
次のステップST102で、制御部48A5は、ステップST100で取得されたライブビュー画像データにより示されるライブビュー画像をディスプレイ26に表示させる。
次のステップST104で、被写体認識部48A2は、ステップST100で取得されたライブビュー画像データに基づいて、学習済みモデル92を用いて撮像領域内の被写体を認識する。
次のステップST106で、制御部48A5は、ステップST104で認識された被写体についてのカテゴリ毎の分類回数をカテゴリデータベース96から取得する。
次のステップST108で、制御部48A5は、ステップST106で取得した分類回数に基づいて撮像支援画面100を作成し、作成した撮像支援画面100をライブビュー画像内の一部領域に表示する。
次のステップST110で、制御部48A5は、撮像支援画面100内のヒストグラム100Cから何れかの分類回数が指定済みであるか否かを判定する。ステップST110において、撮像支援画面100内のヒストグラム100Cから何れかの分類回数が未だに指定されていない場合は、判定が否定されて、撮像支援処理は、図20Bに示すステップST116へ移行する。ステップST110において、撮像支援画面100内のヒストグラム100Cから何れかの分類回数が指定済みの場合は、判定が肯定されて、撮像支援処理はステップST112へ移行する。
ステップST112で、制御部48A5は、指定された分類回数に基づいて指定された対象カテゴリに属する被写体特徴を有する対象カテゴリ被写体Sを示す対象カテゴリ被写体画像S1の顔領域を取り囲むように検出枠102をライブビュー画像内に表示する。
次のステップST114で、制御部48A5は、ライブビュー画像内に撮像推奨情報を表示する。ステップST114の処理が実行された後、撮像支援処理は、図20Bに示すステップST116へ移行する。
ステップST116で、制御部48A5は、本露光を開始する条件(以下、「本露光開始条件」と称する)を満足したか否かを判定する。本露光開始条件の一例としては、受付デバイス80によって受け付けられた指示によって、上述した全押し状態になった、との条件が挙げられる。ステップST116において、本露光開始条件を満足していない場合は、判定が否定されて、撮像支援処理はステップST130へ移行する。ステップST116において、本露光開始条件を満足した場合は、判定が肯定されて、撮像支援処理はステップST118へ移行する。
ステップST118で、制御部48A5は、対象カテゴリ被写体Sを含む撮像領域について、イメージセンサ16に対して本露光撮像を行わせる。本露光撮像が行われることにより画像メモリ50には、対象カテゴリ被写体Sを含む撮像領域の本露光画像を示す本露光画像データが記憶される。
次のステップST120で、取得部48A1は、画像メモリ50から本露光画像データを取得する。
次のステップST122で、被写体認識部48A2は、ステップST120で取得された本露光画像データに基づいて、学習済みモデル92を用いて撮像領域内の被写体を認識し、認識結果情報94をメモリ48Cに記憶する。
次のステップST124で、特徴抽出部48A3は、メモリ48Cに記憶されている認識結果情報94から被写体毎に被写体別特徴情報を抽出する。
次のステップST126で、分類部48A4は、ステップST124で抽出された被写体別特徴情報に含まれる被写体名から、被写体名に対応する被写体別カテゴリ群98を特定し、特定した被写体別カテゴリ群98内の対応するカテゴリに被写体特徴を分類する。
次のステップST128で、分類部48A4は、被写体特徴を分類したカテゴリの分類回数に「1」を加算することで分類回数を更新する。
次のステップST130で、制御部48A5は、ディスプレイ26からライブビュー画像等(例えば、ライブビュー画像、撮像支援画面100、検出枠102、及び撮像推奨情報)を消去する。
次のステップST132で、制御部48A5は、撮像支援処理を終了する条件(以下、「撮像支援処理終了条件」とも称する)を満足したか否かを判定する。撮像支援処理終了条件の一例としては、撮像装置10に対して設定されている撮像モードが解除された、との条件、又は、撮像支援処理を終了させる指示が受付デバイス80によって受け付けられた、との条件等が挙げられる。ステップST120において、撮像支援処理終了条件を満足していない場合は、判定が否定されて、撮像援処理は、ステップST100へ移行する。ステップST132において、撮像支援処理終了条件を満足した場合は、判定が肯定されて、撮像支援処理が終了する。
以上説明したように、撮像装置10では、本露光画像から特定される被写体の被写体特徴に基づいてカテゴリに分類された被写体特徴の分類回数が制御部48A5によって取得される。そして、制御部48A5によって、分類回数に基づいて撮像装置10による撮像を支援する支援処理が行われる。従って、本構成によれば、被写体特徴がカテゴリに分類される分類回数に応じて撮像装置10による撮像を支援することができる。
また、撮像装置10では、カテゴリが対象カテゴリを含む複数のカテゴリに類別されている。また、対象カテゴリは、分類回数に基づいて定められたカテゴリである。図18に示す例では、分類回数がユーザによって選択されることによって対象カテゴリが指定されている。そして、制御部48A5によって、対象カテゴリに属する被写体特徴を有する対象カテゴリ被写体Sに対して撮像を支援する処理が行われる。図19に示す例では、笑顔の対象カテゴリ被写体Sに対して撮像を支援する処理が行われている。
なお、図19に示す例では、笑顔カテゴリの分類回数がユーザによって選択されることよって笑顔カテゴリが指定されているので、笑顔の対象カテゴリ被写体Sに対しての撮像が支援されているが、他の被写体特徴(例えば、泣き顔、怒り顔、及び/又は真顔)の分類回数がユーザによって選択されることで、顔カテゴリ内の複数の小カテゴリのうち、笑顔カテゴリ以外の小カテゴリが指定された場合には、指定された対象カテゴリに属する被写体特徴を有する対象カテゴリ被写体Sに対して撮像を支援する処理が行われる。
顔カテゴリに属する小カテゴリに限らず、他の大カテゴリに属する小カテゴリに分類されている被写体特徴の分類回数がユーザによって選択されることによって小カテゴリが指定された場合には、対象カテゴリとして指定された小カテゴリに属する被写体特徴を有する対象カテゴリ被写体Sに対して撮像を支援する処理が行われる。
また、被写体別カテゴリ群98に被写体特徴として分類されている被写体名の分類回数がユーザによって選択されることで被写体別カテゴリ群98が指定された場合には、対象カテゴリとして指定された被写体別カテゴリ群98に属する被写体特徴を有する対象カテゴリ被写体S、すなわち、対象カテゴリとして指定された被写体別カテゴリ群98に対応する被写体名の対象カテゴリ被写体Sに対して撮像を支援する処理が行われる。
従って、本構成によれば、ユーザが求める対象カテゴリ被写体Sか否かが撮像者の勘のみから判断されて撮像が行われる場合に比べ、ユーザが求める対象カテゴリ被写体を効率的に撮像することができる。
また、本実施形態では、対象カテゴリ被写体Sの撮像を推奨する表示として、撮像推奨情報(図19に示す例では、「この被写体を撮ることをお勧めします」というメッセージ)の表示が行われる。従って、本構成によれば、ユーザが求める被写体特徴を有する対象カテゴリ被写体Sか否かが撮像者の勘のみから判断されて撮像が行われる場合に比べ、ユーザが求める表情の対象カテゴリ被写体を効率的に撮像することができる。
また、本実施形態では、制御部48A5によって、ライブビュー画像がディスプレイ26に表示され、かつ、ライブビュー画像内で対象カテゴリ被写体画像S1が他の画像領域区別可能な態様で表示される。従って、本構成によれば、ユーザに対して、対象カテゴリ被写体を視覚的に認識させることができる。
また、本実施形態では、制御部48A5によって、ライブビュー画像がディスプレイ26に表示され、かつ、ライブビュー画像内で対象カテゴリ被写体画像S1の顔領域に対して検出枠102が表示される。従って、本構成によれば、ユーザに対して、検出枠102が表示されている表示領域に対応する被写体が対象カテゴリ被写体であると認識させることができる。
また、本実施形態では、対象カテゴリとして、複数のカテゴリ間で分類回数が相対的に低いカテゴリ(図18に示す例では、笑顔カテゴリ)がユーザによって指定されている。従って、本構成によれば、複数のカテゴリ間で分類回数が相対的に低いカテゴリの被写体か否かが撮像者の勘のみから判断されて撮像が行われる場合に比べ、複数のカテゴリ間で分類回数が相対的に低いカテゴリの被写体を効率的に撮像することができる。
また、本実施形態では、対象カテゴリが、対象カテゴリ被写体Sの状態(例えば、人物の表情)に応じて定められたカテゴリである。図19に示す例では、対象カテゴリとして、「笑顔」という被写体Sの状態に応じて定められた笑顔カテゴリが指定されている。そして、指定されたカテゴリに分類された被写体特徴を有する被写体である対象カテゴリ被写体Sに対する撮像を支援する処理が制御部48A5によって行われる。従って、本構成によれば、同じ状態の被写体に対する撮像の回数を増やしたり、逆に、同じ状態の被写体に対する撮像の回数を減らしたりすることができる。
また、本実施形態では、複数の人物のそれぞれ自体を特定可能なカテゴリとして複数の被写体別カテゴリ群98がカテゴリデータベース96内に含まれている。そのため、ユーザによって指定された被写体別カテゴリ群98に対応する被写体である対象カテゴリ被写体Sに対する撮像を支援する処理が制御部48A5によって行われる。従って、本構成によれば、同じ被写体に対する撮像の回数を増やしたり、逆に、同じ被写体に対する撮像の回数を減らしたりすることができる。
また、本実施形態では、被写体特徴が分類されるカテゴリが複数の単位毎に作られている。複数の単位としては、例えば、「被写体名(例えば、人物の名前、又は、人物を特定可能な識別子)」という単位、「人物の顔(表情)」という単位、「人物の姿勢」という単位、「人物の眼」という単位、及び「指定撮像範囲」という単位が挙げられる。従って、本構成によれば、指定された単位のカテゴリに被写体特徴が分類される分類回数に応じて撮像装置10による撮像を支援することができる。
また、本実施形態では、撮像装置10による撮像を支援する支援処理として、分類回数をディスプレイ26に表示させる処理を含む処理が制御部48A5によって行われる。図17に示す例では、バブルチャート100Aを用いて分類回数が表現されており、図18に示す例では、ヒストグラム100Cを用いて分類回数が表現されている。従って、本構成によれば、種々の被写体特徴の各々に関して撮像が行われた回数をユーザに把握させることができる。
また、本実施形態では、ヒストグラム100Cがディスプレイ26に表示されている状態で、受付デバイス80によってヒストグラム100C内の分類回数が指定された場合に、指定された分類回数に対応するカテゴリに関する撮像を支援する処理が制御部48A5によって行われる。従って、本構成によれば、ユーザが意図する被写体特徴を有する被写体に対する撮像を支援することができる。
なお、上記実施形態では、指定撮像範囲内に対象カテゴリ被写体Sが位置している形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、指定撮像範囲外に対象カテゴリ被写体Sが位置している場合、一例として図21に示すように、ライブビュー画像内において、指定撮像範囲を示すオブジェクトObから外れた位置に対象カテゴリ被写体画像S1が表示される。この場合、制御部48A5は、ライブビュー画像内において、指定撮像範囲を示すオブジェクトObと、対象カテゴリ被写体画像S1(本開示の技術に係る「対象カテゴリ被写体を示すオブジェクト」の一例)とを別の表示態様で表示する。図21に示す例では、対象カテゴリ被写体画像S1がピーキング方式で表示されており、オブジェクトObは半透明色(例えば、半透明なグレー)で色付けされている。これにより、ユーザが撮像対象として意図している指定撮像範囲と対象カテゴリ被写体Sとを視覚的に識別することができる。
また、上記実施形態では、ヒストグラム100Cに示されている分類回数がユーザによってタッチパネル28を介して指定されることによって、指定された分類回数に対応するカテゴリ(図18に示す例では、笑顔カテゴリ)に関する撮像が支援されるようにしたが、本開示の技術はこれに限定されない。例えば、制御部48A5は、複数のカテゴリのうち、分類回数が相対的に低い低頻度カテゴリを対象カテゴリとして特定し、特定した低頻度カテゴリに関する撮像を支援する処理を行うようにしてもよい。例えば、低頻度カテゴリとは、ユーザによって受付デバイス80を介して指定された大カテゴリ(例えば、顔カテゴリ)に属する複数の小カテゴリ(笑顔カテゴリ、泣き顔カテゴリ、怒り顔カテゴリ、及び真顔カテゴリ)のうち、分類回数が最も少ないカテゴリ(例えば、笑顔カテゴリ)を指す。制御部48A5は、ライブビュー画像において、ユーザによって受付デバイス80を介して指定された注目被写体(例えば、人物A)のうち、低頻度カテゴリに分類される被写体特徴を有する注目被写体を特定し、特定した注目被写体に対する撮像を支援する処理を行う。この場合、ヒストグラム100Cに対する選択(ユーザによる操作)は不要であり、撮像支援画面100も表示されなくてもよい。
このように、低頻度カテゴリに分類される被写体特徴を有する注目被写体に対する撮像を支援する処理が制御部48A5によって行われる場合、一例として図22に示すように、撮像支援処理がCPU48Aによって実行される。図22に示すフローチャートは、図20Aに示すフローチャートに比べ、ステップST106~ステップST112に代えて、ステップST200及びステップST202を有する点が異なる。
図22に示す撮像支援処理のステップST200で、制御部48A5は、ユーザによって指定された注目被写体について、ユーザによって指定された大カテゴリ内の複数の小カテゴリから低頻度カテゴリを特定する。例えば、図22に示すバブルチャート100Aによれば、ユーザによって大カテゴリとして顔カテゴリが指定され、かつ、ユーザによって注目被写体として人物Aが指定された場合、制御部48A5によって、笑顔カテゴリが低頻度カテゴリとして特定される。
次のステップST202で、制御部48A5は、ライブビュー画像において、ユーザによって指定された注目被写体のうち、低頻度カテゴリに分類される被写体特徴を有する注目被写体を示す被写体画像(以下、「注目被写体画像」とも称する)を特定し、注目被写体画像の顔領域に対して検出枠102(図19及び図21参照)を表示する。例えば、ユーザによって注目被写体として人物Aが指定され、ステップST200において低頻度カテゴリとして笑顔カテゴリが自動的に特定された場合、先ず、制御部48A5によって、認識結果情報94に基づいて、ライブビュー画像内において、人物Aのうちの笑顔の人物Aを示す人物画像が注目被写体画像として特定される。そして、制御部48A5によって、ライブビュー画像内において、笑顔の人物Aを示す人物画像の顔領域を取り囲む検出枠102が表示される。なお、本実施形態において、「自動」とは、人為的な操作(例えば、ユーザによる操作)をトリガーにして動くことではなく、コントローラ48主体で動くことを意味する。
従って、図22に示す例によれば、分類回数が最も少ないカテゴリに分類されている被写体特徴を有する被写体に対する撮像が支援されるので、低頻度カテゴリの被写体か否かが撮像者の勘のみから判断されて撮像される場合に比べ、低頻度カテゴリの被写体を効率的に撮像することができる。
上記実施形態では、撮像支援処理において本露光開始条件としてユーザからの指示が受付デバイス80によって受け付けられたという条件を満足した場合に本露光撮像が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、制御部48A5は、撮像装置10による撮像結果に基づいて対象カテゴリ被写体を検出し、対象カテゴリ被写体を検出したことを条件に、対象カテゴリ被写体に対応する画像を含む画像を自動的取得するようにしてもよい。
この場合、例えば、制御部48A5によって、先ず、図22に示す例と同様に、低頻度カテゴリが対象カテゴリとして特定される。そして、制御部48A5によって、認識結果情報94に基づいて、ライブビュー画像内に低頻度カテゴリに対応する注目被写体画像である低頻度注目被写体画像が存在することが検出された場合に、自動的に本露光撮像が開始されるようにする。ここで、低頻度カテゴリに対応する低頻度注目被写体画像とは、例えば、人物Aが注目被写体として指定されているという前提で、制御部48A5によって低頻度カテゴリとして笑顔カテゴリが特定された場合の人物Aのうちの「笑顔」という被写体特徴を有する人物Aを示す注目被写体画像を指す。なお、本露光撮像が行われることにより、1フレーム分の本露光画像データが既定の記憶領域(例えば、画像メモリ50)に記憶されるようにしてもよいし、1フレーム分の本露光画像データのうち、低頻度注目被写体画像に関するデータのみが既定の記憶領域に記憶されるようにしてもよい。
このように、対象カテゴリ被写体を検出したことを条件に対象カテゴリ被写体に対応する画像を含む画像が制御部48A5によって自動的に取得される場合、一例として図23に示すように、撮像支援処理がCPU48Aによって実行される。図23に示すフローチャートは、図20A及び図20Bに示すフローチャートに比べ、ステップST106~ステップST116に代えて、ステップST300及びステップST302を有する点が異なる。
図23に示す撮像支援処理のステップST300で、制御部48A5は、図22に示すステップST200の処理と同様の処理を実行する。
次のステップST302で、制御部48A5は、認識結果情報94に基づいてライブビュー画像内に低頻度注目被写体画像が存在しているか否かを判定する。ステップST302において、ライブビュー画像内に低頻度注目被写体画像が存在していない場合は、判定が否定されて、撮像支援処理はステップST130へ移行する。ステップST302において、ライブビュー画像内に低頻度注目被写体画像が存在している場合は、判定が肯定されて、撮像支援処理はステップST118へ移行する。
このように、制御部48A5によって、ライブビュー画像内に低頻度注目被写体画像が存在することが検出された場合に本露光撮像が開始されるので、対象カテゴリ被写体を目視で見つけてユーザからの指示が受付デバイス80によって受け付けられたことを条件に撮像を開始する場合に比べ、対象カテゴリ被写体の撮像に要する手間を軽減することができる。
図23に示す例では、撮像支援処理のステップST302において、ライブビュー画像内に低頻度注目被写体画像が存在しているか否かが判定され、ライブビュー画像内に低頻度注目被写体画像が存在していると判定された場合に本露光撮像が開始される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図23に示すステップST302の処理に代えて、図24に示すステップST352の処理が制御部48A5によって実行されるようにしてもよい。
図24に示す撮像支援処理のステップST352で、制御部48A5は、撮像範囲条件を満足したか否かを判定する。ここで、撮像範囲条件とは、対象カテゴリ被写体が指定撮像範囲情報86(図10及び図11参照)により示される指定撮像範囲内に含まれている、との条件を指す。対象カテゴリ被写体が指定撮像範囲に含まれているか否かの判定は、例えば、指定撮像範囲情報86及び認識結果情報94に基づいて、低頻度注目被写体画像により示される注目被写体が指定撮像範囲に含まれているか否かが判定されることよって行われる。ステップST352において、撮像範囲条件を満足していない場合は、判定が否定されて、撮像支援処理はステップST130へ移行する。ステップST352において、撮像範囲条件を満足した場合は、判定が肯定されて、撮像支援処理はステップST118へ移行する。
このように、対象カテゴリ被写体が指定撮像範囲内に含まれていることを条件に本露光撮像が行われるので、対象カテゴリ被写体が指定撮像範囲内に含まれていることを目視で見つけてユーザからの指示が受付デバイス80によって受け付けられたことを条件に撮像を開始する場合に比べ、対象カテゴリ被写体の撮像に要する手間を軽減することができる。
図24に示す例では、撮像支援処理のステップST118において本露光撮像が行われているが、指定撮像範囲内の対象カテゴリ被写体にピントを合わせた状態で撮像が行われるようにしてもよい。ここでの「撮像」は、ライブビュー画像用の撮像であってもよいし、記録画像(例えば、静止画像又は動画像)用の撮像であってもよい。
この場合、図25に示す撮像支援処理がCPU48Aによって実行される。図25に示すフローチャートは、図24に示すフローチャートに比べ、ステップST118に代えてステップST400を有する点が異なる。
図25に示す撮像支援処理のステップST400で、制御部48A5は、対象カテゴリ被写体Sを含む撮像領域について、AF演算の結果に基づいて対象カテゴリ被写体(例えば、ライブビュー画像内の低頻度注目被写体画像により示される注目被写体)にピントを合わせてからイメージセンサ16に対して本露光撮像を行わせる。ステップST400の処理が実行された後、撮像支援処理はステップST120へ移行する。
このように、指定撮像範囲内に対象カテゴリ被写体にピントを合わせてから本露光撮像が行われるので、指定撮像範囲内に対象カテゴリ被写体を位置させてから対象カテゴリ被写体にピントを合わせて撮像するのに要する手間を軽減することができる。
図25に示す例では、撮像範囲条件を満足した場合に本露光撮像が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、制御部48A5は、外部から与えられた第1撮像条件(例えば、受付デバイス80によって受け付けられた指示に従って定められた撮像条件)と、対象カテゴリ被写体に対して与えられている第2撮像条件との相違度が既定相違度以上の場合に、既定処理を行うようにしてもよい。
この場合、例えば、図26に示す撮像支援処理がCPU48Aによって実行される。図26に示すフローチャートは、図25に示すフローチャートに比べ、ステップST352、ステップST400、及びステップST120に代えて、ステップST450~ステップST456を有する点が異なる。
図26に示す撮像支援処理のステップST450で、制御部48A5は、第1撮像条件及び第2撮像条件を取得する。第1撮像条件及び第2撮像条件の例については後述する。
次のステップST452で、制御部48A5は、ステップST450で取得した第1撮像条件と第2撮像条件との相違度(例えば、第1撮像条件と第2撮像条件とがどの程度ずれているかを示す値)を算出する。
次のステップST454で、制御部48A5は、ステップST452で算出した相違度が既定相違度以上であるか否かを判定する。ステップST454において、ステップST452で算出した相違度が既定相違度未満の場合は、判定が否定されて、制御部48A5は、ステップST400の処理及びステップST120~ステップST132の処理(図25参照)に相当する処理を実行してからステップST100へ移行する。ステップST454において、ステップST452で算出した相違度が既定相違度以上の場合は、判定が肯定されて、撮像支援処理はステップST456へ移行する。
ステップST456で、制御部48A5は、既定処理を実行する。詳しくは後述するが、既定処理は、被写界深度を調整した後に本露光撮像を行う被写界深度調整後撮像処理、及び/又は、フォーカスブラケット方式で本露光撮像を行うフォーカスブラケット撮像処理を含む処理である。ステップST456の処理が実行された後、撮像支援処理はステップST122へ移行する。
このように、図26に示す例によれば、外部から与えられた第1撮像条件と対象カテゴリ被写体に対して与えられている第2撮像条件との相違度が既定相違度以上の場合に既定処理が行われるので、ユーザが意図する撮像条件下での撮像に寄与することができる。
図27及び図28に示す例では、被写界深度調整後撮像処理の内容が示されている。一例として図27に示すように、第1撮像条件が指定撮像範囲の位置であり、第2撮像条件が対象カテゴリ被写体の位置であり、対象カテゴリ被写体の位置が指定撮像範囲内にない場合、制御部48A5は、相違度が既定相違度以上であると判定する。相違度が既定相違度以上の場合、制御部48A5は、撮像装置10を制御することで、指定撮像範囲内及び対象カテゴリ被写体を被写界深度に収め、指定撮像範囲内及び対象カテゴリ被写体を被写界深度に収めた状態でイメージセンサ16に対して本露光撮像を行わせる。
相違度が既定相違度以上の場合、一例として図28に示すように、先ず、取得部48A1は、複数の被写体、すなわち、指定撮像範囲内の少なくとも1つの被写体(以下、「指定撮像範囲内被写体」とも称する)及び対象カテゴリ被写体の各々に対するAF演算の結果に基づいて、指定撮像範囲内被写体及び対象カテゴリ被写体の各々に対する合焦位置を算出する。例えば、取得部48A1は、ライブビュー画像内での指定撮像範囲内被写体画像(指定撮像範囲内被写体を示す画像)及び対象カテゴリ被写体画像S1の各位置に対応する位相差画像データに基づいて、指定撮像範囲内被写体及び対象カテゴリ被写体の各々に対する合焦位置を算出する。なお、合焦位置の算出方法は、あくまでも一例に過ぎず、TOF方式又はコントラストAF方式の算出方法によって合焦位置が算出されてもよい。
取得部48A1は、指定撮像範囲内被写体及び対象カテゴリ被写体の各々に対して算出した複数の合焦位置に基づいて、指定撮像範囲内被写体及び対象カテゴリ被写体を収める被写界深度を算出する。被写界深度は、第1演算式を用いて算出される。第1演算式は、例えば、複数の合焦位置を独立変数とし、被写界深度を従属変数とした演算式である。なお、第1演算式に代えて、複数の合焦位置と被写界深度とが対応付けられた第1テーブルを用いてもよい。
取得部48A1は、算出した被写界深度を実現するF値を算出する。取得部48A1は、第2演算式を用いてF値を算出する。ここで用いる第2演算式は、例えば、被写界深度を独立変数とし、F値を従属変数とした演算式である。なお、第2演算式に代えて、被写界深度を示す値とF値とが対応付けられた第2テーブルを用いてもよい。
制御部48A5は、取得部48A1によって算出されたF値に従って、モータドライバ60を介してモータ46を制御することで、絞り40Cを作動させる。
このように、図27及び図28に示す例によれば、対象カテゴリ被写体Sの位置が指定撮像範囲内にない場合に、指定撮像範囲内被写体及び対象カテゴリ被写体Sが被写界深度に収められるように絞り40Cを作動させ、指定撮像範囲内被写体及び対象カテゴリ被写体が被写界深度に収められた状態で本露光撮像が行われる。これにより、指定撮像範囲内被写体及び対象カテゴリ被写体Sを被写界深度に収めない場合に比べ、指定撮像範囲内被写体画像及び対象カテゴリ被写体画像として、複数回の撮像を行うことなくコントラストの高い画像を得ることができる。
ところで、撮像装置10の構造に起因して指定撮像範囲内被写体及び対象カテゴリ被写体Sの両方が被写界深度に収まらない状況も考えられる。このような状況に至った場合、制御部48A5は、撮像装置10に対して、フォーカスブラケット方式で指定撮像範囲内被写体と対象カテゴリ被写体とを撮像させる。
この場合、一例として図29に示すように、先ず、取得部48A1は、ライブビュー画像内での指定撮像範囲内被写体画像及び対象カテゴリ被写体画像S1の各位置に対応する位相差画像データに基づいて、第1合焦位置及び第2合焦位置を算出する。第1合焦位置は、指定撮像範囲内被写体の中心に対する合焦位置であり、第2合焦位置は、対象カテゴリ被写体Sに対する合焦位置である。第1及び第2合焦位置は、フォーカスブラケット方式での本露光撮像が行われる場合に用いられる合焦位置である。
取得部48A1によって第1及び第2合焦位置が算出されると、一例として図30に示すように、制御部48A5は、第1合焦位置にフォーカスレンズ40Bを移動させ、フォーカスレンズ40Bが第1合焦位置に到達するタイミングに合わせて、イメージセンサに対して本露光撮像の開始を指示する。これに応じて、イメージセンサ16によって本露光撮像が行われる。このようにフォーカスレンズ40Bを第1合焦位置に合わせた状態で本露光撮像が行われた後、制御部48A5は、第2合焦位置にフォーカスレンズ40Bを移動させ、フォーカスレンズ40Bが第2合焦位置に到達するタイミングに合わせて、イメージセンサに対して本露光撮像の開始を指示する。これに応じて、イメージセンサ16によって本露光撮像が行われる。なお、ここでは、フォーカスブラケット方式での本露光撮像で用いる合焦位置として第1及び第2合焦位置を例示したが、これはあくまでも一例に過ぎず、フォーカスブラケット方式での本露光撮像で用いる合焦位置として3つ以上の合焦位置を用いてもよい。
このように、図29及び図30に示す例によれば、撮像装置10の構造に起因して指定撮像範囲内被写体及び対象カテゴリ被写体Sの両方が被写界深度に収まらない場合に、フォーカスブラケット方式で指定撮像範囲内被写体及び対象カテゴリ被写体Sに対して本露光撮像が行われる。これにより、指定撮像範囲内被写体及び対象カテゴリ被写体Sが被写界深度に収まらない状況下で1フレーム分の撮像のみが行われる場合に比べ、撮像装置10の構造に起因して指定撮像範囲内被写体及び対象カテゴリ被写体Sの両方が被写界深度に収まらない場合であったとしても、指定撮像範囲内被写体画像及び対象カテゴリ被写体画像として、コントラストの高い画像を得ることができる。
図27に示す例では、第1撮像条件として指定撮像範囲の位置を例示し、第2撮像条件として対象カテゴリ被写体Sの位置を例示したが、本開示の技術はこれに限定されない。例えば、第1撮像条件を基準被写体(例えば、指定撮像範囲内被写体)の明るさとし、第2撮像条件を対象カテゴリ被写体Sの明るさとしてもよい。この場合、制御部48A5は、基準被写体の明るさと対象カテゴリ被写体Sの明るさとの相違度(以下、「明るさ相違度」とも称する)が既定明るさ相違度以上の場合に、上述した既定処理として、露出ブラケット方式撮像処理を実行する。露出ブラケット方式撮像処理は、撮像装置10に対して、露出ブラケット方式で基準被写体と対象カテゴリ被写体Sとを撮像させる処理である。
また、明るさ相違度が既定明るさ相違度未満の場合に、制御部48A5は、撮像装置10に対して、基準被写体を基準にして定められた露出で基準被写体及び対象カテゴリ被写体Sを撮像させる。
露出ブラケット方式撮像処理は、一例として図31に示す撮像支援処理がCPU48Aによって実行されることで実現される。図31に示すフローチャートは、図26に示すフローチャートに比べ、ステップST450~ステップST456に代えて、ステップST500~ステップST508を有する点が異なる。
図31に示す撮像支援処理のステップST500で、取得部48A1は、指定撮像範囲内被写体及び対象カテゴリ被写体Sの各々に対する測光値を取得する。測光値は、ライブビュー画像データに基づいて算出されてもよいし、測光センサ(図示省略)によって検出されてもよい。
次のステップST502で、制御部48A5は、ステップST500で指定撮像範囲内被写体及び対象カテゴリ被写体Sの各々について取得された2つの測光値を用いて明るさ相違度を算出する。明るさ相違度は、例えば、2つの測光値の差分の絶対値である。
次のステップST504で、制御部48A5は、ステップST502で算出された明るさ相違度が既定明るさ相違度以上であるか否かを判定する。既定明るさ相違度は、固定値であってもよいし、与えられた指示、及び/又は、与えられた条件に応じて変更される可変値であってもよい。ステップST504において、明るさ相違度が既定明るさ相違度未満の場合は、判定が否定されて、撮像支援処理はステップST508へ移行する。ステップST504において、明るさ相違度が既定明るさ相違度以上の場合は、判定が肯定されて、撮像支援処理はステップST506へ移行する。
ステップST506で、制御部48A5は、撮像装置10を制御することで、指定撮像範囲内被写体及び対象カテゴリ被写体Sの各々に対して露出ブラケット方式での本露光撮像を実行する。ステップST506の処理が実行された後、撮像支援処理はステップST122へ移行する。なお、露出ブラケット方式の本露光撮像が行われることによって得られた各フレームの本露光画像データは、既定の記憶領域に個別に記憶されるようにしてもよいし、合成されて得られた1フレームの合成画像データとして既定の記憶領域に記憶されるようにしてもよい。
ステップST508で、制御部48A5は、撮像装置10を制御することで、指定撮像範囲内被写体を基準にして定められた露出で、指定撮像範囲内被写体及び対象カテゴリ被写体Sに対して本露光撮像を実行する。ステップST508の処理が実行された後、制御部48A5は、ステップST120~ステップST132(図25参照)に相当する処理を実行してからステップST100へ移行する。
このように、図31に示す例によれば、明るさ相違度が既定明るさ相違度以上の場合に、露出ブラケット方式で指定撮像範囲内被写体及び対象カテゴリ被写体Sに対して本露光撮像が行われる。これにより、指定撮像範囲内被写体と対象カテゴリ被写体Sとの間で明るさのむらがある状況下で1フレーム分の撮像のみが行われる場合に比べ、指定撮像範囲内被写体画像と対象カテゴリ被写体画像S1として、明るさのむらが少ない画像を得ることができる。
また、図31に示す例によれば、明るさ相違度が既定明るさ相違度未満の場合に、基準被写体を基準にして定められた露出で指定撮像範囲内被写体及び対象カテゴリ被写体Sに対して本露光撮像が行われる。これにより、指定撮像範囲内被写体と対象カテゴリ被写体Sとの間で明るさのむらを無くしてから指定撮像範囲内被写体及び対象カテゴリ被写体Sに対して本露光撮像を行う場合に要する手間を軽減することができる。
上記実施形態では、被写体別カテゴリ群98に含まれる大カテゴリの一例として、顔カテゴリ、姿勢カテゴリ、眼カテゴリ、及び指定撮像範囲カテゴリを挙げたが、本開示の技術はこれに限定されない。例えば、図32に示すように、被写体別カテゴリ群98には、大カテゴリとして、「期間」という単位の被写体特徴で定められたカテゴリである期間カテゴリ、及び/又は「位置」という単位の被写体特徴で定められたカテゴリである位置カテゴリが含まれていてもよい。ここで、期間とは、被写体が撮像された期間を指す。また、位置とは、被写体が撮像された位置を指す。
期間カテゴリには、小カテゴリとして、互いに年月日が異なる複数の年月日カテゴリが含まれている。複数の年月日カテゴリの各々に対しては、分類回数が対応付けられている。また、期間カテゴリにも分類回数が対応付けられている。期間カテゴリの分類回数は、複数の年月日カテゴリの分類回数の総和である。
位置カテゴリには、小カテゴリとして、互いに位置が異なる複数の小位置カテゴリが含まれている。複数の小位置カテゴリの各々に対しては、分類回数が対応付けられている。また、位置カテゴリにも分類回数が対応付けられている。位置カテゴリの分類回数は、複数の小位置カテゴリの分類回数の総和である。
図32に示す例では、ストレージ48Bに地図データ104が記憶されている。地図データ104は、緯度、経度、及び高さという位置座標と、地図上の住所とが対応付けられたデータである。地図データ104は、分類部48A4によって参照される。なお、小位置カテゴリは地図上の住所に限らず、位置座標であってもよい。
図32に示す例では、分類部48A4にRTC106、及びGNSS受信機の一例であるGPS受信機108が接続されている。RTC106は、現在時刻を取得する。RTC106は、コントローラ48用の電源系から切り離された電源系から駆動用電力の供給を受け、コントローラ48がシャットダウンした状態であっても、現在時刻(年月日時分秒)を刻み続ける。
GPS受信機108は、複数のGNSS衛星の一例である複数のGPS衛星(図示省略)から電波を受信し、受信結果に基づいて、撮像装置10の現在位置を特定可能な位置座標を算出する。
分類部48A4は、1フレーム分の本露光撮像が行われる毎に、RTC106から現在時刻を取得し、取得した現在時刻を撮像時刻として、期間カテゴリ内に含まれる複数の年月日カテゴリのうちの対応する年月日カテゴリに分類する。分類部48A4は、撮像時刻を年月日カテゴリに分類する毎に、撮像時刻を分類した先の年月日カテゴリの分類回数に「1」を加算する。なお、ここでは、分類部48A4は、RTC106から現在時刻を取得しているが、インターネット等の通信網を介して現在時刻を取得するようにしてもよい。
分類部48A4は、1フレーム分の本露光撮像が行われる毎に、GPS受信機108から位置座標を、撮像が行われた位置(以下、「撮像位置」とも称する)として取得する。分類部48A4は、取得した撮像位置に対応する住所を地図データ104から特定する。そして、分類部48A4は、特定した住所に対応する小位置カテゴリに撮像位置を分類する。分類部48A4は、撮像位置を小位置カテゴリに分類する毎に、撮像位置を分類した先の小位置カテゴリの分類回数に「1」を加算する。
図33に示す例では、撮像支援画面100内に、バブルチャート100Aとして、期間カテゴリに関するバブルチャート(以下、「期間カテゴリバブルチャート」とも称する)が表示されている。期間カテゴリバブルチャートも、顔カテゴリバブルチャート(図17参照)と同様に、複数の認識人物を示す軸と、年月日カテゴリを示す軸との2軸上に分類回数を示すバブルがプロットされている。
また、受付デバイス80(例えば、タッチパネル28)カテゴリ選択画面100Bから位置カテゴリが選択されると、撮像支援画面100には、バブルチャート100Aとして、位置カテゴリに関するバブルチャート(以下、位置カテゴリバブルチャート)が表示される。位置カテゴリバブルチャートも、顔カテゴリに関するバブルチャート(図17参照)と同様に、複数の認識人物を示す軸と、小位置カテゴリを示す軸との2軸上に分類回数を示すバブルがプロットされる。
図34に示す例では、撮像支援画面100内に、ヒストグラム100Cとして、期間カテゴリに関するヒストグラム(以下、「期間カテゴリヒストグラム」とも称する)が表示されている。期間カテゴリヒストグラムの横軸は、年月日カテゴリを示しており、期間カテゴリヒストグラムの縦軸は、分類回数を示している。また、撮像支援画面100内には、ヒストグラム100Cとして、位置カテゴリに関するヒストグラム(以下、「位置カテゴリヒストグラム」とも称する)も、他カテゴリのヒストグラムと切替可能に表示される(図示省略)。位置カテゴリヒストグラムの横軸は、小位置カテゴリを示しており、位置カテゴリヒストグラムの縦軸は、分類回数を示している。
このように、被写体別カテゴリ群98には、大カテゴリとして、「期間」という単位の被写体特徴で定められた期間カテゴリが含まれている。また、期間カテゴリには、互いに年月日が異なる複数の年月日カテゴリが含まれている。そして、1フレーム分の本露光撮像が行われる毎に、撮像時刻が年月日カテゴリに分類され、分類回数に応じた期間カテゴリバブルチャート及び期間カテゴリヒストグラムがライブビュー画像と共にディスプレイ26に表示される。期間カテゴリバブルチャート及び期間カテゴリヒストグラムは、上記実施形態で説明した顔カテゴリバブルチャート及び顔カテゴリヒストグラムと同様の方法で使用される。従って、本構成によれば、年月日カテゴリに撮像時刻が分類されることで計数される分類回数に応じて撮像装置10による撮像を支援することができる。なお、ここでは、年月日で区切られた年月日カテゴリを例示したが、これはあくまでも一例に過ぎず、年、月、日、時、分、又は秒で期間が区切られたカテゴリであってもよい。
また、被写体別カテゴリ群98には、大カテゴリとして、「位置」という単位の被写体特徴で定められた位置カテゴリが含まれている。また、位置カテゴリには、互いに位置が異なる複数の小位置カテゴリが含まれている。そして、1フレーム分の本露光撮像が行われる毎に、撮像位置が小位置カテゴリに分類され、分類回数に応じた位置カテゴリバブルチャート及び位置カテゴリヒストグラムがライブビュー画像と共にディスプレイ26に表示される。位置カテゴリバブルチャート及び位置カテゴリヒストグラムは、上記実施形態で説明した顔カテゴリバブルチャート及び顔カテゴリヒストグラムと同様の方法で使用される。従って、本構成によれば、小位置カテゴリに撮像位置が分類されることで計数される分類回数に応じて撮像装置10による撮像を支援することができる。
上記実施形態では、撮像モードが設定されている間、撮像支援処理が継続的に実行されることを想定した形態例を挙げたが、本開示の技術はこれに限定されず、撮像支援処理が時刻及び/又は位置に応じて断続的に実行されるようにしてもよい。例えば、図35に示すように、既定時間(例えば、1時間)間隔で区切られた時刻チェックポイントで、指定された時間(例えば、10分)に限って撮像支援処理が実行されるようにしてもよい。時刻チェックポイントを定める既定時間間隔は、固定されていてもよいし、与えられた指示、及び/又は、与えられた条件(例えば、撮像条件)に応じて変更されてもよい。また、一例として図35に示すように、位置毎に区切られた複数の位置チェックポイントで、指定された時間に限って撮像支援処理が実行されるようにしてもよい。位置チェックポイントは、例えば、地図データ104及びGPS受信機108を利用すれば特定することができる。
また、上記実施形態では、撮像装置10によって撮像される撮像シーンに関わらず被写体特徴が分類部48A4によってカテゴリに分類される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、分類部48A4は、撮像装置10による撮像対象シーンが特定シーン(例えば、運動会のシーン、海水浴場のシーン、及び演奏会のシーン等)と一致した場合に被写体特徴をカテゴリに分類するようにしてもよい。特定シーンは、過去に撮像されたシーンであってもよい。
この場合、一例として図36に示す撮像支援処理がCPU48Aによって実行される。図36に示すフローチャートは、図23に示すフローチャートに比べ、ステップST118とステップST120との間にステップST550を有する点が異なる。
図36に示す撮像支援処理のステップST550で、被写体認識部48A2は、ステップST118で本露光撮像が行われることで得られた最新の本露光画像データに基づいて撮像領域内の被写体を認識することで現在の撮像シーンを特定する。また、被写体認識部48A2は、過去の本露光撮像画像データ(例えば、ユーザによって指定された期間内に得られた本露光画像データ)に基づいて過去の撮像シーンを特定する。そして、被写体認識部48A2は、現在の撮像シーンと過去の撮像シーンとが一致しているか否かを判定する。ステップST550において、現在の撮像シーンと過去の撮像シーンとが一致していない場合は、判定が否定されて、撮像支援処理はステップST130へ移行する。ステップST550において、現在の撮像シーンと過去の撮像シーンとが一致している場合は、判定が肯定されて、撮像支援処理はステップST120へ移行する。これにより、ステップST126にて、分類部48A4によって被写体毎に被写体特徴がカテゴリに分類される。
このように、現在の撮像シーンと特定シーンとが一致した場合にのみ、分類部48A4によって被写体毎に被写体特徴がカテゴリに分類されるので、ユーザが意図しないシーンに対して本露光撮像が行われることで得られる本露光画像データから特定される被写体特徴がカテゴリに分類されないようにすることができる。
また、現在の撮像シーンと過去の撮像シーンとが一致した場合にのみ、分類部48A4によって被写体毎に被写体特徴がカテゴリに分類されるので、過去の撮像シーンと一致する現在の撮像シーンに対して本露光撮像が行われることで得られる本露光画像データから特定される被写体特徴をカテゴリに分類することができる。
また、上記実施形態では、複数のカテゴリの各々に被写体特徴が分類される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図37に示すように、複数のカテゴリの各々に、本露光撮像が行われることによって得られた本露光画像が分類部48A4によって分類されるようにしてもよい。この場合、本露光画像がカテゴリに分類される毎に、本露光画像が分類されたカテゴリの分類回数に「1」が加算される。このようにして構築された被写体別カテゴリ群98も、上記実施形態で説明した被写体別カテゴリ群98と同様の使用方法で使用される。従って、本構成によれば、本露光画像がカテゴリに分類された分類回数に応じて撮像装置10による撮像を支援することができる。
また、上記実施形態では、人物Aに関する顔カテゴリヒストグラム(図18参照)を例示したが、本開示の技術はこれに限定されない。例えば、図38に示すように、顔カテゴリヒストグラムに代えて、4象限顔カテゴリバブルチャートを用いてもよい。4象限顔カテゴリバブルチャートは、第1象限に笑顔カテゴリが割り当てられ、第2象限に泣き顔カテゴリが割り当てられ、第3象限に怒り顔カテゴリが割り当てられ、第4象限に真顔カテゴリが割り当てられている。そして、各カテゴリに対応する分類回数がバブルの大きさで表現されている。なお、図38に示すように4象限のカテゴリで表示する場合において、顔の表情をより細かく分類し、バブルチャートに代えて散布図を表示してもよい。この場合、分類した顔の表情に基づき点のプロット位置を調整することにより微妙な顔の表情を表すことができる。例えば、同じ笑顔カテゴリであっても、泣き顔に近い笑顔が写った画像ほど第一象限の図中左側にプロットされる。また、真顔に近い笑顔が写った画像ほど第一象限の図中下側にプロットされる。このような散布図により、ユーザは、人物のどのような顔が撮像されたかをより詳細に把握することができる。
また、上記実施形態では、バブルチャート100A及びヒストグラム100Cを例示したが、本開示の技術はこれに限定されず、他のグラフであってもよいし、分類回数を示す数値が被写体毎に且つカテゴリ毎に区分された形態で表示されるようにしてもよい。
また、上記実施形態では、ヒストグラム100Cからユーザによって選択された分類回数に対応するカテゴリに関する撮像が支援される形態例を挙げて説明したが、本開示の技術はこれに限定されず、撮像が支援されるカテゴリがヒストグラム100C等から受付デバイス80(例えば、タッチパネル28)を介してユーザによって直接選択されるようにしてもよい。
また、上記実施形態では、本露光画像データが画像メモリ50に記憶される形態例を挙げて説明したが、上述した支援処理が行われることによって支援された本露光撮像が行われることで得られた本露光画像データを含むデータをトレーニングデータとして学習済みモデル92の機械学習に用いられるようにしてもよい。これにより、支援処理が行われることによって支援された本露光撮像が行われることで得られた本露光画像データに基づく学習済みモデル92を作ることができる。
また、上記実施形態では、撮像装置10内のコントローラ48によって撮像支援処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図40に示すように、LAN又はWAN等のネットワーク110を介して撮像装置10と通信可能に接続された外部装置112内のコンピュータ114によって撮像支援処理が実行されるようにしてもよい。図40に示す例では、コンピュータ114は、CPU116、ストレージ118、及びメモリ120を備えている。ストレージ118には、カテゴリデータベース96が構築されており、撮像支援処理プログラム84が記憶されている。
撮像装置10は、ネットワーク110を介して外部装置112に対して撮像支援処理の実行を要求する。これに応じて、外部装置112のCPU116は、ストレージ118から撮像支援処理プログラム84を読み出し、撮像支援処理プログラム84をメモリ120上で実行する。CPU116は、メモリ上で実行する撮像支援処理プログラム84に従って撮像支援処理を行う。そして、CPU116は、撮像支援処理が実行されることで得られた処理結果を、ネットワーク110を介して撮像装置10に提供する。
また、撮像装置10と外部装置112とが撮像支援処理を分散して実行するようにしてもよいし、撮像装置10と外部装置112を含む複数の装置とが撮像支援処理を分散して実行するようにしてもよい。分散処理を実施する場合、例えば、撮像装置10のCPU48Aを取得部48A1及び制御部48A5として動作させ、撮像装置10以外の装置(例えば、外部装置112)のCPUを被写体認識部48A2、特徴抽出部48A3、及び分類部48A4として動作させるようにしてもよい。つまり、比較的に処理負荷が大きな処理を、撮像装置10よりも演算能力が高い外部装置に担わせるようにすることで、撮像装置10にかかる処理負荷を軽減するようにしてもよい。
また、上記実施形態では、本露光画像として静止画像を例示したが、本開示の技術はこれに限定されず、本露光画像として動画像を用いてもよい。動画像は、記録用動画像であってもよいし、表示用動画像、すなわち、ライブビュー画像又はポストビュー画像であってもよい。
また、上記実施形態では、ライブビュー画像内に撮像推奨情報を表示したが、必ずしもライブビュー画像内に表示しなくてもよい。例えば、動画像を本露光撮像している際に、撮像推奨情報と同様に対象カテゴリ被写体を示す表示(矢印、顔枠、及びメッセ―ジのうちの少なくとも1つ)を行っても良い。このように動画像を本露光撮像している際に対象カテゴリ被写体を示す表示を行うことにより、ユーザは、撮像装置10を用いて、動画像に対象カテゴリ被写体が含まれたことを認識することができる。また、ユーザは、撮像装置10を用いて、動画像の本露光撮像後に、対象カテゴリ被写体が含まれるフレームを切り出すことにより、対象カテゴリ被写体が含まれる静止画像を取得することができる。この場合、撮像装置10は、動画像の本露光撮像により対象カテゴリ被写体を特定する毎に上記と同様のカテゴリへの分類を行い、ヒストグラム及び/又はバブルチャート等を更新して表示しても良い。このようにすれば、ユーザは、撮像装置10を用いて、動画像用の撮像を行って動画像を取得するだけでどのような被写体が含まれたかを把握することができる。また、この場合、ヒストグラム及び/又はバブルチャート等において、静止画像に基づく値と動画像に基づく値とを異なる態様で表示してもよい。例えば、ヒストグラムにおいて、積み上げ棒グラフによって静止画像に基づくヒストグラムと動画像に基づくヒストグラムを異なる色で表示する。このようにすれば、ユーザは、各分類回数が静止画像と動画像のどちらに基づくものかを把握することができる。また、1つの動画像の中に含まれる被写体領域により示される被写体の分類のみに基づいて上記ヒストグラム及び/又はバブルチャート等を作成しても良い。このようにすれば、ユーザは、その1つの動画像にどのようなカテゴリに分類される被写体領域が含まれているかを把握することができる。なお、このようなヒストグラム及び/又はバブルチャートは、静止画像要又は動画像用の撮像後や、ライブビュー画像が表示されていない再生モード時等に、ユーザの操作等に基づきディスプレイ26に表示されてもよい。
また、上記実施形態では、分類回数が増え続ける形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、被写体別カテゴリ群98に含まれる少なくとも1つのカテゴリに対応する分類回数は、定期的に、又は、指定されたタイミングで、リセットされるようにしてもよい。例えば、時間及び/又は位置に応じてリセットされてもよい。具体的には、1日1回リセットされてもよいし、1時間に1回リセットされてもよく、また、位置が100メートル変わるごとにリセットされてもよい。
また、上記実施形態では、対象カテゴリとして笑顔カテゴリを例示したが、本開示の技術はこれに限定されず、他のカテゴリを対象カテゴリとしてもよいし、複数のカテゴリを対象カテゴリとしてもよい。この場合、例えば、図18に示す顔カテゴリヒストグラムにおいて、複数のカテゴリ(例えば、笑顔カテゴリ及び泣き顔カテゴリ)に関する分類回数、又は、複数のカテゴリがユーザによって選択されるようにすればよい。
また、上記実施形態では、人物Aを対象カテゴリ被写体として例示したが、本開示の技術はこれに限定されず、対象カテゴリ被写体は、複数であってもよい。この場合、例えば、図17に示す顔カテゴリバブルチャートにおいて、複数の人物(例えば、人物A、人物B、及び人物C)がユーザによって選択されるようにすればよい。これにより、例えば、対象カテゴリが笑顔カテゴリであれば、ユーザによって選択された複数の人物のうちの少なくとも何れかが笑顔の場面で、上述した各種の支援処理が行われる。
また、上記実施形態では、被写体特徴がカテゴリに分類された単純な回数である分類回数を例示したが、本開示の技術はこれに限定されない。例えば、単位時間当たりの分類回数であってもよい。
また、上記実施形態では、検出枠102(図19及び図21参照)を例示したが、本開示の技術はこれに限定されず、検出枠102と共に、検出枠102によって取り囲まれている被写体に関する情報(例えば、名前及び/又はカテゴリ名等)も表示されるようにしてもよい。
また、上記実施形態では、撮像装置10として物理的なカメラ(以下、「物理カメラ」とも称する)を例示しているが、本開示の技術はこれに限定されず、物理カメラに代えて、異なる位置に設定された複数の物理カメラによって撮像されることで得られた撮像画像データに基づいて仮想的な視点から被写体を仮想的に撮像することで仮想視点画像データを生成する仮想カメラを適用してもよい。この場合、仮想視点画像データにより示される画像、すなわち、仮想視点画像が本開示の技術に係る「撮像画像」の一例である。
上記実施形態では、非位相差画素区分領域30Nと位相差画素区分領域30Pとを併用する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、非位相差画素区分領域30N及び位相差画素区分領域30Pに代えて、位相差画像データと非位相差画像データとが選択的に生成されて読み出されるエリアセンサとしてもよい。この場合、エリアセンサには、複数の感光画素が2次元状に配列されている。エリアセンサに含まれる感光画素には、例えば、遮光部材を有しない独立した一対のフォトダイオードが用いられる。非位相差画像データが生成されて読み出される場合、感光画素の全領域(一対のフォトダイオード)によって光電変換が行われ、位相差画像データが生成されて読み出される場合(例えば、パッシブ方式の測距を行う場合)、一対のフォトダイオードのうちの一方のフォトダイオードによって光電変換が行われる。ここで、一対のフォトダイオードのうちの一方のフォトダイオードは、上記実施形態で説明した第1位相差画素Lに対応するフォトダイオードであり、一対のフォトダイオードのうちの一方のフォトダイオードは、上記実施形態で説明した第2位相差画素Rに対応するフォトダイオードである。なお、エリアセンサに含まれる全ての感光画素によって位相差画像データと非位相差画像データとが選択的に生成されて読み出されるようにしてもよいが、これに限らず、エリアセンサに含まれる一部の感光画素によって位相差画像データと非位相差画像データとが選択的に生成されて読み出されるようにしてもよい。
上記実施形態では、位相差画素Pとして像面位相差画素が例示されているが、本開示の技術はこれに限定されない。例えば、光電変換素子30に含まれている位相差画素Pに代えて非位相差画素Nが配置されるようにし、複数の位相差画素Pが含まれる位相差AF板が光電変換素子30とは別体で撮像装置本体12に設けられるようにしてもよい。
上記実施形態では、位相差画像データに基づく測距結果を利用したAF方式、すなわち、位相差AF方式を例示したが、本開示の技術はこれに限定されない。例えば、位相差AF方式に代えて、コントラストAF方式を採用してもよい。また、ステレオカメラから得られた一対の画像の視差を用いた測距結果に基づくAF方式、又は、レーザ光等によるTOF方式の測距結果を利用したAF方式を採用してもよい。
上記実施形態では、メカニカルシャッタ72の一例としてフォーカルプレーンシャッタを挙げて説明したが、本開示の技術はこれに限定されず、フォーカルプレーンシャッタに代えて、レンズシャッタ等の他種類のメカニカルシャッタを適用しても本開示の技術は成立する。
上記実施形態では、ストレージ48Bに撮像支援処理プログラム84が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図41に示すように、撮像支援処理プログラム84が記憶媒体200に記憶されていてもよい。記憶媒体200は、非一時的記憶媒体である。記憶媒体200の一例としては、SSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。
記憶媒体200に記憶されている撮像支援処理プログラム84は、コントローラ48にインストールされる。CPU48Aは、撮像支援処理プログラム84に従って撮像支援処理を実行する。
また、通信網(図示省略)を介してコントローラ48に接続される他のコンピュータ又はサーバ装置等の記憶部に撮像支援処理プログラム84を記憶させておき、撮像装置10の要求に応じて撮像支援処理プログラム84がダウンロードされ、コントローラ48にインストールされるようにしてもよい。
なお、コントローラ48に接続される他のコンピュータ又はサーバ装置等の記憶部、又はストレージ48Bに撮像支援処理プログラム84の全てを記憶させておく必要はなく、撮像支援処理プログラム84の一部を記憶させておいてもよい。
図41に示す例では、撮像装置10にコントローラ48が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コントローラ48が撮像装置10の外部に設けられるようにしてもよい。
図41に示す例では、CPU48Aは、単数のCPUであるが、複数のCPUであってもよい。また、CPU48Aに代えてGPUを適用してもよい。
図41に示す例では、コントローラ48が例示されているが、本開示の技術はこれに限定されず、コントローラ48に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コントローラ48に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
上記実施形態で説明した撮像支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、撮像支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで撮像支援処理を実行する。
撮像支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、撮像支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、撮像支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、撮像支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、撮像支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の撮像支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
プロセッサと、
上記プロセッサに接続又は内蔵されたメモリと、を備え、
上記プロセッサは、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された上記特徴の頻度を示す頻度情報を取得し、
上記頻度情報に基づいて、上記撮像装置による撮像を支援する支援処理を行う
撮像支援装置。
プロセッサと、
上記プロセッサに接続又は内蔵されたメモリと、を備え、
上記プロセッサは、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された上記特徴の頻度を示す頻度情報を取得し、
上記頻度情報に基づいて、上記撮像装置による撮像を支援する支援処理を行う
撮像支援装置。
(付記2)
上記カテゴリは、少なくとも1つの対象カテゴリを含む複数のカテゴリに類別され、
上記対象カテゴリは、上記頻度情報に基づいて定められたカテゴリであり、
上記支援処理は、上記対象カテゴリに属する上記特徴を有する対象カテゴリ被写体に対する上記撮像を支援する処理を含む処理である付記1に記載の撮像支援装置。
上記カテゴリは、少なくとも1つの対象カテゴリを含む複数のカテゴリに類別され、
上記対象カテゴリは、上記頻度情報に基づいて定められたカテゴリであり、
上記支援処理は、上記対象カテゴリに属する上記特徴を有する対象カテゴリ被写体に対する上記撮像を支援する処理を含む処理である付記1に記載の撮像支援装置。
(付記3)
上記支援処理は、上記対象カテゴリ被写体の撮像を推奨する表示を行う表示処理を含む処理である付記2に記載の撮像支援装置。
上記支援処理は、上記対象カテゴリ被写体の撮像を推奨する表示を行う表示処理を含む処理である付記2に記載の撮像支援装置。
(付記4)
上記表示処理は、上記表示用画像を上記ディスプレイに表示させ、かつ、上記表示用画像内で上記対象カテゴリ被写体画像の少なくとも一部を取り囲む枠を表示する処理である付記3に記載の撮像支援装置。
上記表示処理は、上記表示用画像を上記ディスプレイに表示させ、かつ、上記表示用画像内で上記対象カテゴリ被写体画像の少なくとも一部を取り囲む枠を表示する処理である付記3に記載の撮像支援装置。
(付記5)
上記プロセッサは、
上記撮像装置による撮像結果に基づいて上記対象カテゴリ被写体を検出し、
上記対象カテゴリ被写体を検出したことを条件に、上記対象カテゴリ被写体に対応する画像を含む画像を取得する付記2から付記4の何れか1つに記載の撮像支援装置。
上記プロセッサは、
上記撮像装置による撮像結果に基づいて上記対象カテゴリ被写体を検出し、
上記対象カテゴリ被写体を検出したことを条件に、上記対象カテゴリ被写体に対応する画像を含む画像を取得する付記2から付記4の何れか1つに記載の撮像支援装置。
(付記6)
上記プロセッサは、上記対象カテゴリ被写体を検出し、かつ、上記対象カテゴリ被写体が既定撮像範囲に含まれていることを条件に、上記撮像装置に対して本露光を伴う上記撮像を行わせる付記5に記載の撮像支援装置。
上記プロセッサは、上記対象カテゴリ被写体を検出し、かつ、上記対象カテゴリ被写体が既定撮像範囲に含まれていることを条件に、上記撮像装置に対して本露光を伴う上記撮像を行わせる付記5に記載の撮像支援装置。
(付記7)
上記プロセッサは、外部から与えられた指示に従って定められた指定撮像範囲外に上記対象カテゴリ被写体が位置している場合に、上記撮像装置を制御することで、上記指定撮像範囲及び上記対象カテゴリ被写体を被写界深度に収める付記2から付記6の何れか1つに記載の撮像支援装置。
上記プロセッサは、外部から与えられた指示に従って定められた指定撮像範囲外に上記対象カテゴリ被写体が位置している場合に、上記撮像装置を制御することで、上記指定撮像範囲及び上記対象カテゴリ被写体を被写界深度に収める付記2から付記6の何れか1つに記載の撮像支援装置。
(付記8)
上記プロセッサは、上記撮像装置の構造に起因して上記指定撮像範囲及び上記対象カテゴリ被写体の両方が上記被写界深度に収まらない場合に、上記撮像装置に対して、フォーカスブラケット方式で上記指定撮像範囲と上記対象カテゴリ被写体とを撮像させる付記7に記載の撮像支援装置。
上記プロセッサは、上記撮像装置の構造に起因して上記指定撮像範囲及び上記対象カテゴリ被写体の両方が上記被写界深度に収まらない場合に、上記撮像装置に対して、フォーカスブラケット方式で上記指定撮像範囲と上記対象カテゴリ被写体とを撮像させる付記7に記載の撮像支援装置。
(付記9)
上記プロセッサは、上記指定撮像範囲内に上記対象カテゴリ被写体が位置している場合に、上記撮像装置に対して、上記対象カテゴリ被写体にピントを合わせた状態で上記対象カテゴリ被写体を撮像させる付記7又は付記8に記載の撮像支援装置。
上記プロセッサは、上記指定撮像範囲内に上記対象カテゴリ被写体が位置している場合に、上記撮像装置に対して、上記対象カテゴリ被写体にピントを合わせた状態で上記対象カテゴリ被写体を撮像させる付記7又は付記8に記載の撮像支援装置。
(付記10)
上記プロセッサは、基準被写体の明るさと上記対象カテゴリ被写体の明るさとの相違度が既定相違度以上の場合に、上記撮像装置に対して、露出ブラケット方式で上記基準被写体と上記対象カテゴリ被写体とを撮像させる付記2から付記9の何れか1つに記載の撮像支援装置。
上記プロセッサは、基準被写体の明るさと上記対象カテゴリ被写体の明るさとの相違度が既定相違度以上の場合に、上記撮像装置に対して、露出ブラケット方式で上記基準被写体と上記対象カテゴリ被写体とを撮像させる付記2から付記9の何れか1つに記載の撮像支援装置。
(付記11)
上記プロセッサは、上記相違度が上記既定相違度未満の場合に、上記撮像装置に対して、上記対象カテゴリ被写体を基準にして定められた露出で上記基準被写体及び上記対象カテゴリ被写体を撮像させる付記10に記載の撮像支援装置。
上記プロセッサは、上記相違度が上記既定相違度未満の場合に、上記撮像装置に対して、上記対象カテゴリ被写体を基準にして定められた露出で上記基準被写体及び上記対象カテゴリ被写体を撮像させる付記10に記載の撮像支援装置。
(付記12)
上記支援処理が行われることによって支援された上記撮像が行われることで得られた画像は、学習に用いられる付記1から付記11の何れか1つに記載の撮像支援装置。
上記支援処理が行われることによって支援された上記撮像が行われることで得られた画像は、学習に用いられる付記1から付記11の何れか1つに記載の撮像支援装置。
Claims (23)
- プロセッサと、
前記プロセッサに接続又は内蔵されたメモリと、を備え、
前記プロセッサは、撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された前記特徴の頻度を示す頻度情報を取得し、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行う
撮像支援装置。 - 前記カテゴリは、少なくとも1つの対象カテゴリを含む複数のカテゴリに類別され、
前記対象カテゴリは、前記頻度情報に基づいて定められたカテゴリであり、
前記支援処理は、前記対象カテゴリに属する前記特徴を有する対象カテゴリ被写体に対する前記撮像を支援する処理を含む処理である請求項1に記載の撮像支援装置。 - 前記支援処理は、前記対象カテゴリ被写体の撮像を推奨する表示を行う表示処理を含む処理である請求項2に記載の撮像支援装置。
- 前記表示処理は、前記撮像装置によって撮像されることで得られた表示用画像をディスプレイに表示させ、かつ、前記表示用画像内で前記対象カテゴリ被写体を示す対象カテゴリ被写体画像を他の画像領域と区別可能な態様で表示する処理である請求項3に記載の撮像支援装置。
- 前記プロセッサは、
前記撮像装置による撮像結果に基づいて前記対象カテゴリ被写体を検出し、
前記対象カテゴリ被写体を検出したことを条件に、前記対象カテゴリ被写体に対応する画像を含む画像を取得する請求項2から請求項4の何れか一項に記載の撮像支援装置。 - 前記プロセッサは、外部から与えられた指示に従って定められた指定撮像範囲を示すオブジェクトと、前記対象カテゴリ被写体を示すオブジェクトとを別の表示態様で表示する請求項2から請求項5の何れか一項に記載の撮像支援装置。
- 前記プロセッサは、外部から与えられた第1撮像条件と前記対象カテゴリ被写体に対して与えられている第2撮像条件との相違度が既定相違度以上の場合に、既定処理を行う請求項2から請求項6の何れか一項に記載の撮像支援装置。
- 前記対象カテゴリは、前記複数のカテゴリ間で前記頻度が相対的に低い低頻度カテゴリである請求項2から請求項7の何れか一項に記載の撮像支援装置。
- 前記対象カテゴリ被写体が前記撮像装置によって撮像される場合、前記対象カテゴリは、前記対象カテゴリ被写体の状態に応じて定められたカテゴリであって、前記対象カテゴリ被写体についての前記特徴が分類されるカテゴリである請求項2から請求項8の何れか一項に記載の撮像支援装置。
- 複数の物体が前記撮像装置によって撮像される場合、前記対象カテゴリは、前記複数の物体のそれぞれ自体を特定可能な物体対象カテゴリである請求項2から請求項9の何れか一項に記載の撮像支援装置。
- 前記カテゴリは、少なくとも1つの単位毎に作られている請求項1から請求項10の何れか一項に記載の撮像支援装置。
- 前記単位の1つは、期間である請求項11に記載の撮像支援装置。
- 前記単位の1つは、位置である請求項11又は請求項12に記載の撮像支援装置。
- 前記プロセッサは、前記特徴を分類器に対して分類させ、
前記分類器は、前記撮像装置による撮像対象シーンが特定シーンと一致した場合に前記特徴を分類する請求項1から請求項13の何れか一項に記載の撮像支援装置。 - 前記特定シーンは、過去に撮像されたシーンである請求項14に記載の撮像支援装置。
- 前記支援処理は、前記頻度情報を表示する処理を含む処理である請求項1から請求項15の何れか一項に記載の撮像支援装置。
- 前記支援処理は、前記頻度情報が表示された状態で、受付デバイスによって前記頻度情報が指定された場合に、指定された前記頻度情報に対応する前記カテゴリに関する前記撮像を支援する処理を含む処理である請求項16に記載の撮像支援装置。
- プロセッサと、
前記プロセッサに接続又は内蔵されたメモリと、を備え、
前記プロセッサは、撮像装置によって撮像されることで得られた撮像画像に含まれる被写体の特徴に基づいてカテゴリに分類された前記撮像画像の頻度を示す頻度情報を取得し、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行う
撮像支援装置。 - 請求項1から請求項18の何れか一項に記載の撮像支援装置と、
イメージセンサと、を備え、
前記プロセッサは、前記支援処理を行うことで前記イメージセンサを用いた前記撮像を支援する
撮像装置。 - 撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された前記特徴の頻度を示す頻度情報を取得すること、及び、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行うことを含む
撮像支援方法。 - 撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された前記撮像画像の頻度を示す頻度情報を取得すること、及び、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行うことを含む
撮像支援方法。 - コンピュータに、
撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された前記特徴の頻度を示す頻度情報を取得すること、及び、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行うことを含む処理を実行させるためのプログラム。
撮像支援方法。 - コンピュータに、
撮像装置によって撮像されることで得られた撮像画像から特定される被写体の特徴に基づいてカテゴリに分類された前記撮像画像の頻度を示す頻度情報を取得すること、及び、
前記頻度情報に基づいて、前記撮像装置による撮像を支援する支援処理を行うことを含む処理を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022533787A JPWO2022004305A1 (ja) | 2020-06-30 | 2021-06-08 | |
CN202180047699.5A CN115885516A (zh) | 2020-06-30 | 2021-06-08 | 摄像支持装置、摄像装置、摄像支持方法及程序 |
US18/145,016 US20230131047A1 (en) | 2020-06-30 | 2022-12-22 | Imaging support device, imaging apparatus, imaging support method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-113524 | 2020-06-30 | ||
JP2020113524 | 2020-06-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/145,016 Continuation US20230131047A1 (en) | 2020-06-30 | 2022-12-22 | Imaging support device, imaging apparatus, imaging support method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022004305A1 true WO2022004305A1 (ja) | 2022-01-06 |
Family
ID=79315242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/021756 WO2022004305A1 (ja) | 2020-06-30 | 2021-06-08 | 撮像支援装置、撮像装置、撮像支援方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230131047A1 (ja) |
JP (1) | JPWO2022004305A1 (ja) |
CN (1) | CN115885516A (ja) |
WO (1) | WO2022004305A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005086238A (ja) * | 2003-09-04 | 2005-03-31 | Casio Comput Co Ltd | 画像撮影装置およびプログラム |
JP2009044602A (ja) * | 2007-08-10 | 2009-02-26 | Olympus Imaging Corp | 撮像装置、撮像システム及び撮像方法 |
JP2011211695A (ja) * | 2010-03-10 | 2011-10-20 | Fujifilm Corp | 撮影アシスト方法、そのプログラム、その記録媒体、撮影装置および撮影システム |
JP2014216658A (ja) * | 2013-04-22 | 2014-11-17 | 株式会社ニコン | 撮影装置および撮影補助プログラム |
-
2021
- 2021-06-08 JP JP2022533787A patent/JPWO2022004305A1/ja active Pending
- 2021-06-08 WO PCT/JP2021/021756 patent/WO2022004305A1/ja active Application Filing
- 2021-06-08 CN CN202180047699.5A patent/CN115885516A/zh active Pending
-
2022
- 2022-12-22 US US18/145,016 patent/US20230131047A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005086238A (ja) * | 2003-09-04 | 2005-03-31 | Casio Comput Co Ltd | 画像撮影装置およびプログラム |
JP2009044602A (ja) * | 2007-08-10 | 2009-02-26 | Olympus Imaging Corp | 撮像装置、撮像システム及び撮像方法 |
JP2011211695A (ja) * | 2010-03-10 | 2011-10-20 | Fujifilm Corp | 撮影アシスト方法、そのプログラム、その記録媒体、撮影装置および撮影システム |
JP2014216658A (ja) * | 2013-04-22 | 2014-11-17 | 株式会社ニコン | 撮影装置および撮影補助プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022004305A1 (ja) | 2022-01-06 |
US20230131047A1 (en) | 2023-04-27 |
CN115885516A (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103081455B (zh) | 从手持设备所捕获的多个图像进行肖像图像合成 | |
US9280223B2 (en) | Imaging apparatus and continuous shooting imaging methods using a continuous touch user input | |
CN104349051B (zh) | 被摄体检测装置以及被摄体检测装置的控制方法 | |
US9025044B2 (en) | Imaging device, display method, and computer-readable recording medium | |
EP1466210B1 (en) | Digital camera with viewfinder designed for improved depth of field photographing | |
JP7036423B2 (ja) | 制御装置、制御方法および制御プログラム | |
US20140240578A1 (en) | Light-field based autofocus | |
CN102645818A (zh) | 成像装置、聚焦控制方法和程序 | |
TWI407234B (zh) | 照相裝置 | |
JP2013088579A (ja) | 撮像装置 | |
CN101359150B (zh) | 摄像设备及其控制方法 | |
CN103220463A (zh) | 摄影装置和摄影装置的控制方法 | |
CN102811312A (zh) | 摄像设备及其控制方法 | |
CN102761691B (zh) | 摄像设备及其控制方法 | |
JP2018152787A (ja) | 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム | |
CN101726969B (zh) | 图像拾取装置和用于控制该图像拾取装置的方法 | |
JP2018040929A (ja) | 撮像制御装置および撮像制御方法 | |
US20230127668A1 (en) | Image processing device, imaging apparatus, image processing method, and program | |
JP6997295B2 (ja) | 撮像装置、撮像方法、及びプログラム | |
WO2022004305A1 (ja) | 撮像支援装置、撮像装置、撮像支援方法、及びプログラム | |
JP6346484B2 (ja) | 画像処理装置およびその制御方法 | |
WO2022145294A1 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP2015198340A (ja) | 画像処理装置およびその制御方法、並びにプログラム | |
JP6544936B2 (ja) | 撮像装置の制御装置、撮像装置及びその制御方法 | |
US20230131704A1 (en) | Information processing apparatus, learning device, imaging apparatus, control method of information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21834690 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022533787 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21834690 Country of ref document: EP Kind code of ref document: A1 |