WO2024048360A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2024048360A1
WO2024048360A1 PCT/JP2023/030085 JP2023030085W WO2024048360A1 WO 2024048360 A1 WO2024048360 A1 WO 2024048360A1 JP 2023030085 W JP2023030085 W JP 2023030085W WO 2024048360 A1 WO2024048360 A1 WO 2024048360A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
authentication
information
information processing
processing circuit
Prior art date
Application number
PCT/JP2023/030085
Other languages
English (en)
French (fr)
Inventor
安東 泰弘
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024048360A1 publication Critical patent/WO2024048360A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present disclosure relates to a solid-state imaging device and an electronic device.
  • the method of searching for wavelengths that pass through the shield requires a device that includes elements such as a camera and a filter to search for wavelengths that pass through the shielding object, making the system large and complex. Furthermore, since the wavelength is not irradiated, it is difficult to obtain a sufficient amount of light, and if an irradiation device is provided, the system will become even larger.
  • the present disclosure provides a solid-state imaging device and an electronic device that acquire information that increases authentication accuracy even in a state where there is a shield.
  • a solid-state imaging device includes an irradiation section, an imaging section, and an image processing circuit.
  • the irradiation unit irradiates light including a wavelength that passes through the shielding object.
  • the imaging section is capable of receiving light in the visible light band and light including a wavelength irradiated by the irradiation section, images an area including at least a part of the area irradiated by the irradiation section, and captures the light in the visible light band.
  • Image data including a first image and a second image of a wavelength band that passes through the shielding object is acquired.
  • the information processing circuit performs information processing on the image data.
  • the information processing circuit detects a shielding object area that is a region of the shielding object from the first image, extracts an image of the shielding object area from the second image, and extracts an image of the shielding object area from the first image or the shielding object area.
  • Information used for authentication is acquired using at least one of the second images in the object area.
  • the information processing circuit may remove a shadow of the shielding object from the second image of the shielding object area.
  • the information processing circuit estimates the color information in the second image based on the color information in the first image, and estimates the color information in the second image and the image obtained by removing the obstructing area from the first image.
  • the information used for the authentication may be obtained by combining the image of the shielding object area to which color information has been added.
  • the information processing circuit may estimate color information in the shielding object area based on data of the first image and data of the second image in a region other than the shielding area in the image data.
  • the information processing circuit may perform the synthesis for each of the plurality of regions.
  • the information processing circuit extracts a first feature in visible light from an image obtained by removing the shielding object region from the first image, and extracts a second feature in a wavelength band that passes through the shielding object from the second image.
  • the first feature and the second feature may be acquired as information used for authentication.
  • the information processing circuit may use the first image as information for authentication when the shielding object is not detected in the first image.
  • the imaging unit may acquire an image of an area including at least a person's face, and the information processing circuit may acquire information used for authentication of the person.
  • the shield may be a mask.
  • the shielding object may be a lens of glasses or sunglasses.
  • an electronic device includes an irradiation section, an imaging section, and an information processing circuit.
  • the irradiation unit irradiates light including a wavelength that passes through the shielding object.
  • the imaging section is capable of receiving light in the visible light band and light including a wavelength irradiated by the irradiation section, images an area including at least a part of the area irradiated by the irradiation section, and captures the light in the visible light band.
  • Image data including a first image and a second image of a wavelength band that passes through the shielding object is acquired.
  • the information processing circuit performs information processing on the image data.
  • the information processing circuit detects a shielding object area that is a region of the shielding object from the first image, extracts an image of the shielding object area from the second image, and extracts an image of the shielding object area from the first image or the shielding object area.
  • Information used for authentication is acquired using at least one of the second images in the object area, an authentication process is executed based on the acquired information, and a result determined by the authentication is output.
  • the electronic device may further include a storage unit that stores authentication information.
  • the information processing circuit may perform authentication processing by comparing information used for authentication acquired based on the image data and the authentication information stored in the storage unit.
  • the information processing circuit may acquire authentication information from the outside, compare information used for authentication acquired based on the image data with the authentication information acquired from the outside, and perform authentication processing. good.
  • the electronic device may be a surveillance camera.
  • the electronic device may perform authentication processing at the entrance/exit gate.
  • FIG. 1 is a block diagram schematically showing a solid-state imaging device according to an embodiment.
  • FIG. 3 is a diagram showing an example of an arrangement of light-receiving pixels according to an embodiment.
  • 1 is a flowchart illustrating an example of processing of a solid-state imaging device according to an embodiment.
  • 1 is a flowchart illustrating an example of processing of a solid-state imaging device according to an embodiment.
  • 1 is a flowchart illustrating an example of processing of a solid-state imaging device according to an embodiment.
  • 1 is a flowchart illustrating an example of processing of a solid-state imaging device according to an embodiment.
  • FIG. 1 is a block diagram schematically showing an example of a monitoring system according to an embodiment.
  • FIG. 1 is a block diagram schematically showing an example of a gate system according to an embodiment.
  • the terms “wavelength of light” and “wavelength” can also be read as wavelength bands of light.
  • authentication information may mean information for authenticating a monitoring target in a surveillance camera or the like, or authentication information for a target that may become a monitoring target in the future.
  • FIG. 1 is a block diagram schematically showing a solid-state imaging device according to an embodiment.
  • the solid-state imaging device 1 includes an optical system 100, an irradiation unit 102, an image sensor 104, an information processing circuit 106, a storage unit 108, an input/output interface (hereinafter referred to as input/output I/F 110), and , is provided.
  • the solid-state imaging device 1 includes appropriate components (not shown) necessary for imaging and output, such as a control unit that controls each component.
  • the solid-state imaging device 1 is a device that extracts authentication information from a captured image. Furthermore, the solid-state imaging device 1 may be a device that outputs an authentication result using the authentication information.
  • the optical system 100 is an optical system that takes in external light.
  • the light collected by the optical system 100 enters the light receiving element of the image sensor 104.
  • the optical system 100 may include one or more lenses, filters, diffraction gratings, etc.
  • the irradiation unit 102 includes a light source that irradiates the object to be imaged.
  • the irradiation unit 102 irradiates, for example, light with a wavelength that passes through the shielding object.
  • the wavelength of light that passes through the shield may be, by way of non-limiting example, infrared light.
  • the irradiation unit 102 may emit light in a plurality of infrared bands.
  • the irradiation unit 102 may irradiate white light as well as light in a band that passes through the shielding object. Further, the irradiation unit 102 may emit light such as ultraviolet light, for example. In this case, the irradiation unit 102 may emit weak light that does not harm humans or emit light for a short period of time for imaging.
  • the image sensor 104 is a circuit that photoelectrically converts the light collected through the optical system 100 and appropriately converts the analog signal obtained by the photoelectric conversion into digital image data and outputs it.
  • the image sensor 104 includes a light-receiving element that receives light in the visible light band and a light-receiving element that receives light of a wavelength that passes through the shielding object that is irradiated by the irradiation unit 102 .
  • the image sensor 104 appropriately acquires information such as light reflected by the object, light transmitted by the object, or light emitted by the object.
  • FIG. 2 is a diagram showing an example of an arrangement of light receiving pixels in the image sensor 104 according to an embodiment.
  • the image sensor 104 is equipped with a pixel array in which light-receiving pixels are arranged two-dimensionally as an imaging section, and within the pixel array, light-receiving pixels 112 are arranged as shown in FIG. 2.
  • the alphabet written in the light-receiving pixels 112 indicates the color that each light-receiving pixel can receive.
  • R indicates a red wavelength band
  • G indicates a green wavelength band
  • B indicates a blue wavelength band
  • IR indicates a pixel that receives light in the infrared band.
  • some of the pixels in the Bayer array may be replaced with pixels that receive light in the infrared band, as shown in the figure.
  • the image sensor 104 can acquire an image in the visible light band and an image in the infrared light band without coordinate deviation. As a result, by referring to information at the same coordinates, it is possible to obtain visible light information and infrared light information at the same position of the imaged object.
  • the wavelength bands that each pixel 112 can receive are determined by, for example, a configuration in which a color filter is provided on the light incident surface side of the photoelectric conversion element provided in the pixel 112, or an organic photoelectric conversion film is provided according to each band. It may be.
  • the arrangement in FIG. 2 is shown as a non-limiting example, and the light-receiving bands of the pixels 112 may be arranged in other ways.
  • the band for receiving light is not limited to RGB-IR, and pixels 112 that receive light in another band such as a complementary color may be arranged. With these, images in the visible light band can be appropriately made highly accurate depending on the purpose and the like.
  • the pixels 112 that receive IR light may include not only one band but also a mixture of pixels 112 that receive infrared light in multiple types of bands. By generating images from infrared light in a plurality of bands, it is possible to obtain a plurality of images having different characteristics.
  • a pixel 112 that receives light in another wavelength band such as UV.
  • the irradiation unit 102 may irradiate the target, and the pixel 112 may receive the reflected light from the target.
  • one pixel 112 may include a photoelectric conversion element that receives light from a plurality of the same or different wavelength bands; in this case, the pixel 112 may have different wavelength bands for each divided area. can receive light and output it as appropriate color information.
  • the image sensor 104 includes pixels 112 and is configured to be able to receive light in the visible light band and light including the wavelength emitted by the irradiation unit 102 .
  • the imaging device 104 images an area including at least a part of the area where the irradiation unit 102 irradiates light in a wavelength band that passes through the shielding object.
  • the irradiation unit 102 sets the irradiation range to be a range in which an object used for authentication may exist, and the image sensor 104 images the range in which the object may exist.
  • the image sensor 104 captures image information in the visible light band of the target that has information used for authentication and image information in a region that includes wavelengths that pass through shielding objects (e.g., infrared light band). It is possible to obtain and output information regarding images corresponding to these imaging information.
  • the image formed from the imaging information in the visible light band will be referred to as the first image
  • the image formed from the imaging information in the wavelength band that passes through the shielding object will be referred to as the second image.
  • the image sensor 104 converts the captured information into image data and acquires image data for each wavelength band.
  • the image sensor 104 for example, converts analog data acquired by photoelectric conversion in a light receiving element into digital data, acquires it for each pixel 112 , and outputs it to the information processing circuit 106 .
  • the information processing circuit 106 may appropriately process the digital data (image data) output from the image sensor 104 and generate image data for display.
  • the information processing circuit 106 may generate image data by, for example, performing linear matrix processing, defect correction processing, etc. on the acquired data.
  • the information processing circuit 106 detects the area of the shielding object (hereinafter referred to as the shielding object area) from the properly formed first image. Then, the information processing circuit 106 extracts a region of the second image corresponding to the detected shielding object region. The information processing circuit 106 uses at least one of the first image and the second image in the detected shielding area to obtain data used for authentication.
  • the shielding object area the area of the shielding object
  • the information processing circuit 106 uses at least one of the first image and the second image in the detected shielding area to obtain data used for authentication.
  • the information processing circuit 106 may further perform authentication processing using the acquired data used for authentication, and output the authentication result to the outside via the input/output I/F 110.
  • This authentication can be performed using the authentication information stored in the storage unit 108 (for example, information that identifies the target that has been acquired in advance) and the data used for authentication acquired as described above. .
  • the information processing circuit 106 can also acquire authentication information from the outside via the input/output I/F 110 .
  • the storage unit 108 stores data necessary for the solid-state imaging device 1 , intermediate data for processing, or processed data.
  • the storage unit 108 may be, for example, various kinds of RAM (Random Access Memory), ROM (Read Only Memory), SSD (Solid State Drive), etc.
  • the storage unit 108 stores a program for executing the information processing using the software, Executable files and the like may also be stored.
  • the information processing circuit 106 may realize information processing using software by referring to a program stored in the storage unit 108 .
  • the input/output I/F 110 is an interface for transmitting and receiving data between the inside and outside of the solid-state imaging device 1 .
  • This interface may be of any transmissible format.
  • the solid-state imaging device 1 can transmit the results processed by the information processing circuit 106 to the outside and receive the information necessary for authentication into the inside via this input/output I/F 110.
  • this input/output I/F 110 may include an input interface such as a button, a touch panel, and a microphone, and an output interface such as a display and a stereo.
  • FIG. 3 is a flowchart showing the processing of the solid-state imaging device 1 according to one embodiment.
  • the solid-state imaging device 1 images the face of a person wearing a mask and outputs data for personal authentication.
  • the wavelength band for photoelectric conversion in the element 104 can be changed to another wavelength band as appropriate depending on the object of use.
  • the solid-state imaging device 1 irradiates the target with the irradiation unit 102 (S100).
  • the irradiation unit 102 irradiates light in a wavelength band that passes through the shielding object.
  • the irradiation unit 102 irradiates, for example, a region in which at least the face of a person may be present with a wavelength in an infrared band.
  • the image sensor 104 images the range irradiated by the irradiation unit 102 and obtains a first image in the visible light band and a second image in the infrared light band (S102).
  • the image sensor 104 acquires information corresponding to wavelength bands of the three primary colors of RGB in the visible light band, and acquires information corresponding to one or more wavelength bands in the infrared light band.
  • the information processing circuit 106 detects the area of the shielding object in the target from the acquired data corresponding to the wavelength bands of the three primary colors of RGB (S104).
  • the information processing circuit 106 detects, for example, an area of a mask that is a shielding object from an area of a person's face.
  • the information processing circuit 106 detects a shielding object area, which is a mask area, based on, for example, information on the color of the person's face and information on the color of the mask.
  • the information processing circuit 106 uses a trained model trained in advance to extract a mask region from an image containing a masked person's face by machine learning to extract the mask region, which is the mask region. may be detected. In learning, a person wearing a mask and data specifying the area of the mask on the person can be used as the teacher data.
  • the information processing circuit 106 extracts an image of the shielding object area from the second image based on the detected shielding object area (S106). For example, by using the image sensor 104 arranged as shown in FIG. 2, the first image and the second image can represent the same position in the target space using the same coordinates. Therefore, the information processing circuit 106 acquires the coordinates of the shielding area obtained in the first image, and the luminance value of the second image at the coordinates, thereby acquiring information on the shielding area in the second image. can do.
  • the information processing circuit 106 deletes shadows existing at the edges of the mask from the image extracted in S106 (S108).
  • the areas shaded by the mask contain almost no information that would be advantageous for authentication. For this reason, the information processing circuit 106 checks whether there is a shadow in the occluding object region extracted in the second image, and if there is a shadow, the information processing circuit 106 checks the influence of the shadow by performing interpolation processing, for example. Avoid.
  • the information processing circuit 106 can use a learned model.
  • This trained model is trained using, for example, data of an area shielded by a mask in the infrared light band as training data, and data specifying a shadow area or data with the shadow area deleted or interpolated. can do.
  • the information processing circuit 106 estimates the color information of the shielding area extracted from the second image (S110). For example, the information processing circuit 106 estimates the color of the shielding area extracted from the second image based on the color information of the area other than the shielding area in the first image, and calculates the visible light of the extracted shielding area. An image containing band color information may be acquired. This color estimation may be performed by rule-based processing or may be performed using a learned model.
  • the information processing circuit 106 creates a conversion table by comparing color information using the data of the first image outside the shielding area and the data of the second image outside the shielding area, and performs the conversion according to this conversion table.
  • the color may be estimated by converting the data of the second image of the obstructing object area into information in the visible light band. Any statistical method can be used to create the conversion table.
  • the information processing circuit 106 when the information processing circuit 106 inputs the data of the first image other than the occluded object area and the data of the second image, which have been learned in advance by machine learning, the information processing circuit 106 inputs the data of the second image including at least the occluded area.
  • the color of the visible light band of the obstructing object area in the second image may be estimated using the trained model that outputs the data.
  • This trained model uses visible light band images and infrared light band images in the same situation as training data, and is trained to convert infrared light band images to visible light band images. It's okay.
  • the information processing circuit 106 can improve color estimation accuracy by generating the second image from data in a plurality of infrared light bands.
  • the information processing circuit 106 combines the image obtained by removing the obstructing object area from the first image and the image of the obstructing object area whose color is estimated from the second image acquired in S110, thereby detecting the image of a person in the visible light band. Acquire a face image (S112).
  • the information processing circuit 106 performs post-processing on the composite image (S114).
  • the post-processing is a process related to a composite image, and may be, for example, a process of outputting a composite image or performing an authentication process using the composite image and outputting an authentication result.
  • the solid-state imaging device 1 may output the composite image acquired by the information processing circuit 106 in S112 as data used for authentication.
  • the information processing circuit 106 may perform authentication processing on a composite image using authentication information stored in the storage unit 108 or authentication information acquired from an external source.
  • the authentication process can be performed using any method.
  • the authentication process may be performed, for example, by extracting feature points from the image using a rule-based process, or may be performed based on the feature points, or may be performed using a trained model that has been trained in advance.
  • An electronic device that has acquired data related to authentication from the solid-state imaging device 1 can perform authentication processing using the acquired data and perform processing based on the authentication result.
  • An electronic device that has obtained an authentication result from the solid-state imaging device 1 can perform processing based on the authentication result.
  • an image of the shielding object area is obtained by irradiating light in a wavelength band that passes through the shielding object to an object with a shielding object acquired in the visible light band, and By estimating , color information can be used for authentication, and authentication accuracy can be improved.
  • the solid-state imaging device 1 according to the present embodiment can, for example, realize highly accurate personal authentication without the need for a person wearing a mask to remove the mask.
  • the information processing circuit 106 may perform a process of extracting a target object such as a person's face as pre-processing of S104. By clarifying the target in this way, the accuracy of authentication can be further improved. This extraction process may also be executed using a rule base or a learned model.
  • the color estimation process may be omitted, and authentication may be performed based on information other than color, such as shape.
  • the authentication information is generated by estimating the image of the entire object excluding obstructing objects in the visible light band by combining the images output in each band.
  • the present invention is not limited to this. It's not something you can do.
  • an example will be described in which features are extracted from images of different bands.
  • FIG. 4 is a flowchart showing the processing of the solid-state imaging device 1 according to the second embodiment.
  • the processes from S100 to S106 in the irradiation unit 102, the image sensor 104, and the information processing circuit 106 are the same as in the embodiment described above. That is, the image sensor 104 acquires an image of the target in the band including the wavelength of the light irradiated by the irradiation unit 102 (S100) and the visible light band (S102), and the information processing circuit 106 detects the obstructing object from the acquired first image. Detect the area (S104).
  • the information processing circuit 106 extracts feature amounts from the first image excluding the obstructing area and the second image (S120). Detection of this feature amount may be performed, for example, based on rule-based processing, or, as another example, may be performed using a learned model that has been learned in advance.
  • the trained model may be, for example, a model trained using any method as an encoder that acquires feature quantities from an image by encoding, or a model trained using target feature quantities as training data. There may be.
  • the encoder may be, by way of non-limiting example, a model obtained using an autoencoder.
  • the information processing circuit 106 extracts the first feature in the visible light band from the first image excluding the shielding area, and extracts the second feature in the infrared light band from the second image.
  • facial features other than the mask region including color information in the visible light band and facial features other than color information in the infrared light band can be acquired at the same timing.
  • the first feature may include, for example, a shape feature that includes color information, such as eyes, nose, outline, and ears.
  • the second feature may include information that is difficult to obtain from color information in the visible light band, such as information on blood vessels (veins, etc.) and information on unevenness.
  • the information processing circuit 106 executes post-processing regarding the features (S122).
  • the solid-state imaging device 1 may perform an authentication process based on the first feature and the second feature as post-processing and output this authentication result, or may output the authentication result based on the first feature and the second feature. 2
  • the data related to the characteristics itself may be output.
  • authentication is based on a feature in the visible light band and another feature in a wavelength band that passes through a shield (for example, an infrared light band). It becomes possible to obtain data to be used for authentication processing. As a result, it is also possible to achieve more accurate authentication than in the first embodiment described above in which authentication is performed using color information.
  • a shield for example, an infrared light band
  • FIG. 5 is a flowchart showing the processing of the solid-state imaging device 1 according to the third embodiment. Processes with the same reference numerals are basically the same processes as explained in the above embodiment, so the explanation will be omitted.
  • the information processing circuit 106 After the information processing circuit 106 detects the shielding object area (S104), it may determine whether there is a shielding object (S140).
  • the solid-state imaging device 1 executes the same process as in the first embodiment.
  • the information processing circuit 106 performs post-processing on the acquired first image (S114). When applied to the second embodiment, the information processing circuit 106 performs post-processing on the first image and the second image.
  • the solid-state imaging device 1 may, for example, determine whether the person is wearing a mask, and change the processing based on the result of this determination. According to this embodiment, when the user is not wearing a mask, it is possible to appropriately post-process the first image in the visible light band.
  • FIG. 6 is a flowchart showing the processing of the solid-state imaging device 1 according to the fourth embodiment. Processes with the same reference numerals are basically the same processes as explained in the above embodiment, so the explanation will be omitted.
  • the information processing circuit 106 After the process in S112, the information processing circuit 106 performs synthesis (feature extraction in the second embodiment) for all the shielding objects if there is a single shielding object or if there are multiple shielding objects. is completed (S160).
  • the information processing circuit 106 determines whether the shielding area is one continuous area or multiple consecutive areas each located at a distance from each other at the timing when the shielding area is detected. It is possible to determine whether there is.
  • the information processing circuit 106 performs morphological processing such as dilation processing and closing processing on the shielding area, or other processing. Processing may be performed to determine whether a region is singular or plural.
  • Whether or not it is continuous may be determined by, for example, 4 concatenation or 8 concatenation.
  • these processes may be performed using a learned model.
  • the information processing circuit 106 processes the image Post-processing is performed on (feature data in the second embodiment) (S114).
  • the information processing circuit 106 repeats the processing from S106.
  • processing can be appropriately performed even when a person is wearing a mask and glasses or sunglasses with multiple shielding objects, such as a mask for the face of a person. Can be done.
  • the regions of the plurality of shielding objects may be labeled separately as in this embodiment, or only the coordinate information of the shielding objects is acquired instead of separate labeling. There may be. If only the coordinate information is acquired, the information processing circuit 106 may perform processing such as compositing with the second image or excluding areas from feature extraction in the first image based on this coordinate information. can.
  • the solid-state imaging device 1 described in each embodiment can be used, by way of non-limiting example, in electronic devices such as security cameras and surveillance cameras, and can detect the facial features of a subject (human) who has entered the imaging range without using a mask. It can be obtained while the item is being worn.
  • FIG. 7 is a diagram illustrating an example of a monitoring system according to an embodiment.
  • the monitoring system 2 includes a solid-state imaging device 1 , a database 20 , an output unit 24 , and optionally an authentication device 22 .
  • the authentication device 22 may be omitted.
  • the database 20 is a database that registers images or feature amounts to be monitored.
  • the solid-state imaging device 1 may use authentication information registered in the database 20 to perform authentication processing on data acquired from captured data.
  • the authentication device 22 may perform authentication processing using the authentication data output from the solid-state imaging device 1 and the authentication information registered in the database 20.
  • the solid-state imaging device 1 or the authentication device 22 may register data related to the authentication acquired by the solid-state imaging device 1 in the database 20 as a new monitoring target. Additionally, if authentication is implemented using a trained model, relearning can be performed when a new authentication target is added by the information processing circuit 106 of the solid-state imaging device 1 or an external information processing device. .
  • the solid-state imaging device 1 or the authentication device 22 can output the authentication result via the output unit 24. For example, if a person to be monitored is detected, they can output an alert to the administrator via the output unit 24 .
  • the solid-state imaging device 1 described in each embodiment can be used, as a non-limiting example, in an electronic device that acquires data used for personal authentication at an entrance gate or a passage gate of a facility, etc.
  • FIG. 8 is a diagram illustrating an example of a gate system according to an embodiment.
  • the gate system 3 includes a solid-state imaging device 1, a database 20, a control device 26, a gate 28, and optionally an authentication device 22.
  • the gate system 3 is a system that performs authentication processing for a person attempting to pass through the gate 28 and opens the gate if the person is authenticated.
  • the output of data from the solid-state imaging device 1 , database 20 , and authentication device 22 is the same as in the case of FIG. 7.
  • the solid-state imaging device 1 or the authentication device 22 outputs the authentication result to the control device 26.
  • they may send a signal to the controller 26 indicating that the authentication is OK, i.e., the person is authorized to pass through the gate, rather than the authentication result itself. You can also do that.
  • the control device 26 may execute a process of opening the gate 28 when it is determined that the person has permission to pass through the gate.
  • it can be incorporated in various authentication systems. Further, as another example, it can be used for non-destructive inspection of flowing products on a factory line or the like when there is a shield.
  • an irradiation unit that irradiates light including a wavelength that passes through the shielding object; capable of receiving light in a visible light band and light including a wavelength irradiated by the irradiation unit, imaging an area including at least a part of the area irradiated by the irradiation unit, and capturing a first image in the visible light band; an imaging unit that acquires image data including a second image in a wavelength band that passes through the shielding object; an information processing circuit that performs information processing on the image data; Equipped with The information processing circuit includes: detecting an occluded area that is an area of the occluded object from the first image; extracting an image of the shielding area in the second image; acquiring information used for authentication using at least one of the first image or the second image in the shielding area; Solid-state imaging device.
  • the information processing circuit removes a shadow of the shielding object from the second image of the shielding object area.
  • the information processing circuit includes: estimating color information in the second image based on color information in the first image; obtaining information used for the authentication by composing an image obtained by deleting the occluding object area from the first image and an image of the occluding object area obtained by adding estimated color information to the second image;
  • the solid-state imaging device described in (1) or (2) The solid-state imaging device described in (1) or (2).
  • the information processing circuit estimates color information in the shielding object region based on data of the first image and data of a second image in a region other than the shielding object region in the image data.
  • the information processing circuit executes the synthesis for each of the plurality of regions.
  • the information processing circuit includes: extracting a first feature in visible light from an image obtained by removing the blocking area from the first image; extracting a second feature in a wavelength band that passes through the shielding object from the second image; acquiring the first feature and the second feature as information used for authentication;
  • the solid-state imaging device according to any one of (1) to (5).
  • the information processing circuit uses the first image as information to be used for authentication when the shielding object is not detected in the first image.
  • the solid-state imaging device according to any one of (1) to (6).
  • the imaging unit acquires an image of an area including at least a person's face, the information processing circuit acquires information used for authentication of the person;
  • the solid-state imaging device according to any one of (1) to (7).
  • the shield is a mask, The solid-state imaging device according to (8).
  • the shielding object is a lens of glasses or sunglasses,
  • an irradiation unit that irradiates light including a wavelength that passes through the shielding object; capable of receiving light in a visible light band and light including a wavelength irradiated by the irradiation unit, imaging an area including at least a part of the area irradiated by the irradiation unit, and capturing a first image in the visible light band; an imaging unit that acquires image data including a second image in a wavelength band that passes through the shielding object; an information processing circuit that performs information processing on the image data; Equipped with The information processing circuit includes: detecting an occluded area that is an area of the occluded object from the first image; extracting an image of the shielding area in the second image; acquiring information used for authentication using at least one of the first image or the second image in the shielding area; Based on the obtained information, perform authentication processing, Outputs the results determined by authentication. Electronics.
  • the information processing circuit compares information used for authentication acquired based on the image data and the authentication information stored in the storage unit to perform an authentication process.
  • the information processing circuit includes: Obtain authentication information from outside, performing authentication processing by comparing information used for authentication acquired based on the image data and the authentication information acquired from an external source; Electronic equipment described in (11) or (12).
  • Solid-state imaging device 100: Optical system, 102: Irradiation section, 104: Image sensor, 106: Information processing circuit, 108: Memory section, 110: Input/output I/F, 112: Light receiving pixel 2: Surveillance system, 3: Gate system, 20: Database, 22: Authentication device, 26: Control device, 28: Gate

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

[課題]遮蔽物がある状態においても認証精度を高くする。 [解決手段]固体撮像装置は、照射部と、撮像部と、画像処理回路と、を備える。照射部は、遮蔽物を透過する波長を含む光を照射する。撮像部は、可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する。情報処理回路は、前記画像データの情報処理をする。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 今日、様々な理由からマスクを着用する人が増えている。撮影技術及び情報処理技術の向上により、種々の認証処理が顔画像を用いて実現されているが、マスクを着用している状態における認証には、いろいろと課題が残っている。例えば、露出している部分を用いて精度を上げる方法や遮蔽物を透過する光の波長を探して当該波長で撮影して顔画像を作成する方法がある。
 露出している部分から認証をする手法は、精度を高くすることは可能であっても、やはり顔全体の画像を用いた認証よりも精度は低くなる。また、透過する波長を探す手法では、この遮蔽物を透過する波長を探すためのカメラ、フィルタといった要素を備える装置が必要となるためシステムが大きく複雑になる。さらに、当該波長を照射している訳ではないので、十分な光量を取得することは困難であり、照射装置を備えると、さらにシステムが大きくなる。
特開2020-009308号公報
 そこで、本開示では、遮蔽物がある状態においても認証精度を高くする情報を取得する固体撮像装置及び電子機器を提供する。
 一実施形態によれば、固体撮像装置は、照射部と、撮像部と、画像処理回路と、を備える。照射部は、遮蔽物を透過する波長を含む光を照射する。撮像部は、可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する。情報処理回路は、前記画像データの情報処理をする。
 また、前記情報処理回路は、前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、前記第 2 画像において前記遮蔽物領域の画像を抽出し、前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得する。
 前記情報処理回路は、前記遮蔽物領域の前記第 2 画像から前記遮蔽物の影を除去してもよい。
 前記情報処理回路は、前記第 1 画像における色情報に基づいて、前記第 2 画像における色情報を推定し、前記第 1 画像から前記遮蔽物領域を削除した画像と、前記第 2 画像に推定した色情報を付加した前記遮蔽物領域の画像と、を合成して前記認証に用いる情報を取得してもよい。
 前記情報処理回路は、前記画像データにおける前記遮蔽物領域以外の領域における、前記第 1 画像のデータ及び第 2 画像のデータに基づいて、前記遮蔽物領域における色情報を推定してもよい。
 前記情報処理回路は、前記遮蔽物領域として連続しない複数領域を抽出した場合、前記複数領域のそれぞれについて、前記合成を実行してもよい。
 前記情報処理回路は、前記第 1 画像から前記遮蔽物領域を削除した画像から、可視光における第 1 特徴を抽出し、前記第 2 画像から前記遮蔽物を透過する波長帯域における第 2 特徴を抽出し、前記第 1 特徴及び前記第 2 特徴を認証に用いる情報として取得してもよい。
 前記情報処理回路は、前記第 1 画像において前記遮蔽物を検出しなかった場合に、前記第 1 画像を認証に用いる情報としてもよい。
 前記撮像部は、少なくとも人物の顔を含む領域の画像を取得してもよく、前記情報処理回路は、前記人物の認証に用いる情報を取得してもよい。
 前記遮蔽物は、マスクであってもよい。
 前記遮蔽物は、眼鏡又はサングラスのレンズであってもよい。
 一実施形態によれば、電子機器は、照射部と、撮像部と、情報処理回路と、を備える。照射部は、遮蔽物を透過する波長を含む光を照射する。撮像部は、可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する。情報処理回路は、前記画像データの情報処理をする。
 また、前記情報処理回路は、前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、前記第 2 画像において前記遮蔽物領域の画像を抽出し、前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得し、取得した情報に基づいて、認証処理を実行し、認証により判定した結果を出力する。
 電子機器は、認証情報を格納する、記憶部、をさらに備えてもよい。前記情報処理回路は、前記画像データに基づいて取得した認証に用いる情報と、前記記憶部に格納されている前記認証情報と、を比較して、認証処理を実行してもよい。
 前記情報処理回路は、外部から、認証情報を取得し、前記画像データに基づいて取得した認証に用いる情報と、外部から取得した前記認証情報と、を比較して、認証処理を実行してもよい。
 電子機器は、監視カメラであってもよい。
 電子機器は、入出門ゲートにおける認証処理を実行してもよい。
一実施形態に係る固体撮像装置を模式的に示すブロック図。 一実施形態に係る受光画素の配列の一例を示す図。 一実施形態に係る固体撮像装置の処理の一例を示すフローチャート。 一実施形態に係る固体撮像装置の処理の一例を示すフローチャート。 一実施形態に係る固体撮像装置の処理の一例を示すフローチャート。 一実施形態に係る固体撮像装置の処理の一例を示すフローチャート。 一実施形態に係る監視システムの一例を模式的に示すブロック図。 一実施形態に係るゲートシステムの一例を模式的に示すブロック図。
 以下、図面を参照して本開示における実施形態の説明をする。図面は、説明のために用いるものであり、実際の装置における各部の構成の形状、サイズ、又は、他の構成とのサイズの比等が図に示されている通りである必要はない。また、図面は、簡略化して書かれているため、図に書かれている以外にも実装上必要な構成は、適切に備えるものとする。
 本開示において、「光の波長」「波長」と記載している箇所は、光の波長帯域、と読み替えることもできる。また、本開示において、「認証情報」の文言は、監視カメラ等における監視対象を認証するための情報又は将来的に監視対象となりうる対象の認証情報を意味していてもよい。
 (第 1 実施形態)
 図1は、一実施形態に係る固体撮像装置を模式的に示すブロック図である。固体撮像装置 1 は、光学系 100 と、照射部 102 と、撮像素子 104 と、情報処理回路 106 と、記憶部 108 と、入出力インタフェース (以下、入出力 I/F 110 と記載する。) と、を備える。この他、固体撮像装置 1 は、それぞれの構成要素を制御する制御部等、撮像及び出力に必要な適切な図示しない構成要素を備える。
 固体撮像装置 1 は、撮像した画像から認証情報を抽出する装置である。また、固体撮像装置 1 は、当該認証情報を用いた認証結果を出力する装置であってもよい。
 光学系 100 は、外部の光を取り込む光学系である。光学系 100 により集光された光が撮像素子 104 の受光素子に入射する。光学系 100 は、 1 又は複数のレンズ、フィルタ、回折格子等を備えていてもよい。
 照射部 102 は、撮像の対象を照射する光源を備える。照射部 102 は、例えば、遮蔽物を透過する波長の光を照射する。遮蔽物を透過する波長の光は、限定されない例として、赤外線であってもよい。照射部 102 は、赤外帯域の複数の帯域の光を照射してもよい。照射部 102 は、遮蔽物を透過する帯域の光とともに、白色光を照射してもよい。また、照射部 102 は、例えば、紫外線等の光を照射してもよい。この場合、照射部 102 は、人間に害を及ぼさないような微弱な光、又は、撮像するための短時間の照射をしてもよい。
 撮像素子 104 は、光学系 100 を介して集光した光を光電変換し、光電変換により取得したアナログ信号を適切にデジタル画像データに変換して出力する回路である。撮像素子 104 は、可視光帯域の光を受光する受光素子とともに、照射部 102 が照射する遮蔽物を透過する波長の光を受光する受光素子を備える。撮像素子 104 は、例えば、対象において反射した光、対象が透過した光、又は、対象が発光している光等の情報を適切に取得する。
 図2は、一実施形態に係る撮像素子 104 における受光画素の配列の一例を示す図である。撮像素子 104 は、撮像部として、受光画素が 2 次元に配置された画素アレイを備え、画素アレイ内に、受光画素 112 がこの図2に示されるように配列される。
 受光画素 112 内に記載されているアルファベットは、それぞれの受光画素が受光可能な色を示す。 R は、赤色の波長帯域、 G は、緑色の波長帯域、 B は、青色の波長帯域、 IR は、赤外帯域の光をそれぞれ受光する画素であることを示す。限定されない一例として、図示されるように、ベイヤ配列の一部の画素を赤外帯域の光を受光する画素に置き換えたものであってもよい。
 このような配列とすることで、撮像素子 104 は、可視光帯域の画像と、赤外光帯域の画像と、を座標のズレが無い状態で取得することができる。この結果、同じ座標における情報を参照することで、撮像した対象の同じ位置の可視光の情報と、赤外光との情報を取得することができる。
 画素 112 それぞれが受光可能な波長帯域は、例えば、画素 112 に備えられる光電変換素子の光の入射面側にカラーフィルタを備え、又は、それぞれの帯域に応じた有機光電変換膜等が備えられる形態であってもよい。
 なお、図2の配列は、限定されない一例として示したものであり、画素 112 の受光する帯域の並び方はこれ以外の並び方であってもよい。また、受光する帯域は、 RGB-IR に限定されず、補色等の別の帯域を受光する画素 112 が配置されてもよい。これらにより、可視光帯域の画像を用途等に応じて適切に高精度にすることができる。
  IR を受光する画素 112 は、 1 つの帯域だけではなく複数種類の帯域の赤外光を受光する画素 112 が混在していてもよい。複数の帯域における赤外光からそれぞれ画像を生成することで、異なる特性を有する画像を複数取得することができる。
 また、上述したように、 UV 等の別の波長帯域の光を受光する画素 112 があってもよい。
 これらの可視光帯域以外の光については、照射部 102 が対象に照射し、対象からの反射光を画素 112 が受光する形態であってもよい。
 画素 112 のそれぞれが 1 つの波長帯域の光を受光する態様について説明したがこれに限定されるものではない。別の例として、 1 つの画素 112 が複数の同一の、又は、相違する波長帯域を受光する光電変換素子を備えてもよく、この場合、画素 112 は、分割された領域ごとに、異なる波長帯域の光を受光し、適切に色情報として出力することができる。
 撮像素子 104 は、画素 112 を備えることで、可視光帯域の光と、照射部 102 が照射する波長を含む光を受光可能に形成される。撮像素子 104 は、照射部 102 が遮蔽物を透過する波長帯域の光を照射する領域の少なくとも一部を含む領域を撮像する。望ましくは、照射部 102 は、認証に用いられる対象が存在しうる範囲を照射範囲とし、撮像素子 104 は、対象が存在しうる範囲を撮像する。
 この結果、撮像素子 104 は、照射部 102 が照射した認証に用いる情報を有する対象の可視光帯域の撮像情報及び遮蔽物を透過する波長を含む領域 (例えば、赤外光帯域) の撮像情報を取得し、これらの撮像情報に対応する画像に関する情報を出力することができる。以下、可視光帯域の撮像情報から形成される画像を第 1 画像、遮蔽物を透過する波長帯域の撮像情報から形成される画像を第 2 画像と記載する。
 図1に戻り、撮像素子 104 は、撮像した情報を画像データに変換し、波長帯域ごとの画像データを取得する。撮像素子 104 は、例えば、受光素子において光電変換により取得したアナログデータをデジタルデータに変換して、画素 112 ごとに取得して情報処理回路 106 へと出力する。
 情報処理回路 106 は、撮像素子 104 から出力されるデジタルデータ (画像データ) を適切に処理して表示するための画像データを生成してもよい。情報処理回路 106 は、例えば、取得したデータのリニアマトリクス処理、欠陥補正処理等をして、画像データを生成してもよい。
 情報処理回路 106 は、適切に形成される第 1 画像から、遮蔽物の領域 (以下、遮蔽物領域と記載する。) を検出する。そして、情報処理回路 106 は、検出した遮蔽物領域に対応する第 2 画像の領域を抽出する。情報処理回路 106 は、第 1 画像又は検出した遮蔽物領域における第 2 画像のうち、少なくとも一方を用いて、認証に用いるデータを取得する。
 情報処理回路 106 はさらに、取得した認証に用いるデータを用いて、認証処理を実行し、認証結果を、入出力 I/F 110 を介して外部へと出力してもよい。この認証は、記憶部 108 に格納されている認証情報 (例えば、あらかじめ取得している対象を特定する情報) と、上記により取得した認証に用いるデータとを用いて、認証処理をすることができる。別の例として、情報処理回路 106 は、認証情報を入出力 I/F 110 を介して外部から取得することもできる。
 記憶部 108 は、固体撮像装置 1 において必要となるデータ、処理の中間データ又は処理されたデータが格納される。記憶部 108 は、例えば、各種 RAM (Random Access Memory) 、 ROM (Read Only Memory) 、 SSD (Solid State Drive) 等であってもよい。
 情報処理回路 106 の少なくとも一部の処理が、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実現される場合には、記憶部 108 は、このソフトウェアによる情報処理を実行するためのプログラム、実行ファイル等を格納してもよい。情報処理回路 106 は、記憶部 108 に格納されているプログラム等を参照することで、ソフトウェアによる情報処理を実現してもよい。
 入出力 I/F 110 は、固体撮像装置 1 の内部と外部とでデータを送受信するためのインタフェースである。このインタフェースは、任意の送受信可能な形式であってもよい。固体撮像装置 1 は、この入出力 I/F 110 を介して、情報処理回路 106 が処理した結果を外部へと送信したり、認証に必要となる情報を内部へと受信したりすることができる。また、この入出力 I/F 110 は、ボタン、タッチパネル、マイクといった入力インタフェース、ディスプレイ、ステレオといった出力インタフェースを備えてもよい。
 上記の構成の固体撮像装置 1 の処理について、説明する。
 図3は、一実施形態に係る固体撮像装置 1 の処理を示すフローチャートである。なお、限定されない一例として、固体撮像装置 1 がマスクをしている人物の顔を撮像の対象とし、個人認証用のデータを出力する場合について説明するが、照射部 102 が照射する波長帯域及び撮像素子 104 において光電変換する波長帯域は、その利用対象により別の波長帯域等に適宜変更することが可能である。
 固体撮像装置 1 は、照射部 102 により、対象を照射する (S100) 。照射部 102 は、遮蔽物を透過する波長帯域の光を照射する。照射部 102 は、例えば、人物の少なくとも顔が存在しうる領域に赤外領域の帯域の波長を照射する。
 撮像素子 104 は、照射部 102 が照射された範囲についての撮像し、可視光帯域における第 1 画像と、赤外光帯域における第 2 画像と、を取得する (S102) 。撮像素子 104 は、可視光帯域においては、例えば、 RGB の三原色の波長帯域に対応する情報を取得し、赤外光帯域においては、 1 又は複数の波長帯域に対応する情報を取得する。
 情報処理回路 106 は、取得した RGB の三原色の波長帯域に対応するデータから、対象における遮蔽物の領域を検出する (S104) 。情報処理回路 106 は、例えば、人物の顔の領域から、遮蔽物であるマスクの領域を検出する。
 情報処理回路 106 は、例えば、人物の顔の色の情報と、マスクの色の情報と、に基づいて、マスクの領域である遮蔽物領域を検出する。情報処理回路 106 は、別の例として、あらかじめ機械学習によりマスクをした人物の顔を含む画像からマスク領域を抽出するように学習された学習済みモデルを用いて、マスクの領域である遮蔽物領域を検出してもよい。学習において、教師データは、マスクをした人物と、当該人物におけるマスクの領域を指定したデータと、を用いることができる。
 情報処理回路 106 は、検出した遮蔽物領域に基づいて、第 2 画像から遮蔽物領域の画像を抽出する (S106) 。例えば、図2のような配列の撮像素子 104 を用いることで、第 1 画像と第 2 画像は、同じ座標で同じ対象空間の位置を表すことができる。このため、情報処理回路 106 は、第 1 画像において取得した遮蔽物領域の座標を取得し、当該座標における第 2 画像の輝度値を取得することにより、第 2 画像の遮蔽物領域の情報を取得することができる。
 情報処理回路 106 は、 S106 において抽出した画像からマスクの縁部分等に存在する影を削除する (S108) 。マスクにより影となっている箇所には、認証が有利となる情報がほとんど含まれない。このため、情報処理回路 106 は、第 2 画像において抽出された遮蔽物領域において、当該領域内に影がないかを確認し、影がある場合は、例えば、補間処理当により、当該影の影響を回避する。
 この影の検出においても、情報処理回路 106 は、学習済みモデルを用いることができる。この学習済みモデルは、例えば、教師データとして赤外光帯域におけるマスクで遮蔽された領域のデータと、影の領域を指定したデータ又は影の領域を削除し若しくは補間したデータと、を用いて学習することができる。
 情報処理回路 106 は、第 2 画像から抽出した遮蔽物領域の色情報を推定する (S110) 。情報処理回路 106 は、例えば、第 1 画像における遮蔽物領域以外の領域の色情報に基づいて、第 2 画像から抽出した遮蔽物領域の色を推定して、当該抽出した遮蔽物領域の可視光帯域の色情報を含んだ画像を取得してもよい。この色の推定は、ルールベースの処理により実行されてもよいし、学習済みモデルを用いて実行されてもよい。
 情報処理回路 106 は、例えば、遮蔽物領域以外の第 1 画像のデータ及び遮蔽物領域以外の第 2 画像のデータを用いて色に関する情報を比較して変換テーブルを作成し、この変換テーブルにしたがって、遮蔽物領域の第 2 画像のデータを可視光帯域の情報に変換することで色を推定してもよい。変換テーブルの作成は、任意の統計的手法を用いることができる。
 情報処理回路 106 は、例えば、あらかじめ機械学習により学習された、遮蔽物領域以外の第 1 画像のデータ及び第 2 画像のデータを入力すると、少なくとも遮蔽物領域を含む第 2 画像の一部又は全部のデータを出力する学習済みモデルを用いて、第 2 画像における遮蔽物領域の可視光帯域の色を推定してもよい。この学習済みモデルは、教師データとして同じ状況における可視光帯域の画像と、赤外光帯域との画像とを用いて、赤外光帯域の画像を可視光帯域の画像に変換するように学習されてもよい。
 いずれの場合においても、情報処理回路 106 は、複数の赤外光帯域のデータから第 2 画像を生成することにより、色の推定精度を向上させることができる。
 情報処理回路 106 は、第 1 画像から遮蔽物領域を削除した画像と、 S110 で取得した第 2 画像から色を推定した遮蔽物領域の画像と、を合成することで、可視光帯域における人物の顔の画像を取得する (S112) 。
 情報処理回路 106 は、合成画像について後処理を実行する (S114) 。後処理は、合成画像に関連する処理であり、例えば、合成画像を出力し、又は、合成画像を用いて認証処理を実行して認証結果を出力する処理であってもよい。
 固体撮像装置 1 は、 S112 で情報処理回路 106 が取得した合成画像を、認証に用いるデータとして出力してもよい。別の例として、固体撮像装置 1 内において、情報処理回路 106 が記憶部 108 に格納されている認証情報又は外部から取得した認証情報を用いて合成画像の認証処理を実行してもよい。
 認証処理は、任意の手法で実行することができる。認証処理は、例えば、画像から特徴点をルールベースの処理で抽出し、特徴点に基づいて実行されてもよいし、あらかじめ学習された学習済みモデルにより実行されてもよい。
 固体撮像装置 1 から認証に係るデータを取得した電子機器は、取得したデータを用いて認証処理を実行し、認証結果に基づいた処理をすることができる。固体撮像装置 1 から認証結果を取得した電子機器は、認証結果に基づいた処理をすることができる。
 以上のように、本実施形態によれば、可視光帯域で取得した遮蔽物がある対象に対して、遮蔽物を透過する波長帯域の光を照射して遮蔽物領域の像を取得し、色を推定することで、色情報を認証に用いることも可能となり、認証精度を向上させることができる。本実施形態に係る固体撮像装置 1 は、例えば、マスクを着用した人物がマスクを外すことなく精度の高い個人認証を実現することができる。
 また、固体撮像装置 1 で認証情報の取得が完結できるため、認証システムに組み込んだとしても、この認証システムは、認証に用いる装置の規模が小さく、また、複雑ではない態様で実現することができる。
 なお、情報処理回路 106 は、 S104 の前処理として、人物の顔等の対象物を抽出する処理を実行してもよい。このように対象を明確にすることで、認証の精度をより向上させることができる。この抽出処理もルールベース又は学習済みモデルを用いて実行してもよい。
 また、色の推定の処理については省略してもよく、色以外の形状等の情報から認証を実行する形態であってもよい。
 (第 2 実施形態)
 前述の第 1 実施形態では、それぞれの帯域で出力された画像を合成することで、可視光帯域の遮蔽物を除いた対象全体の画像を推定して認証情報を生成したが、これに限定されるものではない。本実施形態においては、異なる帯域の画像からそれぞれに特徴を抽出する例について説明する。
 図4は、第 2 実施形態に係る固体撮像装置 1 の処理を示すフローチャートである。
 照射部 102 、撮像素子 104 及び情報処理回路 106 における S100 から S106 の処理は、前述の実施形態と同様である。すなわち、照射部 102 が照射した (S100) 光の波長を含む帯域と可視光帯域における対象の画像を撮像素子 104 が取得し (S102) 、情報処理回路 106 は、取得した第 1 画像から遮蔽物領域を検出する (S104) 。
 次に、情報処理回路 106 は、第 1 画像から遮蔽物領域を除いた画像及び第 2 画像から特徴量を抽出する (S120) 。この特徴量の検出は、例えば、ルールベースの処理に基づいて実行されてもよいし、別の例として、あらかじめ学習された学習済みモデルを用いて実行されてもよい。学習済みモデルは、例えば、画像から特徴量を符号化により取得するエンコーダとして任意の手法で学習されたモデルであってもよいし、ターゲットとする特徴量を教師データとして用いて学習されたモデルであってもよい。エンコーダは、限定されない一例として、オートエンコーダを用いて取得したモデルであってもよい。
 情報処理回路 106 は、例えば、第 1 画像から遮蔽物領域を除いた画像から可視光帯域における第 1 特徴を抽出し、第 2 画像から赤外光帯域における第 2 特徴を抽出する。この結果、可視光帯域における色情報を含むマスク領域以外の顔の特徴と、赤外光帯域における色情報以外の顔の特徴とを同じタイミングで取得することができる。
 第 1 特徴は、例えば、目、鼻、輪郭、耳、といった色情報を含む形状の特徴を含んでもよい。第 2 特徴は、例えば、血管 (静脈等) の情報、凹凸の情報といった可視光帯域の色情報からは取得しづらい情報を含んでもよい。
 情報処理回路 106 は、特徴に関する後処理を実行する (S122) 。
 固体撮像装置 1 は、前述の実施形態と同様に、後処理として、第 1 特徴及び第 2 特徴に基づいた認証処理を実行し、この認証結果を出力しても良いし、第 1 特徴及び第 2 特徴に係るデータ自体を出力してもよい。
 以上のように、本実施形態に係る固体撮像装置 1 によれば、可視光帯域における特徴と、遮蔽物を透過する波長帯域 (例えば、赤外光帯域) における別の特徴と、に基づいた認証にもちいるデータを取得し、認証処理を実現することが可能となる。この結果、色情報を用いて認証を実行する前述の第 1 実施形態よりも精度の高い認証を実現することもできる。
 (第 3 実施形態)
 前述の第 1 実施形態及び第 2 実施形態においては、遮蔽物がある場合について説明したが、もちろん遮蔽物が無い場合もある。本実施形態では、遮蔽物がない場合についての処理を含めた固体撮像装置について説明する。第 1 実施形態に基づいた説明をするが、もちろん、第 2 実施形態においても同様に適用することが可能である。
 図5は、第 3 実施形態に係る固体撮像装置 1 の処理を示すフローチャートである。同じ符号の処理は、原則的に前述の実施形態における説明と同じ処理であるので説明は省略する。
 情報処理回路 106 は、遮蔽物領域の検出をした (S104) 後、遮蔽物があるか否かを判定してもよい (S140) 。
 遮蔽物を検出した場合 (S140: YES) 、固体撮像装置 1 は、第 1 実施形態と同様の処理を実行する。
 遮蔽物を検出しない場合 (S140: NO) 、情報処理回路 106 は、取得した第 1 画像に対して、後処理を実行する (S114) 。第 2 実施形態に適用する場合には、情報処理回路 106 は、第 1 画像及び第 2 画像に対して後処理を実行する。
 以上のように、固体撮像装置 1 は、例えば、人物がマスクをしているか否かを判定し、この判定結果により、処理を変更してもよい。本実施形態によれば、マスクを着用していない場合には、適切に、可視光帯域の第 1 画像に対して後処理をすることができる。
 (第 4 実施形態)
 前述の第 1 実施形態、第 2 実施形態及び第 3 実施形態においては、遮蔽物が単数である場合について説明したが、もちろん遮蔽物が複数である場合もある。本実施形態では、遮蔽物が複数ある場合についての処理を含めた固体撮像装置について説明する。第 1 実施形態に基づいた説明をするが、もちろん、第 2 実施形態及び第 3 実施形態においても同様に適用することが可能である。
 図6は、第 4 実施形態に係る固体撮像装置 1 の処理を示すフローチャートである。同じ符号の処理は、原則的に前述の実施形態における説明と同じ処理であるので説明は省略する。
  S112 の処理の後、情報処理回路 106 は、遮蔽物が単数であるか、又は、複数の遮蔽物が存在する場合には全ての遮蔽物に対して合成 (第 2 実施形態においては特徴抽出) が完了しているかを判定する (S160) 。
 情報処理回路 106 は、 S104 の処理において、遮蔽物領域の検出を行ったタイミングで、遮蔽物領域が連続した 1 つの領域であるか、又は、それぞれが離れた位置にある連続した複数の領域であるか、を判定することができる。
  1 つの連続した領域を複数の領域であるとの誤判定を回避するために、情報処理回路 106 は、例えば、遮蔽物領域に対してディレーション処理、クロージング処理等のモルフォロジー処理、又は、その他の処理を実行して、領域が単数であるか複数であるかを判定してもよい。
 連続であるか否かは、例えば、 4 連結又は 8 連結により判定してもよい。
 また、これらの処理は、学習済みモデルを用いて実行されてもよい。
 遮蔽物が単数であった場合、又は、全ての遮蔽物に対して合成処理 (第 2 実施形態においては特徴抽出処理) が完了している場合 (S160: YES) 、情報処理回路 106 は、画像 (第 2 実施形態においては特徴データ) に対して後処理をする (S114) 。
 遮蔽物が複数であり、全ての遮蔽物に対して合成処理等が完了していない場合 (S106: NO) 、情報処理回路 106 は、 S106 からの処理を繰り返す。
 以上のように、本実施形態に係る固体撮像装置 1 によれば、複数の遮蔽物、例えば、人物の顔に対するマスクと眼鏡又はサングラスが着用されている場合においても、適切に処理を実行することができる。
 なお、複数の遮蔽物の領域は、本実施形態のように別個のラベリング等されているものであってもよいし、別個のラベリングではなく、遮蔽物の座標情報だけを取得しているものであってもよい。座標情報だけを取得している場合、情報処理回路 106 は、この座標情報に基づいて第 2 画像との合成、又は、第 1 画像における特徴抽出からの領域の除外等の処理を実行することもできる。
 各実施形態で説明した固体撮像装置 1 は、限定されない一例として、防犯カメラや監視カメラといった電子機器において用いることが可能であり、撮像範囲に立ち入った対象 (人間) の顔の特徴を、マスクを着用している状態において取得することができる。
 図7は、一実施形態に係る監視システムの一例を示す図である。監視システム 2 は、固体撮像装置 1 と、データベース 20 と、出力部 24 と、任意に認証装置 22 と、を備える。固体撮像装置 1 において認証処理をする場合には、認証装置 22 は、省略してもよい。
 データベース 20 は、監視対象の画像又は特徴量を登録するデータベースである。固体撮像装置 1 は、データベース 20 に登録されている認証情報を用いて、撮像したデータから取得したデータの認証処理を実行してもよい。
 認証装置 22 が備えられる場合には、認証装置 22 が固体撮像装置 1 から出力された認証に関するデータと、データベース 20 に登録されている認証情報と、を用いて認証処理を実行してもよい。
 固体撮像装置 1 又は認証装置 22 は、固体撮像装置 1 が取得した認証に関するデータを新たな監視対象としてデータベース 20 に登録してもよい。また、認証が学習済みモデルで実装される場合には、固体撮像装置 1 の情報処理回路 106 又は外部の情報処理装置により、新たな認証対象が加えられた場合に、再学習をすることもできる。
 固体撮像装置 1 又は認証装置 22 は、出力部 24 を介して認証結果を出力することができる。例えば、監視対象となる人物を検出した場合には、それらは、出力部 24 を介して管理者にアラートを出力することができる。
 また、各実施形態で説明した固体撮像装置 1 は、限定されない一例として、施設等の入門ゲート、通過ゲートにおける個人認証に用いるデータを取得する電子機器において用いることができる。
 図8は、一実施形態に係るゲートシステムの一例を示す図である。ゲートシステム 3 は、固体撮像装置 1 と、データベース 20 と、制御装置 26 と、ゲート 28 と、任意で認証装置 22 と、を備える。ゲートシステム 3 は、ゲート 28 を通過しようとする人物の認証処理を実行し、認証された場合には、ゲートを開けるシステムである。
 固体撮像装置 1 、データベース 20 及び認証装置 22 のデータの出力については図7の場合と同様である。
 固体撮像装置 1 又は認証装置 22 は、認証結果を制御装置 26 へと出力する。別の例として、それらは、認証結果そのものではなく、認証が OK 、すなわち、ゲートを通過する許可がある人物であると認証された場合に、その旨を示す信号を制御装置 26 へと送信することもできる。
 制御装置 26 は、ゲートを通過する許可がある人物であると判定された場合に、ゲート 28 を開ける処理を実行してもよい。
 その他、種々の認証システムにおいて組み込まれることが可能である。また、別の例として、工場のライン等において、流れてくる製品について、遮蔽物がある場合の非破壊的な検査等にも用いることができる。
 前述した実施形態は、以下のような形態としてもよい。
 (1)
 遮蔽物を透過する波長を含む光を照射する、照射部と、
 可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する、撮像部と、
 前記画像データの情報処理をする、情報処理回路と、
 を備え、
 前記情報処理回路は、
  前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、
  前記第 2 画像において前記遮蔽物領域の画像を抽出し、
  前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得する、
 固体撮像装置。
 (2)
 前記情報処理回路は、前記遮蔽物領域の前記第 2 画像から前記遮蔽物の影を除去する、
 (1)に記載の固体撮像装置。
 (3)
 前記情報処理回路は、
  前記第 1 画像における色情報に基づいて、前記第 2 画像における色情報を推定し、
  前記第 1 画像から前記遮蔽物領域を削除した画像と、前記第 2 画像に推定した色情報を付加した前記遮蔽物領域の画像と、を合成して前記認証に用いる情報を取得する、
 (1)又は(2)に記載の固体撮像装置。
 (4)
 前記情報処理回路は、前記画像データにおける前記遮蔽物領域以外の領域における、前記第 1 画像のデータ及び第 2 画像のデータに基づいて、前記遮蔽物領域における色情報を推定する、
 (3)に記載の固体撮像装置。
 (5)
 前記情報処理回路は、前記遮蔽物領域として連続しない複数領域を抽出した場合、前記複数領域のそれぞれについて、前記合成を実行する、
 (3)又は(4)に記載の固体撮像装置。
 (6)
 前記情報処理回路は、
  前記第 1 画像から前記遮蔽物領域を削除した画像から、可視光における第 1 特徴を抽出し、
  前記第 2 画像から前記遮蔽物を透過する波長帯域における第 2 特徴を抽出し、
  前記第 1 特徴及び前記第 2 特徴を認証に用いる情報として取得する、
 (1)から(5)のいずれかに記載の固体撮像装置。
 (7)
 前記情報処理回路は、前記第 1 画像において前記遮蔽物を検出しなかった場合に、前記第 1 画像を認証に用いる情報とする、
 (1)から(6)のいずれかに記載の固体撮像装置。
 (8)
 前記撮像部は、少なくとも人物の顔を含む領域の画像を取得し、
 前記情報処理回路は、前記人物の認証に用いる情報を取得する、
 (1)から(7)のいずれかに記載の固体撮像装置。
 (9)
 前記遮蔽物は、マスクである、
 (8)に記載の固体撮像装置。
 (10)
 前記遮蔽物は、眼鏡又はサングラスのレンズである、
 (8)又は(9)に記載の固体撮像装置。
 (11)
 遮蔽物を透過する波長を含む光を照射する、照射部と、
 可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する、撮像部と、
 前記画像データの情報処理をする、情報処理回路と、
 を備え、
 前記情報処理回路は、
  前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、
  前記第 2 画像において前記遮蔽物領域の画像を抽出し、
  前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得し、
  取得した情報に基づいて、認証処理を実行し、
  認証により判定した結果を出力する、
 電子機器。
 (12)
 認証情報を格納する、記憶部、
 をさらに備え、
 前記情報処理回路は、前記画像データに基づいて取得した認証に用いる情報と、前記記憶部に格納されている前記認証情報と、を比較して、認証処理を実行する、
 (11)に記載の電子機器。
 (13)
 前記情報処理回路は、
  外部から、認証情報を取得し、
  前記画像データに基づいて取得した認証に用いる情報と、外部から取得した前記認証情報と、を比較して、認証処理を実行する、
 (11)又は(12)に記載の電子機器。
 (14)
 監視カメラである、
 (11)から(13)のいずれかに記載の電子機器。
 (15)
 入出門ゲートにおける認証処理を実行する、
 (11)から(13)のいずれかに記載の電子機器。
 本開示の態様は、前述した実施形態に限定されるものではなく、想到しうる種々の変形も含むものであり、本開示の効果も前述の内容に限定されるものではない。各実施形態における構成要素は、適切に組み合わされて適用されてもよい。すなわち、特許請求の範囲に規定された内容及びその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。
 1: 固体撮像装置、
  100: 光学系、
  102: 照射部、
  104: 撮像素子、
  106: 情報処理回路、
  108: 記憶部、
  110: 入出力 I/F、
  112: 受光画素
 2: 監視システム、
 3: ゲートシステム、
  20: データベース、
  22: 認証装置、
  26: 制御装置、
  28: ゲート

Claims (15)

  1.  遮蔽物を透過する波長を含む光を照射する、照射部と、
     可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する、撮像部と、
     前記画像データの情報処理をする、情報処理回路と、
     を備え、
     前記情報処理回路は、
      前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、
      前記第 2 画像において前記遮蔽物領域の画像を抽出し、
      前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得する、
     固体撮像装置。
  2.  前記情報処理回路は、前記遮蔽物領域の前記第 2 画像から前記遮蔽物の影を除去する、
     請求項1に記載の固体撮像装置。
  3.  前記情報処理回路は、
      前記第 1 画像における色情報に基づいて、前記第 2 画像における色情報を推定し、
      前記第 1 画像から前記遮蔽物領域を削除した画像と、前記第 2 画像に推定した色情報を付加した前記遮蔽物領域の画像と、を合成して前記認証に用いる情報を取得する、
     請求項1に記載の固体撮像装置。
  4.  前記情報処理回路は、前記画像データにおける前記遮蔽物領域以外の領域における、前記第 1 画像のデータ及び第 2 画像のデータに基づいて、前記遮蔽物領域における色情報を推定する、
     請求項3に記載の固体撮像装置。
  5.  前記情報処理回路は、前記遮蔽物領域として連続しない複数領域を抽出した場合、前記複数領域のそれぞれについて、前記合成を実行する、
     請求項3に記載の固体撮像装置。
  6.  前記情報処理回路は、
      前記第 1 画像から前記遮蔽物領域を削除した画像から、可視光における第 1 特徴を抽出し、
      前記第 2 画像から前記遮蔽物を透過する波長帯域における第 2 特徴を抽出し、
      前記第 1 特徴及び前記第 2 特徴を認証に用いる情報として取得する、
     請求項1に記載の固体撮像装置。
  7.  前記情報処理回路は、前記第 1 画像において前記遮蔽物を検出しなかった場合に、前記第 1 画像を認証に用いる情報とする、
     請求項1に記載の固体撮像装置。
  8.  前記撮像部は、少なくとも人物の顔を含む領域の画像を取得し、
     前記情報処理回路は、前記人物の認証に用いる情報を取得する、
     請求項1に記載の固体撮像装置。
  9.  前記遮蔽物は、マスクである、
     請求項8に記載の固体撮像装置。
  10.  前記遮蔽物は、眼鏡又はサングラスのレンズである、
     請求項8に記載の固体撮像装置。
  11.  遮蔽物を透過する波長を含む光を照射する、照射部と、
     可視光帯域の光及び前記照射部が照射する波長を含む光を受光可能であり、前記照射部が照射する領域の少なくとも一部を含む領域を撮像し、前記可視光帯域の第 1 画像と、前記遮蔽物を透過する波長帯域の第 2 画像と、を含む画像データを取得する、撮像部と、
     前記画像データの情報処理をする、情報処理回路と、
     を備え、
     前記情報処理回路は、
      前記第 1 画像から、前記遮蔽物の領域である遮蔽物領域を検出し、
      前記第 2 画像において前記遮蔽物領域の画像を抽出し、
      前記第 1 画像又は前記遮蔽物領域における前記第 2 画像のうち少なくとも一方を用いて、認証に用いる情報を取得し、
      取得した情報に基づいて、認証処理を実行し、
      認証により判定した結果を出力する、
     電子機器。
  12.  認証情報を格納する、記憶部、
     をさらに備え、
     前記情報処理回路は、前記画像データに基づいて取得した認証に用いる情報と、前記記憶部に格納されている前記認証情報と、を比較して、認証処理を実行する、
     請求項11に記載の電子機器。
  13.  前記情報処理回路は、
      外部から、認証情報を取得し、
      前記画像データに基づいて取得した認証に用いる情報と、外部から取得した前記認証情報と、を比較して、認証処理を実行する、
     請求項11に記載の電子機器。
  14.  監視カメラである、
     請求項11に記載の電子機器。
  15.  入出門ゲートにおける認証処理を実行する、
     請求項11に記載の電子機器。
PCT/JP2023/030085 2022-08-29 2023-08-22 固体撮像装置及び電子機器 WO2024048360A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022135869A JP2024032290A (ja) 2022-08-29 2022-08-29 固体撮像装置及び電子機器
JP2022-135869 2022-08-29

Publications (1)

Publication Number Publication Date
WO2024048360A1 true WO2024048360A1 (ja) 2024-03-07

Family

ID=90099714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/030085 WO2024048360A1 (ja) 2022-08-29 2023-08-22 固体撮像装置及び電子機器

Country Status (2)

Country Link
JP (1) JP2024032290A (ja)
WO (1) WO2024048360A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017038162A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017038162A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
JP2024032290A (ja) 2024-03-12

Similar Documents

Publication Publication Date Title
EP2721828B1 (en) High resolution multispectral image capture
KR102270674B1 (ko) 생체인식 카메라
KR102466997B1 (ko) 라이브니스 검사 방법 및 장치
CN108716983B (zh) 光学元件检测方法和装置、电子设备、存储介质
Steiner et al. Design of an active multispectral SWIR camera system for skin detection and face verification
KR102317180B1 (ko) 3차원 깊이정보 및 적외선정보에 기반하여 생체여부의 확인을 행하는 얼굴인식 장치 및 방법
JP7262021B2 (ja) 奥行取得装置、奥行取得方法およびプログラム
EP2785046B1 (en) Image correction apparatus, image correction method, and biometric authentication apparatus
WO2016147272A1 (ja) 生体検知装置、生体検知方法、および、記録媒体
US10395093B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR20100008760A (ko) 화상 처리장치 및 화상 처리방법
JP2005149515A (ja) 赤外線を用いた人間識別装置およびその方法
JP2017038162A (ja) 撮像装置及び画像処理方法、プログラム、並びに記憶媒体
JP2017011634A (ja) 撮像装置およびその制御方法、並びにプログラム
KR101919090B1 (ko) 3차원 깊이정보 및 적외선정보에 기반하여 생체여부의 확인을 행하는 얼굴인식 장치 및 방법
JP2009123081A (ja) 顔検出方法及び撮影装置
US10853641B2 (en) Apparatus and method for acquiring iris image outdoors and indoors
US10748019B2 (en) Image processing method and electronic apparatus for foreground image extraction
JP2010146094A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2024048360A1 (ja) 固体撮像装置及び電子機器
JP2008021072A (ja) 撮影システム、撮影装置およびそれを用いた照合装置ならびに撮影方法
TWI592882B (zh) 偽裝影像檢測方法及系統
JP6934987B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11670074B2 (en) Method and image-processing device for detecting foreign objects on a transparent protective cover of a video camera
JP2010219862A (ja) 顔検出装置及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23860123

Country of ref document: EP

Kind code of ref document: A1