WO2023127589A1 - 画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体 - Google Patents

画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体 Download PDF

Info

Publication number
WO2023127589A1
WO2023127589A1 PCT/JP2022/046813 JP2022046813W WO2023127589A1 WO 2023127589 A1 WO2023127589 A1 WO 2023127589A1 JP 2022046813 W JP2022046813 W JP 2022046813W WO 2023127589 A1 WO2023127589 A1 WO 2023127589A1
Authority
WO
WIPO (PCT)
Prior art keywords
mask
image
identification
unit
camera
Prior art date
Application number
PCT/JP2022/046813
Other languages
English (en)
French (fr)
Inventor
智 佐藤
一生 登
俊介 安木
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Publication of WO2023127589A1 publication Critical patent/WO2023127589A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/16Pin-hole cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/955Computational photography systems, e.g. light-field imaging systems for lensless imaging

Definitions

  • the present disclosure relates to technology for identifying images in environments where privacy protection is required, particularly at home or indoors.
  • Patent Document 1 by inputting a calculated captured image captured by a light field camera or the like into a classifier, the classifier uses a learned discrimination model and is included in the calculated captured image.
  • An image identification system for identifying objects is disclosed.
  • a calculated captured image is a blurred image that is intentionally created by superimposing multiple images from different viewpoints, or because it is difficult to focus the subject image without using a lens. This is a difficult image. Therefore, it is preferable to use computed captured images for building image identification systems in environments where privacy protection is required, especially at home or indoors.
  • Patent Document 1 does not take any measures against this problem, it is desirable to reduce the psychological burden on the user by implementing effective technical measures.
  • the present disclosure has been made to solve the above problems, and aims to provide a technique that can reduce the user's psychological load while protecting the privacy of the subject.
  • An image identification system includes a mask having a changeable mask pattern in which a plurality of pinholes are formed and an image sensor, and captures a calculated captured image that is an image with blur.
  • a camera an image identification unit that identifies the calculated captured image using an identification model that uses the calculated captured image captured by the first camera as input data and a classification result as output data, and the mask pattern is A mask identification unit that identifies the modified mask pattern after being modified, and an identification model modification unit that modifies the identification model according to the mask pattern identified by the mask identification unit.
  • FIG. 1 is a block diagram showing an example of a configuration of an image identification system according to Embodiment 1 of the present disclosure
  • FIG. 5 is a flow chart showing an example of the procedure of image identification processing of the image identification system according to the first embodiment
  • 1 is a schematic diagram showing an example of a lensless multi-pinhole camera in Embodiment 1.
  • FIG. 6 is a flow chart showing an example of a procedure of main processing of the image identification system when a mask pattern is changed in Embodiment 1.
  • FIG. FIG. 2 is a diagram showing an example of a mask having nine pinholes in the first embodiment
  • FIG. FIG. 2 is a diagram showing an example of a mask having five pinholes in the first embodiment;
  • FIG. 2 is a diagram showing an example of a mask having one pinhole in Embodiment 1;
  • FIG. 10 is a diagram showing an example of a mask having six pinholes in Modification 1 of Embodiment 1;
  • FIG. 10 is a diagram showing an example of a mask having two fan-shaped openings in Modification 1 of Embodiment 1;
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask having six pinholes in which two masks are overlapped in Modification 1 of Embodiment 1;
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask having four pinholes in which two masks are overlapped in Modification 1 of Embodiment 1;
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask having two pinholes in which two masks are overlapped in Modification 1 of Embodiment 1;
  • FIG. 5 is a schematic diagram showing the appearance of a multi-pinhole camera according to Modification 1 of Embodiment 1;
  • FIG. 5 is a schematic diagram showing a cross section of a multi-pinhole camera according to Modification 1 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing a mask before the gripping portion is rotated by 90 degrees in Modification 1 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing a mask when the grip portion is rotated by 90 degrees in Modification 1 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing the appearance of a multi-pinhole camera according to Modification 2 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing a cross section of a multi-pinhole camera according to Modification 2 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing a cross section of the multi-pinhole camera when the fixture is screwed all the way into the first lens barrel in Modification 2 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing a cross section of the multi-pinhole camera when the fixture is screwed only halfway into the first lens barrel in Modification 2 of Embodiment 1;
  • FIG. 12 is a schematic diagram showing a cross section of a multi-pinhole camera according to Modification 3 of Embodiment 1;
  • FIG. 12 is a block diagram showing an example of a configuration of an image identification system according to Modification 4 of Embodiment 1 of the present disclosure
  • FIG. 13 is a flowchart showing an example of a procedure of main processing of the image identification system when a mask pattern is changed in Modification 4 of Embodiment 1
  • FIG. 11 is a schematic diagram showing a cross section of a multi-pinhole camera according to Modification 4 of Embodiment 1
  • FIG. 13 is a schematic diagram showing a cross section of a multi-pinhole camera in Modification 5 of Embodiment 1
  • FIG. 10 is a schematic diagram showing an example of a first mask that constitutes a multi-pinhole mask in Modification 5 of Embodiment 1
  • FIG. 11 is a schematic diagram showing an example of a second mask that constitutes a multi-pinhole mask in Modification 5 of Embodiment 1;
  • FIG. 11 is a schematic diagram showing an example of a third mask that constitutes a multi-pinhole mask in Modification 5 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing an example of a multi-pinhole mask configured by stacking a first mask, a second mask, and a third mask in Modification 5 of Embodiment 1;
  • FIG. 10 is a schematic diagram showing an example of a multi-pinhole mask when an external force is applied to the multi-pinhole mask in modification 5 of the first embodiment;
  • FIG. 11 is a schematic diagram showing an example of a multi-pinhole mask when an external force is further applied to the multi-pinhole mask in modification 5 of the first embodiment
  • FIG. 10 is a schematic diagram for explaining the configuration of a multi-pinhole mask according to Modification 6 of Embodiment 1
  • FIG. 11 is a schematic diagram showing a state of a multi-pinhole mask when four drive units are moved in the same direction in Modification 6 of Embodiment 1
  • FIG. 12 is a schematic diagram showing a state of the multi-pinhole mask when four driving units are moved outward from the center of the multi-pinhole mask in Modification 6 of the first embodiment
  • 5 is a flow chart showing an example of a procedure of main processing of a mask identification unit according to the first embodiment
  • FIG. 4 is a diagram showing an example of a calculated captured image captured by a first camera of a light emitting unit in a lighting state in Embodiment 1;
  • FIG. 4 is a diagram showing an example of a calculated captured image captured by a first camera of a light-emitting unit in an unlit state in Embodiment 1;
  • FIG. 11 is a diagram showing an example of a difference image obtained by subtracting a calculated captured image including a light emitting unit in an off state from a calculated captured image including a light emitting unit in a lit state.
  • 8 is a flow chart showing an example of a procedure of main processing of a mask identification unit when identifying a mask pattern by obtaining LTM from an image captured by the first camera;
  • FIG. 8 is a flow chart showing an example of a procedure of main processing of a mask identification unit when identifying a mask pattern by obtaining LTM from an image captured by the first camera;
  • FIG. 8 is a flow chart showing an example of a procedure of main processing
  • FIG. 4 is a schematic diagram showing an example of multiple PSFs acquired at multiple positions on an image
  • FIG. 9 is a flow chart showing an example of another main processing procedure of the mask identification unit according to the first embodiment
  • FIG. 6 is a flow chart showing an example of the procedure of image quality determination processing by the mask identification unit according to the first embodiment
  • 8 is a flow chart showing another example of the procedure of image quality determination processing by the mask identification unit according to the first embodiment
  • FIG. 10 is a block diagram showing an example of a configuration of an image identification system according to a second embodiment of the present disclosure
  • FIG. 10 is a diagram showing an example of a mask having nine pinholes in the second embodiment
  • FIG. 10 is a diagram showing an example of a mask having five pinholes in the second embodiment
  • FIG. 10 is a diagram showing an example of a mask having one pinhole in the second embodiment
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask in which three masks are overlaid in the second embodiment
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask in which two masks are overlaid in Embodiment 2
  • FIG. 11 is a diagram for explaining a configuration for reading mask ID information written on a mask forming a multi-pinhole mask using a second camera in the second embodiment
  • FIG. 11 is a diagram for explaining a configuration for reading mask ID information written on a mask forming a multi-pinhole mask 301a using a mirror in a modification of the second embodiment
  • FIG. 12 is a block diagram showing an example of a configuration of an image identification system according to Embodiment 3 of the present disclosure
  • FIG. FIG. 13 is a diagram showing an example of a mask having six pinholes in the third embodiment
  • FIG. 12 is a diagram showing an example of a mask having two fan-shaped openings in Embodiment 3
  • FIG. 12 is a diagram showing an example of a multi-pinhole mask in which two masks are superimposed in the third embodiment
  • FIG. 12 is a block diagram showing an example of a configuration of an image identification system according to a fourth embodiment of the present disclosure
  • FIG. FIG. 12 is a block diagram showing an example of a configuration of a learning device according to Embodiment 4 of the present disclosure
  • FIG. FIG. 13 is a flowchart showing an example of a main processing procedure of a learning device according to a fourth embodiment of the present disclosure
  • Deep learning is machine learning that uses a multi-layered neural network, and by using a large amount of learning data, it is possible to achieve more accurate identification performance than conventional methods.
  • Image information is particularly effective in such object identification.
  • Various methods have been proposed to greatly improve the conventional object identification ability by using a camera as an input device and performing deep learning with image information as input.
  • Computational image taken by a light field camera, etc. is a blurred image that is intentionally created by overlapping multiple images from different viewpoints, or because it is difficult to focus the image of the subject without using a lens. It is an image that is difficult for humans to visually recognize. Therefore, it is preferable to use computed captured images for building image identification systems in environments where privacy protection is required, especially at home or indoors.
  • a target area is photographed with a light field camera or the like, and a calculated captured image obtained by the photographing is input to a classifier.
  • the discriminator uses the learned discriminant model to discriminate the object included in the calculated captured image.
  • the discriminator uses the learned discriminant model to discriminate the object included in the calculated captured image.
  • An image identification system includes a mask having a changeable mask pattern in which a plurality of pinholes are formed and an image sensor, and captures a computationally captured image that is an image with blur.
  • a first camera an image identification unit that identifies the calculated captured image using an identification model that uses the calculated captured image captured by the first camera as input data and a identification result as output data; a mask identification unit that identifies the modified mask pattern after the mask pattern is modified; and an identification model modification unit that modifies the identification model according to the mask pattern identified by the mask identification unit.
  • the identification model is changed according to the changed mask pattern. A decrease in accuracy can be prevented. Furthermore, by changing the mask pattern of the mask, it is possible to change the degree of blurring of the calculated captured image captured by the first camera, thereby reducing the psychological burden on the user while protecting the privacy of the subject. can do.
  • the image identification system described in (1) above may further include a mask changing unit that changes the mask pattern of the mask.
  • the accuracy of changing the mask pattern can be improved by mechanically changing the mask pattern of the mask.
  • the first camera is a multi-pinhole camera
  • the mask is a multi-pinhole mask in which a plurality of masks are superimposed
  • the plurality of masks may have mask patterns different from each other, and the mask pattern of the multi-pinhole mask may be changed when at least one of the plurality of masks is removed.
  • the first camera is a multi-pinhole camera
  • the mask is a multi-pinhole mask obtained by stacking a plurality of masks
  • the plurality of masks have mask patterns different from each other, and at least one of the plurality of pinholes formed in one mask of the plurality of masks is formed in another mask of the plurality of masks. It may be shielded by a mask.
  • the first camera is a multi-pinhole camera
  • the mask is a multi-pinhole mask in which a plurality of masks are superimposed
  • the plurality of masks have mask patterns different from each other, and at least one of the plurality of pinholes formed in one mask of the plurality of masks is formed in another mask of the plurality of masks. It may be at the same position as at least one of the plurality of pinholes formed in the mask.
  • pinholes can be reliably formed in a multi-pinhole mask in which a plurality of masks are stacked.
  • the size of the one pinhole included in the one mask is the size of another pinhole included in the other mask located at the same position as the one pinhole. may differ from the size of
  • the mask identification unit extracts a mask related to the mask pattern from the calculated captured image captured by the first camera. Information may be obtained and the mask pattern of the mask may be identified based on the obtained mask information.
  • the changed mask pattern can be identified from the calculated captured image captured by the first camera.
  • the modified mask pattern can be identified using the point spread function.
  • the image identification system according to any one of (1) to (6) above, further comprising a mask identification information obtaining unit for obtaining mask identification information for identifying the mask, The unit may identify the mask pattern of the mask based on the obtained mask identification information.
  • the changed mask pattern can be identified from the mask ID information provided on the mask.
  • the mask includes a first mask and a second mask superimposed on the first mask; a marker position specifying unit that specifies positions of a plurality of markers formed on each of the first mask and the second mask in order to detect a rotation angle of the first mask with respect to the second mask; may detect a rotation angle of the first mask with respect to the second mask based on the identified positions of the plurality of markers, and identify the mask pattern of the mask based on the detected rotation angle.
  • the changed mask pattern can be identified from the rotation angle of the first mask with respect to the second mask, which is detected based on the positions of the markers provided on the mask.
  • the image identification system according to any one of (1) to (10) above, further comprising a storage unit that stores a plurality of mask patterns and a plurality of identification models in association with each other;
  • the changing unit identifies, from among the plurality of identification models stored in the storage unit, an identification model associated with the mask pattern identified by the mask identification unit, and converts the identification model to the identified identification model.
  • the current discriminant model may be changed.
  • the image identification system according to any one of (1) to (10) above, further comprising a second camera that captures an image without blur or an image with less blur than the first camera. Acquiring the photographed first learning image and the correct label assigned to the first learning image, and based on the mask pattern identified by the mask identifying unit and the first learning image generating a blurred second training image, and performing machine learning using the second training image and the correct label to identify the calculated captured image captured by the first camera.
  • a learning unit that creates a discriminant model for the learning unit, and the discriminant model changing unit may change the current discriminant model to the discriminant model created by the learning unit.
  • the present disclosure can be realized not only as an image identification system having the characteristic configuration as described above, but also an image identification method for executing characteristic processing corresponding to the characteristic configuration of the image identification system. It can also be realized as Also, it can be implemented as a computer program that causes a computer to execute characteristic processing included in such an image identification method. Therefore, the following other aspects can also produce the same effects as the image identification system described above.
  • An image identification method is an image identification method in an image identification system, which includes a mask having a changeable mask pattern in which a plurality of pinholes are formed, and an image sensor.
  • a discrimination model is used in which a calculated captured image that is an image with blur captured by one camera is acquired, the calculated captured image captured by the first camera is used as input data, and a recognition result is used as output data. to identify the calculated captured image, identify the modified mask pattern after the mask pattern is modified, and modify the identification model according to the identified mask pattern.
  • An image identification program provides a blurred image captured by a first camera including a mask having a changeable mask pattern with a plurality of pinholes and an image sensor. is obtained, the calculated captured image captured by the first camera is used as input data, the identification result is used as output data to identify the calculated captured image, and the mask After the pattern is modified, a computer is operated to identify the modified mask pattern and modify the identification model in response to the identified mask pattern.
  • a computer-readable non-transitory recording medium records an image identification program, and the image identification program includes a changeable mask in which a plurality of pinholes are formed.
  • FIG. 1 is a block diagram showing an example of the configuration of an image identification system 1 according to Embodiment 1 of the present disclosure.
  • the image identification system 1 of Embodiment 1 includes a first camera 101, a storage unit 102 that stores identification models, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, an output unit 107 and a light emitting unit 108 .
  • the mask identifying unit 105, the identification model changing unit 106, and the image identifying unit 103 include a processor such as a CPU (Central Processing Unit) and a memory such as a semiconductor memory.
  • the storage unit 102 is a HDD (Hard Disk Drive), an SSD (Solid State Drive), a semiconductor memory, or the like.
  • the output unit 107 is a display device, a speaker, or the like.
  • the image identification system 1 includes, for example, an image identification device including a storage unit 102, an image identification unit 103, a mask identification unit 105, and an identification model change unit 106, and includes a first camera 101 and an output unit 107. , and the light emitting unit 108 may be connected to the image identification device. Also, the image identification device may be a server.
  • the image identification system 1 includes, for example, a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, and an output unit 107. A device may be included, and the light emitting unit 108 may be connected to the image identification device.
  • FIG. 2 is a flowchart showing an example of the image identification processing procedure of the image identification system 1 according to the first embodiment.
  • the flow chart shows the flow of image identification processing by the image identification system 1 .
  • the first camera 101 captures a calculated captured image that is a blurry image (step S101).
  • the subject cannot be recognized even if a person looks at the image itself due to the blurring that is intentionally created. It is an image from which the unit 103 can generate an identifiable image.
  • a first camera 101 includes a mask having a changeable mask pattern in which a plurality of pinholes are formed, and an image sensor.
  • the first camera 101 includes a coded aperture camera equipped with a mask having a mask pattern with a different transmittance for each area, and a mask having a mask pattern with a plurality of pinholes formed on the light receiving surface of the image sensor. Any of the arrayed multi-pinhole cameras. Multi-pinhole cameras have been used in conventional literature (e.g., M.
  • the mask pattern of the mask has a changeable configuration.
  • FIG. 3 is a schematic diagram showing an example of a lensless multi-pinhole camera 301 in the first embodiment.
  • the multi-pinhole camera 301 is an example of the first camera 101.
  • a multi-pinhole camera 301 shown in FIG. 3 has a multi-pinhole mask 301a and an image sensor 301b.
  • the multi-pinhole mask 301a is arranged at a fixed distance from the image sensor 301b.
  • the multi-pinhole mask 301a has a plurality of pinholes 301aa arranged at random or at regular intervals.
  • the multiple pinholes 301aa are also called multi-pinholes.
  • the image sensor 301b acquires an image of the subject through each pinhole 301aa. An image acquired through the pinhole 301aa is also called a pinhole image.
  • the image sensor 301b acquires a superimposed image in which a plurality of pinhole images are slightly shifted and overlapped (multiple image).
  • the positions of the pinholes 301aa affect the position of the subject projected onto the image sensor 301b, and the size of the pinholes 301aa affects the degree of blurring of the pinhole image.
  • the multi-pinhole mask 301a By using the multi-pinhole mask 301a, it is possible to superimpose and acquire a plurality of pinhole images with different positions and degrees of blurring.
  • the multi-pinhole camera 301 can acquire a calculated captured image in which multiple images and blur are intentionally created. Therefore, the captured image is a superimposed image, and the multi-pinhole camera 301 can acquire a blurred image in which the privacy of the subject is protected. Also, by changing the number, position, and size of each pinhole, it is possible to acquire images with different blurring.
  • the image identification unit 103 performs identification processing on the calculated captured image captured by the first camera 101 (step S102).
  • the image identification unit 103 uses the identification model, which is the learning result of the learning device, to determine the person (including the behavior or facial expression of the person) included in the calculated captured image captured by the first camera 101 . ), object category information such as automobiles, bicycles, or traffic lights, and object location information.
  • machine learning such as Deep Learning using a multi-layer neural network can be used.
  • the image identification unit 103 identifies the calculated captured image using an identification model in which the calculated captured image captured by the first camera 101 is input data and the identification result is output data.
  • the output unit 107 outputs the result of identification by the image identification unit 103 (step S103).
  • the output unit 107 has an interface unit, and may present the identification result to the user in the form of an image, text, voice, or the like. Also, the output unit 107 may have a device control unit and change the control method according to the identification result.
  • FIG. 4 is a flowchart showing an example of the main processing procedure of the image identification system 1 when the mask pattern is changed in the first embodiment.
  • the mask identification unit 105 identifies the mask pattern of the mask of the first camera 101 (step S202). Note that the process of step S202 may be performed periodically, for example, every minute. The mask identification unit 105 identifies the changed mask pattern after the mask pattern is changed.
  • the input unit included in the image identification system may accept an input of a mask pattern identification instruction by the user. Then, when the input of the mask pattern identification instruction is accepted, the mask identification unit 105 may identify the changed mask pattern.
  • the image identification system 1 may have an input section instead of the light emitting section 108 .
  • the mask identification unit 105 may determine whether or not the point spread function in the image captured by the first camera 101 has changed. Then, when the point spread function has changed, the mask identification unit 105 may determine that the mask pattern has changed, and identify the changed mask pattern.
  • the identification model change unit 106 changes the identification model according to the mask pattern identified by the mask identification unit 105 (step S203).
  • the identification model changing unit 106 changes the identification model according to the mask pattern identified by the mask identification unit 105.
  • the storage unit 102 stores in advance a plurality of mask patterns and a plurality of identification models associated with each other.
  • Discriminant model changing unit 106 identifies a discriminant model associated with the mask pattern discriminated by mask discriminating unit 105 from a plurality of discriminant models stored in storage unit 102 .
  • the identification model changing unit 106 changes the current identification model used by the image identification unit 103 to the specified identification model, and stores the changed identification model in the storage unit 102 .
  • the storage unit 102 may store in advance a plurality of pieces of mask information and a plurality of identification models in association with each other.
  • Mask information is, for example, a point spread function.
  • the discriminant model changing unit 106 may identify a discriminant model associated with the mask information acquired by the mask discriminating unit 105 from among the plurality of discriminant models stored in the storage unit 102 .
  • the discriminative model changing unit 106 selects the point spread function that is most similar to the point spread function acquired by the mask discriminating unit 105 from among the plurality of discriminative models stored in the storage unit 102. A discriminative model associated with the point spread function may be identified. The discriminative model changing unit 106 determines the correlation (similarity) between the acquired point spread function and a pre-stored point spread function, thereby specifying the point spread function most similar to the acquired point spread function. can be done.
  • the multi-pinhole mask 301a corresponding to the mask of the first camera 101 has a structure in which a plurality of masks are superimposed.
  • the user changes the mask pattern of the multi-pinhole mask 301a by, for example, removing at least one of the multiple masks arranged in an overlapping manner.
  • the first camera 101 is a multi-pinhole camera 301
  • the mask is a multi-pinhole mask 301a in which a plurality of masks are superimposed, and the plurality of masks have mask patterns different from each other. are doing.
  • the mask pattern of multi-pinhole mask 301a is changed.
  • FIG. 5 to 7 are schematic diagrams for explaining an example of a plurality of masks forming a multi-pinhole mask in the first embodiment.
  • FIG. 5 is a diagram showing an example of a mask 400a having nine pinholes in the first embodiment
  • FIG. 6 is an example of a mask 400b having five pinholes in the first embodiment
  • FIG. 7 is a diagram showing an example of a mask 400c having one pinhole in the first embodiment.
  • the sizes of the nine pinholes 401a to 409a shown in FIG. 5 may be the same, or the size of one of the nine pinholes may differ from the size of the other pinholes. This point also applies to the five pinholes 401b to 405b shown in FIG.
  • the sizes of the nine pinholes 401a to 409a shown in FIG. 5 are the same as the size of the five pinholes 401b to 405b shown in FIG. 6 and the size of one pinhole 401c shown in FIG. may be different.
  • the positions of the pinholes 401a, 401b, and 401c are aligned, the positions of the pinholes 402a and 402b are aligned, and the pinholes 403a and 403b are aligned. are aligned, the positions of the pinholes 404a and 404b are aligned, and the positions of the pinholes 405a and 405b are aligned.
  • the positions of the pinholes 402a to 405a of the mask 400a and the positions of the pinholes 402b to 405b of the mask 400b are fixed so as to match the shielding portion of the mask 400c where the pinhole 401c is not formed.
  • the four pinholes 406a to 409a located at positions different from the pinholes 402b to 405b are pinholes in the mask 400b.
  • 401b to pinhole 405b are fixed so as to match the shielding portion where the pinholes 405b are not formed.
  • At least one of the plurality of pinholes formed in one mask out of the plurality of masks matches at least one of the plurality of pinholes formed in the other mask out of the plurality of masks. , at the same position. At least one of the plurality of pinholes formed in one of the plurality of masks is blocked by another mask of the plurality of masks.
  • a multi-pinhole mask 301a in which three masks 400a, 400b, and 400c are stacked as described above has one pinhole formed by pinholes 401a, 401b, and 401c. Therefore, it can be said that the multi-pinhole mask 301a in which the three masks 400a, 400b, and 400c are stacked has a mask pattern in which one pinhole is formed.
  • the thickness of each of the three masks 400a, 400b, and 400c is sufficiently small, a single pinhole is formed in the multi-pinhole mask 301a in which the three masks 400a, 400b, and 400c are stacked. This mask is substantially the same as the mask 400c shown in FIG.
  • the multi-pinhole mask 301a in which the three masks 400a, 400b, and 400c are superimposed, when the mask 400c is removed by the user, the multi-pinhole mask 301a has a configuration in which the two masks 400a and 400b are superimposed. Become.
  • a multi-pinhole mask 301a in which two masks 400a and 400b are stacked has (1) pinholes formed by pinholes 401a and 401b and (2) pinholes formed by pinholes 402a and 402b. , (3) pinholes formed by pinholes 403a and 403b, (4) pinholes formed by pinholes 404a and 404b, and (5) pinholes formed by pinholes 405a and 405b. pinholes are formed. Therefore, it can be said that the multi-pinhole mask 301a in which the two masks 400a and 400b are superimposed has a mask pattern in which five pinholes are formed.
  • the multi-pinhole mask 301a in which the two masks 400a and 400b are superimposed is a mask in which five pinholes are formed. It can be said that it is substantially the same as the mask 400b shown in FIG.
  • the mask pattern of the multi-pinhole mask 301a changes from the mask pattern in which one pinhole is formed to five pinholes.
  • the formed mask pattern is changed.
  • the multi-pinhole mask 301a in which two masks 400a and 400b are superimposed, when the mask 400b is removed by the user, the multi-pinhole mask 301a consists of only the mask 400a.
  • the multi-pinhole mask 301a composed of one mask 400a is a mask with nine pinholes, that is, the mask 400a having the mask pattern with nine pinholes shown in FIG. Become.
  • the mask pattern of the multi-pinhole mask 301a is changed from the mask pattern in which 5 pinholes are formed to 9 pinholes. changed to the mask pattern.
  • the masks 400a, 400b and 400c are fixed with a detachable adhesive like a seal, and the mask 400b and the mask 400c are manually removed by the user. may be peeled off from the mask 400a to change the mask pattern.
  • the user may change the mask pattern by adding masks instead of removing some of the masks.
  • the mask 400a formed with nine pinholes shown in FIG. and pinhole 402b are aligned
  • pinhole 403a and pinhole 403b are aligned
  • pinhole 404a and pinhole 404b are aligned
  • pinhole 405a and pinhole 405b are aligned.
  • Mask 400b may be affixed to mask 400a in a matching manner.
  • the multi-pinhole mask 301a has a structure in which the two masks 400a and 400b are stacked, and it can be said that this multi-pinhole mask 301a has a mask pattern in which five pinholes are formed as described above.
  • the multi-pinhole mask 301a in which the two masks 400a and 400b are superimposed is a mask in which five pinholes are formed. It can be said that it is substantially the same as the mask 400b shown in FIG.
  • the user fixes the mask 400c to the mask 400b so that the positions of the pinholes 401a, 401b, and 401c are aligned.
  • the multi-pinhole mask 301a has a configuration in which three masks 400a, 400b and 400c are superimposed. That is, it can be said that it is substantially the same as the mask 400c shown in FIG.
  • the user may change the mask pattern by replacing one of the multiple masks instead of removing one mask.
  • the mask 400a formed with nine pinholes shown in FIG. 5 installed as the multi-pinhole mask 301a
  • the user changes the mask 400a to the mask 400b shown in FIG.
  • the mask pattern of the mask 301a can be changed from a mask pattern in which nine pinholes are formed to a mask pattern in which five pinholes are formed.
  • the size of one pinhole included in one of the plurality of masks is different from that of the other mask at the same position as the above-described one pinhole among the plurality of masks.
  • the present disclosure is not specifically limited to this.
  • the size of one pinhole included in one mask among the plurality of masks is the size of another pinhole included in another mask at the same position as the one pinhole described above. may differ in size.
  • five pinholes from pinhole 401b to pinhole 405b are formed in mask 400b, and the positions of the five pinholes in mask 400a, that is, the positions from pinhole 401a to pinhole 405a are the pins of mask 400b.
  • the size of at least one of the five pinholes in the mask 400a is at the same position as the pinhole in the mask 400b. It may be formed to be larger than the size of a certain pinhole. As a result, the mask pattern of the multi-pinhole mask in which the masks 400a and 400b are overlapped can be made different from the mask pattern of the multi-pinhole mask composed only of the mask 400a.
  • the user may change the mask pattern by rotating one of the multiple masks instead of removing one of the multiple masks.
  • FIGS. 8 and 9 are schematic diagrams for explaining an example of a plurality of masks forming the multi-pinhole mask 301a in Modification 1 of Embodiment 1.
  • FIG. FIG. 8 is a diagram showing an example of a mask 400d having six pinholes in Modification 1 of Embodiment 1
  • FIG. 4A is a diagram showing an example of a mask 400e having two openings
  • FIG. 10 is a diagram showing an example of a multi-pinhole mask 301a having six pinholes in which two masks 400d and 400e are overlapped in Modification 1 of Embodiment 1
  • FIG. 12 is a diagram showing an example of a multi-pinhole mask 301a having four pinholes in which two masks 400d and 400e are overlapped in Modification 1 of Embodiment 1.
  • FIG. FIG. 10 is a diagram showing an example of a multi-pinhole mask 301a having two pinholes formed by stacking two masks 400d and 400e in Modification 1;
  • the multi-pinhole mask 301a has a configuration in which the mask 400d shown in FIG. 8 and the mask 400e shown in FIG. 9 are superimposed, and the mask 400d is configured to be rotatable.
  • the mask 400e is fixed.
  • a plurality of pinholes 411 to 416 corresponding to the multi-pinholes are formed in the mask 400d.
  • Fan-shaped openings 417 and 418 are formed in the mask 400e.
  • the fan-shaped openings 417 and 418 have a central angle of 90 degrees, and the radii of the openings 417 and 418 substantially match the radius of the circular mask 400e.
  • the openings 417 and 418 are formed to be symmetrical with respect to the central point of the mask 400e.
  • the multi-pinhole mask 301a has a mask pattern in which six pinholes are formed.
  • the two masks 400d and 400e overlap as shown in FIG.
  • the pinholes 412, 143, 414, and 415 of the mask 400d are aligned with the openings 417 and 418 (two fan-shaped regions indicated by white dotted lines) of the mask 400e located on the far side of the paper surface of the mask 400d.
  • the pinholes 411 and 416 of the mask 400d overlap the shielding portions of the mask 400e. Therefore, the multi-pinhole mask 301a shown in FIG. 11 has a mask pattern in which four pinholes are formed. That is, by rotating the mask 400d in the multi-pinhole mask 301a shown in FIG. The mask pattern is changed to a pinhole-formed mask pattern.
  • the multi-pinhole mask 301a has a mask pattern in which two pinholes are formed. That is, by rotating the mask 400d in the multi-pinhole mask 301a shown in FIG. is changed to a mask pattern in which pinholes are formed.
  • the mask 400d may be fixed and the mask 400e may be rotatable. Also, both the mask 400d and the mask 400e may be rotatable.
  • FIG. 13 the configuration of the multi-pinhole camera 301 in which the user can arbitrarily rotate the mask in Modification 1 of Embodiment 1 will be described with reference to FIGS. 13 to 16.
  • FIG. 13 the configuration of the multi-pinhole camera 301 in which the user can arbitrarily rotate the mask in Modification 1 of Embodiment 1 will be described with reference to FIGS. 13 to 16.
  • FIG. 13 is a schematic diagram showing the appearance of multi-pinhole camera 301 in Modification 1 of Embodiment 1
  • FIG. 14 is a cross-sectional view of multi-pinhole camera 301 in Modification 1 of Embodiment 1. It is a schematic diagram showing.
  • FIG. 13 is a side view of the multi-pinhole camera 301.
  • FIG. A multi-pinhole camera 301 shown in FIG. 14 shows a cross section of the multi-pinhole camera 301 shown in FIG.
  • the multi-pinhole camera 301 has a multi-pinhole mask 301a in which a rotatable mask 400d and a non-rotatable mask 400e are superimposed on the housing 501 thereof.
  • a user-operable grip 502 is connected to the rotatable mask 400d. Further, the user can fix or rotate the mask 400 d with respect to the housing 501 by gripping and operating the grip portion 502 .
  • a screw may be provided in the grasping portion 502, the mask 400d may be fixed by tightening the screw, and the mask 400d may be rotatable by loosening the screw.
  • FIG. 15 is a schematic diagram showing a mask 400d before rotating the grip part 502 by 90 degrees in Modification 1 of Embodiment 1.
  • FIG. 16 is a schematic diagram showing the mask 400d when the grip portion 502 is rotated by 90 degrees in Modification 1 of Embodiment 1.
  • FIG. 15 and 16 are diagrams of the multi-pinhole camera 301 viewed from the object side.
  • the mask 400d rotates by 90 degrees.
  • the user can rotate the mask 400d by moving the grip portion 502. FIG.
  • the mask pattern of the multi-pinhole mask 301a can be changed.
  • the plurality of pinholes of the multi-pinhole mask 301a are arranged with respect to a vertical line passing through the rotation axis of the mask 400d, as shown in FIG. They may be arranged so as not to be rotationally symmetrical. By arranging a plurality of pinholes asymmetrically in this manner, various mask patterns can be realized by the user rotating the mask 400d.
  • the configuration of the multi-pinhole camera 301 whose mask can be arbitrarily rotated by the user may be a configuration that does not have the grip portion 502 .
  • Another configuration of the multi-pinhole camera 301 in which the mask can be arbitrarily rotated by the user in Modification 2 of Embodiment 1 will be described with reference to FIGS. 17 to 20.
  • FIG. 17 is a schematic diagram showing the appearance of multi-pinhole camera 301 in Modification 2 of Embodiment 1
  • FIG. 18 is a cross-sectional view of multi-pinhole camera 301 in Modification 2 of Embodiment 1. It is a schematic diagram showing.
  • FIG. 17 is a side view of the multi-pinhole camera 301.
  • FIG. A multi-pinhole camera 301 shown in FIG. 18 shows a cross section of the multi-pinhole camera 301 shown in FIG.
  • the multi-pinhole camera 301 has a multi-pinhole mask 301a composed of a rotatable mask 400d and a non-rotatable mask 400e.
  • a rotatable mask 400 d is fixed to the first lens barrel 511 .
  • the image sensor 301b and the non-rotating mask 400d are installed in a second lens barrel 512 different from the first lens barrel 511 .
  • the first lens barrel 511 and the second lens barrel 512 are in a rotatable state due to the configuration of screws. That is, a second lens barrel 512 is provided outside the first lens barrel 511, and a male screw is provided on the outside of the first lens barrel 511 and a female screw is provided on the inside of the second lens barrel 512, which is a joining portion.
  • a fixture 513 is first attached to the male screw of the first barrel 511, and then the second barrel 512 is attached. Similarly to the second barrel 512, the fixture 513 also has a female thread. With such a configuration, when screwing the first lens barrel 511 into the second lens barrel 512, the depth of screwing changes depending on the screwing position of the fixing member 513 into the first lens barrel 511, thereby enabling rotation. The rotation angle of the mask 400d can be changed.
  • 19 and 20 are schematic diagrams showing that the screwing depth changes depending on the screwing position of the fixture 513 into the first lens barrel 511, and the rotation angle of the rotatable mask 400d changes.
  • FIG. 19 is a schematic diagram showing a cross section of multi-pinhole camera 301 when fixture 513 is screwed all the way into first lens barrel 511 in Modification 2 of Embodiment 1
  • FIG. 10 is a schematic diagram showing a cross section of a multi-pinhole camera 301 in a case where a fixture 513 is screwed only halfway into a first lens barrel 511 in Modification 2 of Embodiment 1;
  • the second lens barrel 512 can be screwed all the way into the first lens barrel 511.
  • the second barrel 512 can only be screwed into the first barrel 511 halfway. Therefore, depending on the screwing position of the fixture 513 into the first lens barrel 511, the screwing depth changes, and the rotation angle of the rotatable mask 400d can be changed.
  • the multi-pinhole mask may be realized by the user making arbitrary holes in the mask.
  • FIG. 21 is a schematic diagram showing a cross section of a multi-pinhole camera 301 according to Modification 3 of Embodiment 1.
  • FIG. 21 the same reference numerals are given to the same components as those in FIGS. 13 to 16, and the description thereof is omitted.
  • a multi-pinhole camera 301 in Modification 3 of Embodiment 1 has an image sensor 301b and a mask 301ab attached in front of the image sensor 301b. The user can make holes at arbitrary locations on the mask 301ab. No pinholes are initially present in mask 301ab.
  • a user can create a multi-pinhole mask with an arbitrary mask pattern by punching holes in arbitrary plural positions in the mask 301ab with a needle or the like.
  • FIG. 22 is a block diagram showing an example of the configuration of an image identification system 1B according to Modification 4 of Embodiment 1 of the present disclosure.
  • the same components as those of the image identification system 1 shown in FIG. 22 are identical components as those of the image identification system 1 shown in FIG. 22.
  • the image identification system 1B includes a first camera 101, a storage unit 102 for storing an identification model, an image identification unit 103, a mask change unit 104, a mask identification unit 105, an identification model change unit 106, and an output unit. 107 and an input unit 109 .
  • the image identification system 1B includes, for example, an image identification device including a storage unit 102, an image identification unit 103, a mask change unit 104, a mask identification unit 105, and an identification model change unit 106, and a first camera 101, the output unit 107, and the input unit 109 may be connected to the image identification device.
  • the image identification device may be a server.
  • the image identification system 1B includes, for example, a first camera 101, a storage unit 102, an image identification unit 103, a mask change unit 104, a mask identification unit 105, an identification model change unit 106, and an output unit 107. , and an input unit 109 .
  • the image identification device included in the image identification system 1B may be configured to be connected to the light emitting unit 108 shown in FIG. More specifically, for example, the mask identifying unit 105 may be connected to the light emitting unit 108 .
  • the multi-pinhole mask 301a is composed of a spatial light modulator 520 whose hole position and size can be arbitrarily changed.
  • the mask changer 104 changes the positions and sizes of the holes of the multi-pinhole mask 301a.
  • Such a multi-pinhole mask 301a can be realized by a liquid crystal on silicon (LCOS) or a spatial light modulator such as a spatial light phase modulator.
  • LCOS liquid crystal on silicon
  • a spatial light modulator such as a spatial light phase modulator.
  • the mask changing unit 104 changes the mask pattern of the mask.
  • the input unit 109 accepts user input for changing the mask pattern of the mask.
  • the user inputs the positions and sizes of the multiple pinholes of the multi-pinhole mask 301a to the input unit 109.
  • FIG. the input unit 109 may accept a user's selection of one mask pattern from among a plurality of mask patterns.
  • a user may select one mask pattern from a plurality of mask patterns.
  • the mask changing unit 104 instructs the first camera 101 to change the mask pattern of the multi-pinhole mask 301a according to the positions and sizes of the pinholes received by the input unit 109.
  • a spatial light modulator 520 of the first camera 101 changes the positions and sizes of a plurality of pinholes according to instructions from the mask changing unit 104 .
  • FIG. 23 is a flow chart showing an example of the procedure of main processing of the image identification system 1B when the mask pattern is changed in the fourth modification of the first embodiment.
  • the mask changing unit 104 changes the mask pattern of the first camera 101 (step S201).
  • the mask changing unit 104 notifies the mask identifying unit 105 of the changed mask pattern, that is, the positions and sizes of the plurality of pinholes.
  • the mask identification unit 105 identifies the mask pattern of the mask of the first camera 101 (step S202).
  • the mask identifying unit 105 identifies the mask pattern of the mask based on the changed mask pattern notified from the mask changing unit 104 .
  • FIG. 24 is a schematic diagram showing a cross section of a multi-pinhole camera 301 according to Modification 4 of Embodiment 1.
  • the multi-pinhole camera 301 uses the spatial light modulator 520 to arbitrarily set the transmittance at each position within the mask.
  • the spatial light modulator 520 is composed of liquid crystal, for example, and can change the transmittance of each pixel.
  • This spatial light modulator 520 functions as the multi-pinhole mask 301a.
  • the transmittance is changed by the spatial light modulator control section (mask changing section 104). Therefore, various mask patterns (multi-pinhole patterns) can be realized by the user selecting an arbitrary pattern from a plurality of transmittance patterns prepared in advance.
  • the mask changing unit 104 may change the mask pattern by applying an external force to the multi-pinhole mask 301a to deform the mask. 25 to 31, the multi-pinhole camera 301 configured to deform the mask by applying an external force in Modification 5 of Embodiment 1 will be described.
  • the configuration of the image identification system in Modification 5 of Embodiment 1 is the same as the configuration of image identification system 1B in Modification 4 of Embodiment 1.
  • FIG. 25 is a schematic diagram showing a cross section of a multi-pinhole camera 301 according to Modification 5 of Embodiment 1.
  • FIG. The multi-pinhole camera 301 according to Modification 5 of Embodiment 1 deforms the mask by applying an external force.
  • the same reference numerals are given to the same components as in FIG. 21, and the description thereof is omitted.
  • FIG. 26 is a schematic diagram showing an example of a first mask 301a1 constituting a multi-pinhole mask 301ac according to Modification 5 of Embodiment 1
  • FIG. FIG. 28 is a schematic diagram showing an example of a second mask 301a2 forming a pinhole mask 301ac
  • FIG. 28 shows an example of a third mask 301a3 forming a multi-pinhole mask 301ac according to Modification 5 of the first embodiment. It is a schematic diagram.
  • FIG. 29 is a schematic diagram showing an example of a multi-pinhole mask 301ac in which a first mask 301a1, a second mask 301a2, and a third mask 301a3 are superimposed in the fifth modification of the first embodiment.
  • FIG. 30 is a schematic diagram showing an example of the multi-pinhole mask 301ac when an external force is applied to the multi-pinhole mask 301ac in Modification 5 of the first embodiment.
  • FIG. 31 is a schematic diagram showing an example of the multi-pinhole mask 301ac when an external force is further applied to the multi-pinhole mask 301ac in Modification 5 of the first embodiment.
  • the multi-pinhole mask 301ac has a configuration in which a first mask 301a1, a second mask 301a2 and a third mask 301a3 are layered.
  • a multi-pinhole camera 301 which is an example of the first camera 101, has a driving unit that independently applies an external force to each of the first mask 301a1, the second mask 301a2, and the third mask 301a3.
  • each mask has a shape in which a fan shape and a ring shape are combined.
  • this configuration is only an example, and the shape is not limited to the fan shape, and the number of the plurality of masks forming the multi-pinhole mask 301ac is not limited to three.
  • Each mask has one or more pinholes. Also, the mask does not have to have pinholes.
  • the first mask 301a1 has two pinholes 301aa1 and 301aa2.
  • the second mask 301a2 has one pinhole 301aa3.
  • the third mask 301a3 has two pinholes 301aa4 and 301aa5.
  • the drive unit creates various mask patterns by moving these three masks by applying an external force.
  • the mask change unit 104 instructs the first camera 101 to change the mask pattern of the multi-pinhole mask 301ac according to the number and positions of the pinholes received by the input unit 109 .
  • the driving unit of the first camera 101 applies an external force to the multiple masks according to instructions from the mask changing unit 104, and changes the number and positions of the multiple pinholes of the multi-pinhole mask 301ac.
  • FIGS. 29, 30 and 31 show three types of multi-pinhole masks 301ac composed of a first mask 301a1, a second mask 301a2 and a third mask 301a3.
  • the multi-pinhole mask 301ac shown in FIGS. 29 and 30 has five pinholes
  • the multi-pinhole mask 301ac shown in FIG. 31 has four pinholes.
  • Such a mask driving unit is realized by an ultrasonic motor or a linear motor widely used for autofocusing.
  • the number or positions of pinholes in the multi-pinhole mask 301ac can be changed by applying an external force.
  • an external force is applied to the multi-pinhole mask 301ac shown in FIG. 29
  • the positions of the pinholes 301aa1, 301aa2, 301aa3 change as shown in FIG.
  • the pinholes 301aa2 are shielded by the third mask 301a3.
  • the number of pinholes in the multi-pinhole mask 301ac is changed to four, as shown in FIG.
  • the mask changing unit 104 may change not only the number or positions of the pinholes of the multi-pinhole mask, but also the sizes of the pinholes.
  • FIG. 32 is a schematic diagram for explaining the configuration of a multi-pinhole mask 301ad according to Modification 6 of Embodiment 1.
  • FIG. The configuration of the multi-pinhole mask 301ad in the multi-pinhole camera 301 is such that the mask is deformed by applying an external force.
  • the multi-pinhole mask 301ad has a plurality of pinholes and is made of an elastic material.
  • the multi-pinhole mask 301ad has, for example, three pinholes.
  • a multi-pinhole camera 301 which is an example of the first camera 101, has a plurality of independently controllable drive units 521-524. Of course, the number of drives need not be four.
  • the mask changing unit 104 can change the positions or sizes of the plurality of pinholes in the multi-pinhole mask 301ad by moving each driving unit.
  • the mask change unit 104 instructs the first camera 101 to change the mask pattern of the multi-pinhole mask 301ad according to the positions and sizes of the pinholes received by the input unit 109 .
  • a driving unit of the first camera 101 applies an external force to the multi-pinhole mask 301ad according to an instruction from the mask changing unit 104 to change the positions and sizes of the multiple pinholes of the multi-pinhole mask 301ad. .
  • FIG. 33 is a schematic diagram showing the state of the multi-pinhole mask 301ad when the four drive units 521 to 524 are moved in the same direction in the sixth modification of the first embodiment.
  • the directions of the arrows shown in the driving portions 521-524 indicate the respective driving directions of the driving portions 521-524.
  • the driving directions of the driving units 521 to 524 are the same. Therefore, the multi-pinhole mask 301ad is translated in the driving direction. As a result, the three pinholes of the multi-pinhole mask 301ad are also translated in the driving direction.
  • the number and positions of the plurality of pinholes of the multi-pinhole mask 301ad may be changed by translating the multi-pinhole mask 301ad in the driving direction.
  • the number of pinholes may increase by moving pinholes outside the imaging range into the imaging range.
  • the number of holes may be reduced.
  • FIG. 34 shows the state of the multi-pinhole mask 301ad when the four drive units 521 to 524 are moved outward from the center of the multi-pinhole mask 301ad in the sixth modification of the first embodiment. It is a schematic diagram showing.
  • Such driving units 521 to 524 are realized by ultrasonic motors or linear motors widely used for autofocus. In this manner, the position or size of the pinholes in the multi-pinhole mask 301ad can be changed by applying an external force.
  • the multi-pinhole camera 301 is a driving unit that inserts at least one of a plurality of masks in front of the image sensor 301b and removes at least one of the plurality of masks from the front of the image sensor 301b.
  • the mask changing unit 104 may control the driving unit according to an instruction from the input unit 109 to change the number of multiple masks forming the multi-pinhole mask.
  • the drive section may move at least one of the masks 400b and 400c.
  • the mask changing unit 104 may control the driving unit to move at least one of the mask 400b and the mask 400c according to the mask pattern to be changed.
  • the mask changing unit 104 changes the mask pattern of the multi-pinhole mask 301a by inserting or removing at least one of the two masks 400b and 400c in front of the image sensor 301b. You may
  • the multi-pinhole camera 301 may include a drive that rotates at least one of the multiple masks.
  • the mask changing unit 104 may control the driving unit according to an instruction from the input unit 109 to rotate at least one of the multiple masks that constitute the multi-pinhole mask.
  • the driving section may rotate the mask 400d.
  • the mask changing unit 104 may control the driving unit to rotate the mask 400d at a rotation angle corresponding to the mask pattern to be changed.
  • the mask changing unit 104 may change the mask pattern of the multi-pinhole mask 301a by rotating the mask 400d out of the two masks 400d and 400e.
  • the mask identification unit 105 acquires the point spread function (PSF) of the multi-pinhole mask 301a from the image captured by the first camera 101, thereby identifying the mask pattern of the mask. I don't mind.
  • PSF is the transfer function of the first camera 101, such as a multi-pinhole camera or a coded aperture camera, and is expressed by Equation (1) below.
  • y k*x (1)
  • y represents the blurred calculated captured image captured by the first camera 101
  • k represents the PSF
  • x represents the unblurred scene captured by the first camera 101.
  • * is a convolution operator.
  • the mask identification unit 105 acquires mask information related to the mask pattern from the calculated captured image captured by the first camera 101, and identifies the mask pattern of the mask based on the acquired mask information.
  • the mask identifying unit 105 acquires a point spread function as mask information from an image including the light emitting unit 108 captured by the first camera 101 .
  • FIG. 35 is a flowchart showing an example of the main processing procedure of the mask identification unit 105 according to the first embodiment.
  • the mask identifying unit 105 instructs the light emitting unit 108 existing in the imaging environment to turn on (step S301).
  • the light emitting unit 108 is a light source that can be regarded as a point light source that exists in the environment, and is, for example, an LED (Light Emitting Diode) mounted on an electrical device or an illumination LED. Alternatively, the light emitting unit 108 may light only a part of a monitor such as an LED monitor.
  • the light emitting unit 108 performs lighting according to the lighting instruction from the mask identifying unit 105 (step S302).
  • the mask identification unit 105 instructs the first camera 101 to take an image (step S303). Thereby, the first camera 101 can capture an image of the lit light emitting unit 108 .
  • the first camera 101 captures a calculated captured image at the time of lighting in accordance with an imaging instruction from the mask identification unit 105 (step S304).
  • a calculated captured image obtained by capturing the illuminated light emitting unit 108 is input from the first camera 101 to the mask identifying unit 105 .
  • the mask identification unit 105 acquires from the first camera 101 a calculated captured image obtained by capturing the lit light emitting unit 108 .
  • the mask identification unit 105 temporarily stores the acquired calculated captured image.
  • the mask identifying unit 105 instructs the light emitting unit 108, which is the light source, to turn off (step S305).
  • the light emitting unit 108 turns off the light in accordance with the turn off instruction from the mask identification unit 105 (step S306).
  • the mask identification unit 105 instructs the first camera 101 to take an image (step S307). Thereby, the first camera 101 can capture an image of the light emitting unit 108 that is turned off.
  • the first camera 101 captures the calculated captured image when the light is turned off according to the imaging instruction from the mask identification unit 105 (step S308).
  • a calculated captured image obtained by capturing the light emitting unit 108 that is turned off is input from the first camera 101 to the mask identifying unit 105 .
  • the mask identifying unit 105 acquires from the first camera 101 a calculated captured image of the light emitting unit 108 that has been turned off.
  • the mask identification unit 105 temporarily stores the acquired calculated captured image.
  • the mask identification unit 105 calculates a difference image between the calculated captured image when the light emitting unit 108 is turned on and the calculated captured image when the light emitting unit 108 is turned off (step S309).
  • the first camera 101 performs imaging synchronized with the light emitting unit 108 which is a light source that can be regarded as a point light source existing in the imaging environment.
  • FIG. 36 is a diagram showing an example of a calculated captured image 701 captured by the first camera 101 of the light emitting unit 108 in the lighting state in the first embodiment.
  • the calculated captured image 701 it can be seen that the luminance value of the pixel corresponding to the light emitting unit 108 is high.
  • the calculated captured image 701 is an image in which a plurality of pinhole images are superimposed, and thus includes three light-emitting points corresponding to one light-emitting unit 108 .
  • FIG. 37 is a diagram showing an example of a calculated captured image 702 captured by the first camera 101 with the light emitting unit 108 in the off state in the first embodiment.
  • the luminance value of the pixel corresponding to the light emitting unit 108 is lower than the luminance value when lit.
  • FIG. 38 is a diagram showing an example of a difference image 703 obtained by subtracting a calculated captured image 702 including the light emitting unit 108 in the off state from a calculated captured image 701 including the light emitting unit 108 in the lit state. Since the differential image 703 is an image obtained by capturing only the light emitting unit 108, which is a point light source, without being affected by subjects other than the light emitting unit 108, the PSF of the multi-pinhole mask 301a when the light emitting unit 108 is turned on cannot be obtained. It can be seen that A difference image 703 represents the PSF of the multi-pinhole mask 301a.
  • the light emitting unit 108 may be the light of the user's smart phone or mobile phone. In this case, the light that is the light emitting unit 108 may be turned on or off by the user operating the smartphone or mobile phone.
  • the mask identification unit 105 does not acquire the point spread function of the multi-pinhole mask 301a from the image captured by the first camera 101, but rather the brightness transfer matrix (Light The mask pattern may be identified by acquiring the Transport Matrix (LTM).
  • the mask identification unit 105 may use a plurality of light emitting units 108 dispersedly arranged in the environment to acquire PSFs at a plurality of positions and use them as LTMs.
  • the mask identification unit 105 identifies the mask pattern by acquiring the LTM of the multi-pinhole mask 301a from the image captured by the first camera 101, the mask identification unit 105 uses the plurality of light emitting units 108 to detect images at a plurality of positions. It is also possible to obtain the PSF and use it as the LTM.
  • FIG. 39 is a flowchart showing an example of the main processing procedure of the mask identification unit 105 when identifying the mask pattern by acquiring the LTM from the image captured by the first camera 101.
  • FIG. 39 is a flowchart showing an example of the main processing procedure of the mask identification unit 105 when identifying the mask pattern by acquiring the LTM from the image captured by the first camera 101.
  • the mask identification unit 105 calculates a plurality of PSFs corresponding to each of the plurality of light emitting units 108 (step S331). As described above, this can be calculated using the difference image between the calculated captured image when the plurality of light emitting units 108 are turned on and the calculated captured image when the plurality of light emitting units 108 is turned off. By doing so, it is possible to obtain PSFs at a plurality of positions on the image.
  • FIG. 40 is a schematic diagram showing an example of multiple PSFs acquired at multiple positions on an image.
  • the PSF is acquired at 6 points on the image.
  • the mask identification unit 105 obtains the LTM by interpolating the plurality of calculated PSFs (step S332).
  • the mask identifying unit 105 performs interpolation processing on the calculated PSFs to calculate PSFs for all pixels of the image, and uses them as LTMs.
  • General image processing such as morphing may be used for such interpolation processing.
  • the image identification system may include one light emitting unit 108 instead of multiple light emitting units 108 .
  • one light emitting unit 108 may be used at a plurality of positions.
  • a light of a smart phone or a mobile phone may be used as the light emitting unit 108, and the user may turn on and off one light emitting unit 108 while changing the location.
  • an LED mounted on a drone, a cleaning robot, or the like may be used as the light emitting unit 108 .
  • the mask identifying unit 105 may determine the state of image quality of the acquired mask information based on the calculated captured image captured by the first camera 101, and switch the processing contents according to the determination result.
  • the mask information is PSF.
  • FIG. 41 is a flowchart showing an example of another main processing procedure of the mask identification unit 105 according to the first embodiment.
  • the mask identifying unit 105 calculates a difference image between the calculated captured image when the light emitting unit 108 is on and the calculated captured image when the light emitting unit 108 is off by the same method as in steps S301 to S309 in FIG. 35 above.
  • the mask identification unit 105 uses the first camera 101 to acquire the difference image as a PSF.
  • the mask identification unit 105 checks the image quality of the calculated difference image and determines whether the image quality of the calculated difference image is sufficient (step S310). Here, if it is determined that the image quality of the difference image is not sufficient, that is, if it is determined that the image quality of the difference image is insufficient (NO in step S310), the process returns to step S301, and the mask identification unit 105 changes the image quality of the light emission unit 108 to turn on.
  • the mask identifying unit 105 instructs the light emitting unit 108 to turn on, instructs the first camera 101 to capture an image of the light emitting unit 108 in the lighted state, instructs the light emitting unit 108 to turn off the light, and causes the first camera 101 to turn off.
  • step S309 the mask identification unit 105 newly calculates a difference image between the calculated captured image when the light emitting unit 108 is turned on and the calculated captured image when the light emitting unit 108 is turned off, and then performs the process of step S310 again.
  • the mask identification unit 105 saves the calculated difference image as a PSF (step S311).
  • Whether the image quality of the PSF is sufficient may be determined using, for example, a differential image.
  • the PSF must not contain anything other than a point light source. Therefore, a difference image between when the light is on and when it is off is used. However, if there is a change in the scene between shooting when the lights are on and shooting when the lights are off, such as when people move a lot or the brightness in the environment changes dramatically, those changes will appear in the difference image. It becomes impossible to obtain an accurate PSF. Therefore, the mask identification unit 105 counts the number of pixels having a luminance value equal to or higher than a certain value in the difference image, and if the counted number of pixels is equal to or higher than the threshold value, it may be determined that the image quality of the difference image is insufficient. Also, when the counted number of pixels is less than the threshold value, the mask identification unit 105 may determine that the image quality of the difference image is sufficient.
  • the mask identification unit 105 may determine whether the image quality of the calculated difference image is equal to or higher than the allowable value.
  • the mask identification unit 105 may count the number of pixels having a luminance of a certain value or more in the difference image, and determine that the image quality of the difference image is below the allowable value when the counted number of pixels is equal to or more than a threshold value. Further, the mask identification unit 105 may determine that the image quality of the difference image is equal to or higher than the allowable value when the counted number of pixels is less than the threshold.
  • the image quality of the difference image may deteriorate.
  • the exposure time of the first camera 101 is too short or if the gain of signal amplification for adjusting the brightness of the image data is too small, the luminance of the light emitting unit 108 is buried in noise, resulting in a difference image. (PSF) image quality may deteriorate.
  • PSF difference image
  • the mask identification unit 105 checks the maximum luminance value of the image when the light emitting unit 108 is turned on, and if the maximum luminance value is equal to or higher than the upper limit value or is equal to or lower than the lower limit value, the difference image (PSF ) may be judged to have insufficient image quality.
  • the mask identification unit 105 judges the image quality of the difference image (PSF) based on whether the maximum luminance value in the image when the light emitting unit 108 is lit is equal to or less than the lower limit value, whether the luminance of the light emitting unit 108 is buried in noise can be judged.
  • the mask identifying unit 105 determines the image quality of the difference image (PSF) based on whether the maximum luminance value in the image when the light emitting unit 108 is lit is equal to or greater than the upper limit value, the luminance of the light emitting unit 108 exceeds the sensing range. can determine whether it is saturated.
  • the mask identification unit 105 determines that the maximum luminance value is within a predetermined range between the upper limit value and the lower limit value. , the settings of the first camera 101 may be changed.
  • the mask identifying unit 105 checks the maximum luminance value of the image when the light emitting unit 108 is turned off. ) may be judged to have insufficient image quality.
  • FIG. 42 is a flowchart showing an example of the procedure of image quality determination processing by the mask identification unit 105 according to the first embodiment. Note that the image quality determination processing shown in FIG. 42 is performed between steps S303 and S305 in FIG.
  • step S304 in FIG. 42 is the same as the process of step S304 in FIG.
  • the mask identifying unit 105 acquires a calculated captured image captured by the first camera 101 when the light emitting unit 108 is turned on (step S321).
  • the mask identification unit 105 determines whether the calculated captured image is saturated by determining whether the maximum luminance value of the obtained calculated captured image is equal to or greater than the upper limit value Th1 (step S322). ). Here, if it is determined that the maximum luminance value is equal to or greater than the upper limit value Th1, that is, if it is determined that the acquired calculated captured image is saturated (YES in step S322), the mask identification unit 105 performs the first The camera 101 is instructed to take an image again with a shorter exposure time (step S323). Then, the process returns to step S304.
  • the mask identification unit 105 determines whether the maximum luminance value of the obtained calculated captured image is equal to or less than the lower limit value Th2. Thus, it is determined whether or not the luminance of the light emitting unit 108 is buried in noise (step S324). Note that the lower limit value Th2 is smaller than the upper limit value Th1.
  • the mask identification unit 105 performs the first The camera 101 is instructed to lengthen the exposure time and perform imaging again (step S325). Then, the process returns to step S304.
  • the mask identification unit 105 determines that the image quality of the acquired calculated captured image is sufficiently high with the current exposure time. In this case, the process proceeds to step S305, and the mask identifying unit 105 instructs the light emitting unit 108 to turn off. Then, the mask identification unit 105 further instructs the first camera 101 to capture an image with the same exposure time as the exposure time in imaging when the light emitting unit 108 is turned on. to get
  • the mask identifying unit 105 also sets the maximum luminance value of the calculated captured image acquired when the light emitting unit 108 is turned off so that it falls within a predetermined range between the upper limit value Th1 and the lower limit value Th2, as described above.
  • the exposure time of one camera 101 may be controlled.
  • the mask identification unit 105 may change settings other than the exposure time of the first camera 101 .
  • the mask identification unit 105 may change the gain of the first camera 101 .
  • FIG. 43 is a flowchart showing another example of the procedure of image quality determination processing by the mask identification unit 105 according to the first embodiment.
  • the same processing as in FIG. 42 is assigned the same number, and description thereof is omitted. Note that the image quality determination process shown in FIG. 43 is performed between steps S303 and S305 in FIG.
  • step S322 If it is determined in step S322 that the maximum luminance value is equal to or greater than the upper limit Th1, that is, if it is determined that the acquired calculated captured image is saturated (YES in step S322), the mask identification unit 105 The camera 101 of No. 1 is instructed to perform imaging again with a smaller gain (step S327). Then, the process returns to step S304.
  • step S324 If it is determined in step S324 that the maximum luminance value is equal to or less than the lower limit Th2, that is, if it is determined that the luminance of the light emitting unit 108 is buried in noise (YES in step S324), the mask identifying unit 105 The first camera 101 is instructed to increase the gain and perform imaging again (step S328). Then, the process returns to step S304.
  • the mask identification unit 105 determines that the image quality of the acquired calculated captured image is sufficiently high with the current gain. In this case, the process proceeds to step S305, and the mask identifying unit 105 instructs the light emitting unit 108 to turn off. Then, the mask identifying unit 105 further instructs the first camera 101 to capture an image with the same gain and exposure time as the gain and exposure time in imaging when the light emitting unit 108 is turned on. to obtain a calculated captured image.
  • the mask identifying unit 105 also sets the maximum luminance value of the calculated captured image acquired when the light emitting unit 108 is turned off so that it falls within a predetermined range between the upper limit value Th1 and the lower limit value Th2, as described above.
  • the gain of one camera 101 may be controlled.
  • the mask identification unit 105 may control the brightness of the light emitting unit 108 instead of the exposure time or gain of the first camera 101 . That is, when the mask identification unit 105 determines that the luminance of the light emitting unit 108 is saturated, the mask identifying unit 105 controls the light emitting unit 108 to lower the luminance. Conversely, when the mask identification unit 105 determines that the luminance of the light emitting unit 108 is buried in noise, it controls the light emitting unit 108 to increase the luminance. As the luminance of the light emitting unit 108 increases, the difference in luminance between the light emitting unit 108 and noise widens.
  • the mask identification unit 105 determines that the image quality of the difference image is insufficient, it selects another light emitting unit existing in the target area and instructs the other light emitting unit to turn on and off. It doesn't matter if you do. This is effective in the case of a light source having directivity, in which the image quality may inevitably deteriorate depending on the positional relationship between the first camera 101 and the light emitting unit 108 .
  • the mask identification unit 105 acquires mask information about the mask pattern from the calculated captured image captured by the first camera 101, and identifies the mask pattern of the mask based on the acquired mask information.
  • the mask identification unit may identify the mask pattern by reading the mask ID information written on the mask. This is realized, for example, by reading the mask ID information embedded around the mask.
  • Mask ID information is, for example, a bar code, a two-dimensional code, color information, or the like.
  • FIG. 44 is a block diagram showing an example of a configuration of an image identification system 1C according to Embodiment 2 of the present disclosure.
  • the same components as those of the image identification system 1 shown in FIG. 44 the same components as those of the image identification system 1 shown in FIG.
  • the image identification system 1C of the second embodiment includes a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, an output unit 107, an ID information
  • An acquisition unit 111 and a second camera 121 are provided.
  • the mask identification unit 105, the identification model change unit 106, the image identification unit 103, and the ID information acquisition unit 111 include a processor such as a CPU and a memory such as a semiconductor memory.
  • the ID information acquisition unit 111 transmits and receives information to and from the second camera 121 via a wired or wireless network
  • the ID information acquisition unit 111 includes a reception unit.
  • the receiver includes a receiver circuit as hardware.
  • the mask identification unit 105 transmits/receives information to/from the second camera 121 via a wired or wireless network
  • the mask identification unit 105 includes a transmission unit.
  • the transmission unit includes a transmission circuit as hardware.
  • the second camera 121 includes a transmitting circuit and a receiving circuit as hardware.
  • the image identification system 1C includes, for example, an image identification device including a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, and an ID information acquisition unit 111.
  • the camera 101, the output unit 107, and the second camera 121 may be connected to the image identification device.
  • the image identification device may be a server.
  • the image identification system 1C includes, for example, a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, an output unit 107, and an ID information acquisition unit.
  • 111, and the second camera 121 may be connected to the image identification device.
  • the second camera 121 is a camera different from the first camera 101 and captures an image without blur.
  • the second camera 121 is arranged on the side of the subject imaged by the first camera 101 .
  • a first camera 101 is a multi-pinhole camera 301 .
  • the second camera 121 images the multi-pinhole mask 301a of the multi-pinhole camera 301 from the subject side.
  • the mask identification unit 105 instructs the second camera 121 to take an image.
  • the second camera 121 acquires an image of the multi-pinhole mask 301a from the subject side according to the instruction from the mask identification unit 105.
  • the ID information acquisition unit 111 acquires mask ID information (mask identification information) for identifying the mask from the image captured by the second camera 121 .
  • the mask identification unit 105 identifies the mask pattern of the mask based on the mask ID information acquired by the ID information acquisition unit 111 .
  • the multi-pinhole mask 301a has a configuration in which the three masks 400a, 400b, and 400c described with reference to FIGS. 5 to 7 are layered. Improvements have been made to the three masks 400a, 400b, and 400c.
  • FIG. 45 is a diagram showing an example of a mask 400a having nine pinholes in the second embodiment
  • FIG. 46 is an example of a mask 400b having five pinholes in the second embodiment
  • FIG. 47 is a diagram showing an example of a mask 400c having one pinhole in the second embodiment.
  • the multi-pinhole mask 301a includes a mask 400a formed with nine pinholes shown in FIG. 45, a mask 400b formed with five pinholes shown in FIG. , and a mask 400c having pinholes formed thereon.
  • Mask ID information 601 for identifying the mask 400a is written on the outer periphery of the mask 400a shown in FIG.
  • Mask ID information 602 for identifying the mask 400b is written on the outer periphery of the mask 400b shown in FIG.
  • Mask ID information 603 for identifying the mask 400c is written on the outer periphery of the mask 400c shown in FIG.
  • the annular outer peripheries of the masks 400b and 400c are transparent.
  • the annular outer peripheral portion of the mask 400a is shielded rather than transparent.
  • the circular inner peripheral portions of the masks 400a, 400b, and 400c are shielded and pinholes are formed.
  • the mask ID information 601-603 is represented by, for example, a two-dimensional code.
  • the ID information acquisition unit 111 acquires mask ID information 601 to 603 of each of the masks 400a to 400c by reading the two-dimensional code written on each of the masks 400a to 400c included in the captured image.
  • the two-dimensional code representing the mask ID information 601-603 may be printed on each of the masks 400a-400c, or may be attached with a sticker or the like.
  • the mask identification unit 105 stores mask information corresponding to the mask ID information 601, 602, and 603 in advance.
  • the mask information corresponding to the mask ID information 601 is, for example, information relating to the PSF of the multi-pinhole mask 301a composed only of the mask 400a.
  • the multi-pinhole mask 301a is composed of the mask 400a, the multi-pinhole mask 301a has nine pinholes as described above. Therefore, the mask information corresponding to mask ID information 601 is the PSF of mask 400a having nine pinholes.
  • the mask information corresponding to the mask ID information 602 is, for example, information regarding the PSF of the multi-pinhole mask 301a in which the two masks 400a and 400b are superimposed.
  • the multi-pinhole mask 301a is composed of two masks 400a and 400b, the multi-pinhole mask 301a has five pinholes. Note that if the thicknesses of the masks 400a and 400b are sufficiently small, the mask information corresponding to the mask ID information 602 is the PSF of the mask 400b having five pinholes.
  • the mask information corresponding to the mask ID information 603 is, for example, information regarding the PSF of the multi-pinhole mask 301a in which three masks 400a, 400b, and 400c are superimposed.
  • multi-pinhole mask 301a is composed of three masks 400a, 400b, and 400c
  • multi-pinhole mask 301a has one pinhole.
  • the mask information corresponding to the mask ID information 603 is the PSF of the mask 400c having one pinhole.
  • these masks are fixed with removable adhesive.
  • the user manually peels off each mask to change the mask pattern of the multi-pinhole mask 301a.
  • the mask changing unit 104 may change the mask pattern of the multi-pinhole mask 301a by controlling the driving unit to change each mask.
  • FIG. 48 is a diagram showing an example of a multi-pinhole mask 301a in which three masks 400a to 400c are superimposed in the second embodiment, and FIG. It is a figure which shows an example of the multi-pinhole mask 301a which overlapped 400a and 400b.
  • the mask identification unit 105 acquires these mask ID information 601, 602, and 603 so that the multi-pinhole mask 301a in which the three masks 400a to 400c are superimposed is mounted on the first camera 101. can be identified.
  • the mask identification unit 105 obtains three pieces of mask ID information 601, 602, and 603, it obtains the mask information corresponding to the mask ID information 603 from the memory.
  • the mask information corresponding to the mask ID information 603 is the PSF of the mask with one pinhole.
  • the multi-pinhole mask 301a is composed of the two superimposed masks 400a and 400b. be.
  • the second camera 121 captures an image of the multi-pinhole mask 301a in which the two masks 400a and 400b are overlapped, as shown in FIG. A two-dimensional code representing information 601, 602 is imaged. Therefore, by acquiring these mask ID information 601 and 602, the mask identification unit 105 can determine that the first camera 101 is equipped with the multi-pinhole mask 301a in which the two masks 400a and 400b are superimposed. can be identified. When the mask ID information 601 and 602 are acquired, the mask identification unit 105 acquires the mask information corresponding to the mask ID information 602 from the memory.
  • the mask information corresponding to mask ID information 602 is the PSF of a mask with 5 pinholes.
  • the multi-pinhole mask 301a consists of only the mask 400a.
  • the mask identification unit 105 can identify that the first camera 101 is equipped with the multi-pinhole mask 301a having the mask 400a.
  • the mask identification unit 105 acquires mask information corresponding to the mask ID information 601 from the memory.
  • the mask information corresponding to mask ID information 601 is the PSF of a mask with nine pinholes.
  • the second camera 121 In order for the ID information acquisition unit 111 to acquire such mask ID information, the second camera 121 needs to acquire an image of the multi-pinhole mask 301a from the subject side.
  • FIG. 50 is a diagram for explaining a configuration for reading the mask ID information 600 written on the mask forming the multi-pinhole mask 301a using the second camera 121 in the second embodiment.
  • the same reference numerals are given to the same components as in FIGS. 3 and 21, and the description thereof is omitted.
  • the second camera 121 is a camera different from the first camera 101 and is arranged on the subject side photographed by the multi-pinhole camera 301 corresponding to the first camera 101 .
  • the second camera 121 takes an image without blur, for example.
  • the mask identification unit 105 can acquire an image of the multi-pinhole mask 301a from the subject side by, for example, instructing the second camera 121 to shoot.
  • the captured image includes mask ID information 600 .
  • FIG. 51 is a diagram for explaining a configuration for reading the mask ID information 600 written on the mask forming the multi-pinhole mask 301a using the mirror 122 in the modification of the second embodiment.
  • the same reference numerals are given to the same components as in FIGS. 3 and 21, and the description thereof is omitted.
  • a mirror 122 is arranged instead of the second camera 121 .
  • the image identification system 1C does not have the second camera 121 .
  • the first camera 101 takes an image of the mirror 122 reflecting the multi-pinhole mask 301a having the mask ID information 600 written on its surface.
  • the ID information acquisition unit 111 acquires an image captured by the multi-pinhole camera 301 corresponding to the first camera 101 .
  • the ID information acquisition unit 111 acquires mask ID information from the calculated captured image captured by the multi-pinhole camera 301 .
  • the mirror 122 is arranged on the side of the subject photographed by the multi-pinhole camera 301 corresponding to the first camera 101 .
  • a mirror 122 reflects a multi-pinhole mask 301a on which mask ID information 600 is written.
  • the mask identification unit 105 instructs the multi-pinhole camera 301 to photograph, the light emitted from the mask constituting the multi-pinhole mask 301a is reflected by the mirror 122 and reaches the light receiving surface of the image sensor 301b. Therefore, the mask identification unit 105 can acquire an image of the multi-pinhole mask 301a from the subject side by instructing the multi-pinhole camera 301 to take an image, for example.
  • the ID information acquisition unit 111 needs to acquire mask ID information from this calculated captured image. Therefore, the storage unit 102 may store in advance a mask ID identification model for identifying the mask ID information of the multi-pinhole mask 301a from the calculated captured image captured by the multi-pinhole camera 301, for example.
  • the ID information obtaining unit 111 may identify the mask ID information from the image of the multi-pinhole mask 301a captured by the multi-pinhole camera 301 using the mask ID identification model.
  • the ID information acquisition unit 111 may input the image captured by the multi-pinhole camera 301 to the mask ID identification model, and acquire the mask ID information output as the identification result from the mask ID identification model.
  • a mask ID identification model is created by learning processing by a learning device.
  • the learning device acquires an image of the multi-pinhole mask 301a containing the mask ID information taken by a normal camera and the mask assigned to this image.
  • a mask ID identification model may be created by performing deep learning-based machine learning using annotation information corresponding to ID information as teacher data.
  • the second camera 121 and the mirror 122 are necessary when the ID information acquisition unit 111 reads the mask ID information 600, but the image identification unit 103 identifies the image captured by the first camera 101. not necessary in some cases.
  • the second camera 121 or the mirror 122 is installed on the side of the subject photographed by the multi-pinhole camera 301, and the reading of the mask ID information 600 is completed. It is desirable to configure such that the installed second camera 121 or mirror 122 can be removed later.
  • the mask identification unit 105 when the user changes the mask pattern by rotating one of the plurality of masks instead of removing one of the plurality of masks, the mask identification unit 105 Alternatively, the mask pattern may be identified by recognizing the rotation angle of the mask by reading the marker information written on the mask.
  • the multi-pinhole mask 301a has a configuration in which the two masks 400d and 400e described with reference to FIGS. 8 and 9 are stacked. Improvements have been made to the two masks 400d and 400e.
  • FIG. 52 is a block diagram showing an example of the configuration of an image identification system 1D according to Embodiment 3 of the present disclosure.
  • the same components as those of the image identification system 1C shown in FIG. 52 the same components as those of the image identification system 1C shown in FIG.
  • the image identification system 1D of the third embodiment includes a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, an output unit 107, a marker position It includes a specifying unit 112 and a second camera 121 .
  • the mask identifying unit 105, the identification model changing unit 106, the image identifying unit 103, and the marker position specifying unit 112 include a processor such as a CPU and a memory such as a semiconductor memory.
  • the marker position specifying unit 112 when the marker position specifying unit 112 transmits and receives information to and from the second camera 121 via a wired or wireless network, the marker position specifying unit 112 includes a receiving unit.
  • the receiver includes a receiver circuit as hardware.
  • the mask identification unit 105 transmits/receives information to/from the second camera 121 via a wired or wireless network, the mask identification unit 105 includes a transmission unit.
  • the transmission unit includes a transmission circuit as hardware.
  • the second camera 121 includes a transmitting circuit and a receiving circuit as hardware.
  • the image identification system 1D includes, for example, an image identification device including a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, and a marker position identification unit 112, and includes a first The camera 101, the output unit 107, and the second camera 121 may be connected to the image identification device. Also, the image identification device may be a server. Further, the image identification system 1D includes, for example, a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, an output unit 107, a marker position identification unit 112, and the second camera 121 may be connected to the image identification device.
  • the multi-pinhole mask 301a includes a mask 400d and a mask 400e superimposed on the mask 400d.
  • Mask 400d is an example of a first mask
  • mask 400e is an example of a second mask.
  • the marker position specifying unit 112 specifies the positions of a plurality of markers formed on each of the masks 400d and 400e in order to detect the rotation angle of the mask 400d with respect to the mask 400e.
  • the mask identification unit 105 detects the rotation angle of the mask 400d with respect to the mask 400e based on the positions of the markers identified by the marker position identification unit 112, and identifies the mask pattern of the mask based on the detected rotation angle.
  • FIG. 53 to FIG. 55 show the process of recognizing the rotation angle of one mask by reading identification information written on a plurality of masks constituting the multi-pinhole mask 301a and identifying the mask pattern from the recognized rotation angle. to explain.
  • FIG. 53 is a diagram showing an example of a mask 400d having six pinholes in the third embodiment
  • FIG. 54 is a diagram showing a mask 400e having two fan-shaped openings in the third embodiment
  • FIG. 55 is a diagram showing an example
  • FIG. 55 is a diagram showing an example of a multi-pinhole mask 301a in which two masks 400d and 400e are overlapped according to the third embodiment.
  • one marker 611 is written as identification information on the outer periphery of the rotatable mask 400d.
  • two markers 612 and 613 are written as identification information on the outer periphery of the fixed mask 400e.
  • the annular outer peripheral portion of the mask 400d is transparent.
  • the annular outer peripheral portion of the mask 400e is shielded rather than transparent.
  • the circular inner peripheral portion of the mask 400d is shielded and has a plurality of pinholes.
  • the circular inner peripheral portion of the mask 400e is formed with two fan-shaped openings and two fan-shaped shielding portions.
  • the marker 611 is formed at a predetermined position on the outer periphery of the mask 400d.
  • marker 611 is the number "1".
  • the marker 612 is formed at a predetermined position on the outer periphery of the mask 400e, and the marker 613 is formed at a position facing the marker 612 on the outer periphery of the mask 400e.
  • a straight line connecting the markers 612 and 613 passes through the center point of the mask 400e.
  • marker 612 and marker 613 are the number "2".
  • the markers 611, 612, and 613 are not limited to numbers, and may be bar codes, two-dimensional codes, color information, or the like, as long as they are information that can identify each marker.
  • the markers 611, 612, 613 may be printed on the respective masks 400d, 400e, or may be attached with stickers or the like.
  • a multi-pinhole mask 301a shown in FIG. 55 is configured by overlapping a mask 400d shown in FIG. 53 and a mask 400e shown in FIG.
  • the marker position specifying unit 112 specifies the positions of the markers 611, 612, and 613 from the captured image of the multi-pinhole mask 301a. For example, the marker position specifying unit 112 specifies coordinate positions of the markers 611, 612, and 613 within the image.
  • the mask identification unit 105 detects the rotation angle of the mask 400d with respect to the mask 400e based on the positions of the markers 611, 612, and 613 identified by the marker position identification unit 112, and identifies the mask pattern of the mask based on the detected rotation angle. Identify.
  • the mask identification unit 105 stores in advance mask information corresponding to the rotation angle of the mask 400d with respect to the mask 400e.
  • the mask information corresponding to the rotation angle is, for example, information regarding the PSF that changes according to the rotation angle of the mask 400d with respect to the mask 400e.
  • the marker position specifying unit 112 specifies the positions of the markers 611, 612, and 613 from the captured image of the multi-pinhole mask 301a.
  • the mask identification unit 105 calculates a line segment 621 connecting the markers 612 and 613 and a midpoint 614 of the line segment 621 from the position information of the specified markers 611 , 612 and 613 .
  • the mask identification unit 105 determines the angle ⁇ between the calculated line segment 622 connecting the midpoint 614 and the marker 611 and the line segment 621 connecting the marker 612 and the marker 613 as the rotation angle of the mask 400d with respect to the mask 400e. Calculate as an angle.
  • the mask identification unit 105 acquires mask information corresponding to the rotation angle of the mask 400d with respect to the mask 400e from the memory.
  • the mask information corresponding to the rotation angle of the mask 400d with respect to the mask 400e is the PSF corresponding to the mask pattern corresponding to the rotation angle.
  • the identification model change unit 106 changes the identification model according to the mask pattern (mask information) identified by the mask identification unit 105.
  • the image identification unit 103 can identify the calculated captured image using the identification model most suitable for the mask pattern of the multi-pinhole mask 301a, which is the first camera 101. Therefore, even if the mask is changed, , can maintain high identification accuracy.
  • Embodiment 4 In Embodiments 1 to 3, storage unit 102 stores in advance a plurality of mask patterns and a plurality of discrimination models in association with each other, and discrimination model changing unit 106 stores a plurality of mask patterns stored in storage unit 102. An identification model associated with the mask pattern identified by the mask identification unit 105 is selected from the identification models.
  • the image identification system in Embodiment 4 may further include a learning device.
  • the learning device may learn a discriminant model according to the mask pattern discriminated by the mask discriminating unit 105 .
  • FIG. 56 is a block diagram showing an example of the configuration of the image identification system 1A according to the fourth embodiment of the present disclosure
  • FIG. 57 shows an example of the configuration of the learning device 2 according to the fourth embodiment of the present disclosure. It is a block diagram.
  • the same components as those of the image identification system 1 shown in FIG. 56 the same components as those of the image identification system 1 shown in FIG.
  • the image identification system 1A of the fourth embodiment includes a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105A, an identification model change unit 106A, an output unit 107, a light emission unit 108 and the learning device 2 .
  • the mask identifying unit 105A, the identification model changing unit 106A, and the image identifying unit 103 include a processor such as a CPU and a memory such as a semiconductor memory.
  • the image identification system 1A includes, for example, an image identification device including a storage unit 102, an image identification unit 103, a mask identification unit 105A, and an identification model change unit 106A.
  • the light emitting unit 108, and the learning device 2 may be connected to the image identification device.
  • the image identification device and the learning device 2 may be servers.
  • the image identification system 1A includes, for example, a first camera 101, a storage unit 102, an image identification unit 103, a mask identification unit 105, an identification model change unit 106, and an output unit 107.
  • the device may be included, and the light emitting unit 108 and the learning device 2 may be connected to the image identification device.
  • the image identification device may include the learning device 2 .
  • the learning device 2 acquires a first learning image captured by a camera (second camera) that captures an image without blurring or an image with less blurring than the first camera 101, and the first learning image. Get the correct answer label and The learning device 2 generates a blurred second learning image based on the mask pattern identified by the mask identification unit 105A and the first learning image. The learning device 2 creates an identification model for identifying the calculated captured image captured by the first camera 101 by performing machine learning using the second learning image and the correct label.
  • the discriminative model changing unit 106A changes the current discriminative model to the discriminative model created by the learning device 2.
  • the learning device 2 includes a learning database 201 , a mask information acquisition section 202 , a database correction section 203 and a learning section 204 .
  • the learning device 2 uses the mask information identified by the mask identification unit 105 to learn the identification model used for identification by the image identification unit 103 .
  • the PSF may be used as described above.
  • the learning database 201 is a storage unit such as an HDD, SSD, or semiconductor memory.
  • the mask information acquisition unit 202, the database correction unit 203, and the learning unit 204 include processors such as CPUs as hardware. Further, when the mask information acquisition unit 202 transmits and receives information to and from the mask identification unit 105A via a wired or wireless network, the mask information acquisition unit 202 includes a reception unit.
  • the receiver includes a receiver circuit as hardware.
  • the mask identification unit 105A includes a transmission circuit and a processor such as a CPU as hardware.
  • the learning unit 204 when the learning unit 204 transmits and receives information to and from the identification model changing unit 106A via a network, the learning unit 204 includes a transmission unit.
  • the transmission unit includes a transmission circuit as hardware.
  • Identification model changing unit 106A includes a receiving circuit and a processor such as a CPU as hardware.
  • FIG. 58 is a flowchart showing an example of the main processing procedure of the learning device 2 according to the fourth embodiment of the present disclosure.
  • the mask information acquisition unit 202 acquires mask information identified by the mask identification unit 105A from the mask identification unit 105A (step S401).
  • the mask information may be transmitted and received by wire or wirelessly. may be provided by the user.
  • the database correction unit 203 corrects the learning database 201 using the mask information acquired by the mask information acquisition unit 202 (step S402). For example, when the image identification unit 103 identifies the behavior of a person in the environment, the learning database 201 stores images taken with a normal camera without blur and what kind of behavior the person is doing at what position in each image. That is, it holds annotation information (correct label) to be attached to each image. When using a normal camera, it is sufficient to add annotation information to the image captured by that camera. It is difficult to attach annotation information because it is not possible to know what is captured even if the image is captured. Further, even if the learning process is performed using images captured by a normal camera that is significantly different from the first camera 101, the recognition accuracy of the image recognition unit 103 does not increase.
  • the database correcting unit 203 uses the mask information obtained from the mask identifying unit 105A to transform an image captured by a normal camera into an image to be captured by the first camera 101, so that the first camera 101 A learning data set is created in accordance with the mask pattern of , and the learning database 201 is corrected.
  • a discriminant model is created by performing a learning process using the created learning data set. Then, the image identification unit 103 performs identification using the created identification model, thereby improving identification accuracy.
  • the database correcting unit 203 uses the PSF, which is the mask information acquired by the mask information acquiring unit 202, to correct the captured image z obtained by a normal camera prepared in advance in the learning database 201.
  • Image y is calculated based on the following equation (2).
  • k indicates the PSF that is the mask information acquired by the mask information acquisition unit 202
  • * indicates the convolution operator
  • the database correction unit 203 stores the corrected image and the annotation information in the learning database 201.
  • the learning unit 204 uses the modified learning database 201 to perform learning processing (step S403).
  • the learning unit 204 uses the corrected image calculated by the database correction unit 203 and the annotation information held in advance in the learning database 201 to perform learning processing and create a learned discrimination model.
  • the learning unit 204 calculates the corrected image and the annotation information attached to the image taken by the normal camera used to calculate the corrected image. are used as training data to perform machine learning by Deep Learning.
  • a prediction error correction algorithm a Back Propagation method or the like may be used.
  • the learned discriminant model created by the learning unit 204 is output to the discriminative model changing unit 106A.
  • the discriminant model changing unit 106A stores the received learned discriminant model in the storage unit 102.
  • the discriminative model changing unit 106A for example, converts the discriminant model stored in the storage unit 102 into the received learned discriminant model.
  • the replaced and learned discriminant model is stored in the storage unit 102 as a new discriminant model.
  • the identification model changing unit 106A changes the identification model according to the mask pattern identified by the mask identifying unit 105A.
  • the image identification unit 103 reads a new identification model from the storage unit 102 and uses the read new identification model to identify the calculated captured image captured by the first camera 101 .
  • Discriminant model changing unit 106A may include learning device 2 .
  • the corrected image is an image that matches the PSF according to the mask pattern of the mask of the first camera 101 . Therefore, by learning using the corrected image, a new identification model more suitable for the mask pattern of the mask of the first camera 101 is created by the learning process of the learning device 2 . That is, even if the mask pattern of the mask of the first camera 101 is changed, a new identification model more suitable for the changed mask pattern is created by the learning process of the learning device 2 . Therefore, even if the mask pattern of the mask of the first camera 101 is changed, the image identification unit 103 performs identification processing using a newly created identification model, so highly accurate identification processing can be realized.
  • the image identification system 1A of the fourth embodiment can learn an identification model that matches the mask pattern of the mask of the first camera 101 and improve the identification accuracy.
  • the image identification system 1A of the fourth embodiment is particularly effective for sensing in environments where privacy must be considered. This is because the first camera 101 is different from a normal camera in that it is difficult for a person to recognize the subject even when viewing the captured image itself.
  • each component may be implemented by dedicated hardware or by executing a software program suitable for each component.
  • Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
  • LSI Large Scale Integration
  • circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used.
  • a processor such as a CPU executing a program.
  • each step shown in the above flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and may be an order other than the above as long as the same effect can be obtained. . Also, some of the above steps may be executed concurrently (in parallel) with other steps.
  • the technology according to the present disclosure can reduce the psychological load on the user while protecting the privacy of the subject. is useful as

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)

Abstract

画像識別システムは、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含み、ボケのある画像である計算撮像画像を撮像する第1のカメラと、第1のカメラによって撮像された計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して計算撮像画像を識別する画像識別部と、マスクパターンが変更された後に、変更されたマスクパターンを識別するマスク識別部と、マスク識別部によって識別されたマスクパターンに応じて、識別モデルを変更する識別モデル変更部とを備える。

Description

画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体
 本開示は、特に家庭内又は屋内など、プライバシー保護が必要となる環境において画像を識別する技術に関する。
 例えば、特許文献1には、ライトフィールドカメラなどによって撮像された計算撮像画像を識別器に入力することにより、識別器が、学習済みの識別モデルを用いて、当該計算撮像画像に含まれている物体を識別する画像識別システムが開示されている。
 計算撮像画像は、視点の異なる複数の画像が重畳され、又は、レンズを使用しないことで被写体像が合焦しにくい等の影響により、意図的に作り出されたボケによって人間による視覚的な認識が困難な画像である。そのため、特に家庭内又は屋内など、プライバシー保護が必要となる環境における画像識別システムの構築のために、計算撮像画像を用いることは好適である。
 一方で、計算撮像画像の撮像パターンが既知である場合、計算撮像画像は、ボケていない画像に復元できるおそれがある。そのため、被写体となるユーザは、撮像された計算撮像画像のプライバシーが保護されているかどうかを確信することができないという課題があった。この課題は、ユーザの心理的負荷と呼ぶ。
 特許文献1では、この課題に対して何ら対策がとられていないため、有効な技術的対策を実現することによってユーザの心理的負荷の低減を図ることが望まれる。
国際公開第2019/054092号
 本開示は、上記の課題を解決するためになされたもので、被写体のプライバシーを保護しつつ、ユーザの心理的負荷を低減させることが可能な技術を提供することを目的とする。
 本開示の一態様に係る画像識別システムは、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含み、ボケのある画像である計算撮像画像を撮像する第1のカメラと、前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別する画像識別部と、前記マスクパターンが変更された後に、変更された前記マスクパターンを識別するマスク識別部と、前記マスク識別部によって識別された前記マスクパターンに応じて、前記識別モデルを変更する識別モデル変更部と、を備える。
 本開示によれば、被写体のプライバシーを保護しつつ、ユーザの心理的負荷を低減することができる。
本開示の実施の形態1にかかる画像識別システムの構成の一例を示すブロック図である。 本実施の形態1にかかる画像識別システムの画像識別処理の手順の一例を示すフローチャートである。 本実施の形態1において、レンズレスで構成されたマルチピンホールカメラの一例を示す模式図である。 本実施の形態1において、マスクパターンが変更された際の画像識別システムの主要な処理の手順の一例を示すフローチャートである。 本実施の形態1において、9個のピンホールを有するマスクの一例を示す図である。 本実施の形態1において、5個のピンホールを有するマスクの一例を示す図である。 本実施の形態1において、1個のピンホールを有するマスクの一例を示す図である。 本実施の形態1の変形例1において、6個のピンホールを有するマスクの一例を示す図である。 本実施の形態1の変形例1において、扇形の2つの開口部を有するマスクの一例を示す図である。 本実施の形態1の変形例1において、2枚のマスクを重ねた6個のピンホールを有するマルチピンホールマスクの一例を示す図である。 本実施の形態1の変形例1において、2枚のマスクを重ねた4個のピンホールを有するマルチピンホールマスクの一例を示す図である。 本実施の形態1の変形例1において、2枚のマスクを重ねた2個のピンホールを有するマルチピンホールマスクの一例を示す図である。 本実施の形態1の変形例1におけるマルチピンホールカメラの外観を示す模式図である。 本実施の形態1の変形例1におけるマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例1において、把持部を90度回転させる前のマスクを示す模式図である。 本実施の形態1の変形例1において、把持部を90度回転させたときのマスクを示す模式図である。 本実施の形態1の変形例2におけるマルチピンホールカメラの外観を示す模式図である。 本実施の形態1の変形例2におけるマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例2において、固定具を第1鏡筒の奥までねじ込んだ場合のマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例2において、固定具を第1鏡筒の途中までしかねじ込まない場合のマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例3におけるマルチピンホールカメラの断面を示す模式図である。 本開示の実施の形態1の変形例4にかかる画像識別システムの構成の一例を示すブロック図である。 本実施の形態1の変形例4において、マスクパターンが変更された際の画像識別システムの主要な処理の手順の一例を示すフローチャートである。 本実施の形態1の変形例4におけるマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例5におけるマルチピンホールカメラの断面を示す模式図である。 本実施の形態1の変形例5におけるマルチピンホールマスクを構成する第1マスクの一例を示す模式図である。 本実施の形態1の変形例5におけるマルチピンホールマスクを構成する第2マスクの一例を示す模式図である。 本実施の形態1の変形例5におけるマルチピンホールマスクを構成する第3マスクの一例を示す模式図である。 本実施の形態1の変形例5において、第1マスク、第2マスク、及び第3マスクを重ねて構成したマルチピンホールマスクの一例を示す模式図である。 本実施の形態1の変形例5において、マルチピンホールマスクに外力を印加した場合のマルチピンホールマスクの一例を示す模式図である。 本実施の形態1の変形例5において、マルチピンホールマスクにさらに外力を印加した場合のマルチピンホールマスクの一例を示す模式図である。 本実施の形態1の変形例6におけるマルチピンホールマスクの構成を説明するための模式図である。 本実施の形態1の変形例6において、4つの駆動部を同じ向きに動かした場合のマルチピンホールマスクの様子を示した模式図である。 本実施の形態1の変形例6において、4つの駆動部をマルチピンホールマスクの中心部から外向きの方向に動かした場合のマルチピンホールマスクの様子を示した模式図である。 本実施の形態1にかかるマスク識別部の主要な処理の手順の一例を示すフローチャートである。 本実施の形態1において、点灯状態の発光部を第1のカメラが撮像した計算撮像画像の一例を示す図である。 本実施の形態1において、消灯状態の発光部を第1のカメラが撮像した計算撮像画像の一例を示す図である。 点灯状態の発光部を含む計算撮像画像から消灯状態の発光部を含む計算撮像画像を減算した差分画像の一例を示す図である。 第1のカメラで撮像した画像からLTMを取得することでマスクパターンを識別する場合のマスク識別部の主要な処理の手順の一例を示すフローチャートである。 画像上の複数の位置で取得された複数のPSFの一例を示す模式図である。 本実施の形態1にかかるマスク識別部の別の主要な処理の手順の一例を示すフローチャートである。 本実施の形態1にかかるマスク識別部による画質判定処理の手順の一例を示すフローチャートである。 本実施の形態1にかかるマスク識別部による画質判定処理の手順の他の例を示すフローチャートである。 本開示の実施の形態2にかかる画像識別システムの構成の一例を示すブロック図である。 本実施の形態2において、9個のピンホールを有するマスクの一例を示す図である。 本実施の形態2において、5個のピンホールを有するマスクの一例を示す図である。 本実施の形態2において、1個のピンホールを有するマスクの一例を示す図である。 本実施の形態2において、3枚のマスクを重ね合わせたマルチピンホールマスクの一例を示す図である。 本実施の形態2において、2枚のマスクを重ね合わせたマルチピンホールマスクの一例を示す図である。 本実施の形態2において、第2のカメラを利用して、マルチピンホールマスクを構成するマスクに記載されたマスクID情報を読み取る構成を説明するための図である。 本実施の形態2の変形例において、鏡を利用して、マルチピンホールマスク301aを構成するマスクに記載されたマスクID情報を読み取る構成を説明するための図である。 本開示の実施の形態3にかかる画像識別システムの構成の一例を示すブロック図である。 本実施の形態3において、6個のピンホールを有するマスクの一例を示す図である。 本実施の形態3において、扇形の2つの開口部を有するマスクの一例を示す図である。 本実施の形態3において、2枚のマスクを重ねたマルチピンホールマスクの一例を示す図である。 本開示の実施の形態4にかかる画像識別システムの構成の一例を示すブロック図である。 本開示の実施の形態4にかかる学習装置の構成の一例を示すブロック図である。 本開示の実施の形態4にかかる学習装置の主要な処理の手順の一例を示すフローチャートである。
 (本開示の基礎となった知見)
 家庭内又は屋内などにおいて、環境内人物の行動認識又は機器操作者の人物認識など、さまざまな認識技術は重要である。近年、物体識別のために、ディープラーニングと呼ばれる技術が注目されている。ディープラーニングとは、多層構造のニューラルネットワークを用いた機械学習であり、大量の学習データを利用することで、従来法と比べて、より高精度な識別性能を実現することが可能である。このような物体識別において、画像情報は特に有効である。入力デバイスにカメラを利用し、画像情報を入力としたディープラーニングを行うことによって、従来の物体識別能力を大幅に向上させるさまざまな手法が提案されている。
 しかし、家庭内などにカメラを配置することは、ハッキングなどにより撮影画像が外部に漏れた場合、プライバシーが侵害されるという課題があった。従って、仮に撮影画像が外部に漏れた場合であっても、被写体のプライバシーを保護するための対策が必要である。
 ライトフィールドカメラなどによって撮像される計算撮像画像は、視点の異なる複数の画像が重畳され、又は、レンズを使用しないことで被写体像が合焦しにくい等の影響により、意図的に作り出されたボケによって人間による視覚的な認識が困難な画像である。そのため、特に家庭内又は屋内など、プライバシー保護が必要となる環境における画像識別システムの構築のために、計算撮像画像を用いることは好適である。
 上記特許文献1に開示された画像識別システムでは、ライトフィールドカメラなどによって対象エリアを撮影し、その撮影によって取得された計算撮像画像を識別器に入力する。これにより、識別器が、学習済みの識別モデルを用いて、当該計算撮像画像に含まれている物体を識別する。このように、計算撮像画像を撮像するライトフィールドカメラなどによって対象エリアを撮影することにより、仮に撮影画像が外部に漏れた場合であっても、計算撮像画像は人間による視覚的な認識が困難であるため、被写体のプライバシーを保護することができる。
 プライバシー保護の別の観点としては、画像認識装置によって撮像されるユーザの心理的負荷を低減させることも重要である。ボケ画像を撮像することによって、被写体のプライバシーが保護されていることはアピールできる。しかし、ユーザと無関係な領域(メーカの工場等)で計算撮像情報が設定されている場合、メーカであればボケ画像から通常画像を復元できるのではないかという疑念から、ユーザの心理的負荷が増大する可能性がある。
 以上の課題を解決するために、下記の技術が開示される。
 (1)本開示の一態様に係る画像識別システムは、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含み、ボケのある画像である計算撮像画像を撮像する第1のカメラと、前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別する画像識別部と、前記マスクパターンが変更された後に、変更された前記マスクパターンを識別するマスク識別部と、前記マスク識別部によって識別された前記マスクパターンに応じて、前記識別モデルを変更する識別モデル変更部と、を備える。
 この構成によれば、複数のピンホールが形成されたマスクのマスクパターンが変更されたとしても、変更されたマスクパターンに応じて識別モデルが変更されるので、識別モデルを用いた画像識別における識別精度の低下を防止することができる。さらに、マスクのマスクパターンが変更されることで、第1のカメラによって撮像される計算撮像画像のボケ度合いを変更することができるので、被写体のプライバシーを保護しつつ、ユーザの心理的負荷を低減することができる。
 (2)上記(1)記載の画像識別システムにおいて、さらに、前記マスクの前記マスクパターンを変更するマスク変更部を備えてもよい。
 この構成によれば、マスクのマスクパターンが機械的に変更されることにより、マスクパターンを変更する精度を高めることができる。
 (3)上記(1)又は(2)に記載の画像識別システムにおいて、前記第1のカメラは、マルチピンホールカメラであり、前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、前記複数のマスクは、互いに異なるマスクパターンを有し、前記複数のマスクのうちの少なくとも1つが外されると、前記マルチピンホールマスクの前記マスクパターンが変更されてもよい。
 この構成によれば、マルチピンホールマスクを構成する複数のマスクの数を変更することにより、マスクパターンを容易に変更することができる。
 (4)上記(1)又は(2)に記載の画像識別システムにおいて、前記第1のカメラは、マルチピンホールカメラであり、前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、前記複数のマスクは、互いに異なるマスクパターンを有し、前記複数のマスクのうちの1のマスクに形成された前記複数のピンホールのうちの少なくとも1つは、前記複数のマスクのうちの他のマスクによって遮蔽されてもよい。
 この構成によれば、複数のマスクのうちの1のマスクが外されると、マルチピンホールマスクのピンホールの数が変更されるので、マスクパターンを容易に変更することができる。
 (5)上記(1)又は(2)に記載の画像識別システムにおいて、前記第1のカメラは、マルチピンホールカメラであり、前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、前記複数のマスクは、互いに異なるマスクパターンを有し、前記複数のマスクのうちの1のマスクに形成された前記複数のピンホールのうちの少なくとも1つは、前記複数のマスクのうちの他のマスクに形成された前記複数のピンホールのうちの少なくとも1つと、同じ位置にあってもよい。
 この構成によれば、複数のマスクを重ねたマルチピンホールマスクにピンホールを確実に形成することができる。
 (6)上記(5)記載の画像識別システムにおいて、前記1のマスクに含まれる1のピンホールのサイズは、前記1のピンホールと同じ位置にある前記他のマスクに含まれる他のピンホールのサイズと異なってもよい。
 この構成によれば、1のマスクまたは他のマスクが外されると、ピンホールのサイズが変更されるので、マスクパターンを容易に変更することができる。
 (7)上記(1)~(6)のいずれか1つに記載の画像識別システムにおいて、前記マスク識別部は、前記第1のカメラによって撮像された前記計算撮像画像から、前記マスクパターンに関するマスク情報を取得し、取得した前記マスク情報に基づいて前記マスクの前記マスクパターンを識別してもよい。
 この構成によれば、第1のカメラによって撮像された計算撮像画像から、変更されたマスクパターンを識別することができる。
 (8)上記(7)記載の画像識別システムにおいて、さらに、発光部を備え、前記マスク識別部は、前記第1のカメラによって撮像された前記発光部を含む画像から点拡がり関数を前記マスク情報として取得してもよい。
 この構成によれば、点拡がり関数を用いて、変更されたマスクパターンを識別することができる。
 (9)上記(1)~(6)のいずれか1つに記載の画像識別システムにおいて、さらに、前記マスクを識別するためのマスク識別情報を取得するマスク識別情報取得部を備え、前記マスク識別部は、取得された前記マスク識別情報に基づいて前記マスクの前記マスクパターンを識別してもよい。
 この構成によれば、マスクに設けたマスクID情報から、変更されたマスクパターンを識別することができる。
 (10)上記(1)~(6)のいずれか1つに記載の画像識別システムにおいて、前記マスクは、第1マスクと、前記第1マスクに重ねた第2マスクとを含み、さらに、前記第2マスクに対する前記第1マスクの回転角度を検出するために前記第1マスク及び前記第2マスクのそれぞれに形成された複数のマーカの位置を特定するマーカ位置特定部を備え、前記マスク識別部は、特定された前記複数のマーカの位置に基づいて前記第2マスクに対する前記第1マスクの回転角を検出し、検出した前記回転角に基づいて前記マスクの前記マスクパターンを識別してもよい。
 この構成によれば、マスクに設けたマーカの位置に基づいて検出される、第2マスクに対する第1マスクの回転角から、変更されたマスクパターンを識別することができる。
 (11)上記(1)~(10)のいずれか1つに記載の画像識別システムにおいて、さらに、複数のマスクパターンと複数の識別モデルとを対応付けて記憶する記憶部を備え、前記識別モデル変更部は、前記記憶部に記憶されている前記複数の識別モデルの中から、前記マスク識別部によって識別された前記マスクパターンに対応付けられている識別モデルを特定し、特定した前記識別モデルに現在の前記識別モデルを変更してもよい。
 この構成によれば、複数のマスクパターンと複数の識別モデルとが対応付けて記憶部に予め記憶されているので、変更されたマスクパターンに対応付けられている識別モデルを容易に特定することができるとともに、識別モデルを容易に変更することができる。
 (12)上記(1)~(10)のいずれか1つに記載の画像識別システムにおいて、さらに、ボケのない画像又は前記第1のカメラよりもボケの小さい画像を撮像する第2のカメラによって撮像された第1の学習画像と、前記第1の学習画像に付与されている正解ラベルとを取得し、前記マスク識別部によって識別された前記マスクパターンと前記第1の学習画像とに基づいて、ボケのある第2の学習画像を生成し、前記第2の学習画像と前記正解ラベルとを用いた機械学習を行うことによって、前記第1のカメラによって撮像された前記計算撮像画像を識別するための識別モデルを作成する学習部を備え、前記識別モデル変更部は、前記学習部によって作成された前記識別モデルに現在の前記識別モデルを変更してもよい。
 この構成によれば、変更されたマスクパターンに応じた識別モデルを新たに作成することができるので、識別モデルを用いた画像識別における識別精度の低下を防止することができる。
 また、本開示は、以上のような特徴的な構成を備える画像識別システムとして実現することができるだけでなく、画像識別システムが備える特徴的な構成に対応する特徴的な処理を実行する画像識別方法などとして実現することもできる。また、このような画像識別方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現することもできる。したがって、以下の他の態様でも、上記の画像識別システムと同様の効果を奏することができる。
 (13)本開示の他の態様に係る画像識別方法は、画像識別システムにおける画像識別方法であって、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、識別した前記マスクパターンに応じて、前記識別モデルを変更する。
 (14)本開示の他の態様に係る画像識別プログラムは、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、識別した前記マスクパターンに応じて、前記識別モデルを変更するようにコンピュータを機能させる。
 (15)本開示の他の態様に係るコンピュータ読み取り可能な非一時的な記録媒体は、画像識別プログラムを記録しており、前記画像識別プログラムは、複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、識別した前記マスクパターンに応じて、前記識別モデルを変更するようにコンピュータを機能させる。
 以下本開示の実施の形態について、図面を参照しながら説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。また、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
 (実施の形態1)
 図1は、本開示の実施の形態1にかかる画像識別システム1の構成の一例を示すブロック図である。
 本実施の形態1の画像識別システム1は、第1のカメラ101と、識別モデルを記憶する記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107と、発光部108とを備える。マスク識別部105と、識別モデル変更部106と、画像識別部103とは、CPU(Central Processing Unit)などのプロセッサ及び半導体メモリなどのメモリを含む。記憶部102は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は半導体メモリなどである。出力部107は、表示装置又はスピーカなどである。
 画像識別システム1は、例えば、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106とを備えた画像識別装置を含み、第1のカメラ101と、出力部107と、発光部108とが、画像識別装置に接続される構成であってもよい。また、画像識別装置は、サーバであってもよい。また、画像識別システム1は、例えば、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107とを備えた画像識別装置を含み、発光部108が、画像識別装置に接続される構成であってもよい。
 図2は、本実施の形態1にかかる画像識別システム1の画像識別処理の手順の一例を示すフローチャートである。当該フローチャートには、画像識別システム1による画像の識別処理の流れが示されている。
 まず、第1のカメラ101は、ボケのない通常の画像を撮像する通常のカメラとは異なり、ボケのある画像である計算撮像画像を撮像する(ステップS101)。計算撮像画像は、意図的に作り出されたボケによって撮像画像自体を人が見ても被写体を認識できないが、撮像した計算撮像画像に対して画像処理を実施することで、人が認識又は画像識別部103が識別できる画像を生成することができる画像である。
 第1のカメラ101は、複数のピンホールが形成された変更可能なマスクパターンを有するマスクと、イメージセンサとを含む。また、第1のカメラ101は、領域ごとに透過率が異なるマスクパターンを有するマスクを備えた符号化開口カメラ、及び複数のピンホールが形成されたマスクパターンを有するマスクがイメージセンサの受光面に配置されたマルチピンホールカメラのいずれかである。マルチピンホールカメラは、従来文献(例えば、M.Salman Asif、Ali Ayremlou、Ashok Veeraraghavan、Richard Baraniuk及びAswin Sankaranarayanan著、「FlatCam:Replacing Lenses with Masks and Computation」、International Conference on Computer Vision Workshop(ICCVW)、2015年、P.663-666)に開示されている。マスクのマスクパターンは、変更可能な構成となっている。
 図3は、本実施の形態1において、レンズレスで構成されたマルチピンホールカメラ301の一例を示す模式図である。
 マルチピンホールカメラ301は、第1のカメラ101の一例である。図3に示すマルチピンホールカメラ301は、マルチピンホールマスク301aと、イメージセンサ301bとを有する。マルチピンホールマスク301aは、イメージセンサ301bから一定距離離れて配置されている。マルチピンホールマスク301aは、ランダム又は等間隔に配置された複数のピンホール301aaを有している。複数のピンホール301aaは、マルチピンホールとも呼ばれる。イメージセンサ301bは、各ピンホール301aaを通じて被写体の画像を取得する。ピンホール301aaを通じて取得される画像は、ピンホール画像とも呼ばれる。
 各ピンホール301aaの位置及び大きさによって、被写体のピンホール画像は異なるため、イメージセンサ301bは、複数のピンホール画像がわずかにずれて重なり合った状態(多重像)の重畳画像を取得する。複数のピンホール301aaの位置は、イメージセンサ301b上に投影される被写体の位置に影響を与え、ピンホール301aaの大きさは、ピンホール画像のボケ度合いに影響を与える。
 マルチピンホールマスク301aが用いられることによって、位置及びボケの程度が異なる複数のピンホール画像を重畳して取得することが可能である。つまり、マルチピンホールカメラ301は、意図的に多重像及びボケが作り出された計算撮像画像を取得することが可能である。そのため、撮影される画像は重畳画像となり、マルチピンホールカメラ301は、被写体のプライバシーが保護されたボケ画像を取得することができる。また、各ピンホールの数、位置、及び大きさを変えることで、ボケ方の異なる画像を取得することができる。
 次に、画像識別部103は、第1のカメラ101によって撮像された計算撮像画像に対して識別処理を実施する(ステップS102)。画像識別部103は、学習装置の学習結果である識別モデルを利用して、第1のカメラ101で撮像された計算撮像画像に関して、この計算撮像画像に含まれる人物(人物の行動又は表情を含む)、自動車、自転車、又は信号などの被写体のカテゴリ情報と被写体の位置情報とを識別する。識別モデルを作成するための学習には、多層ニューラルネットワークを用いたDeep Learningなどの機械学習を利用すればよい。
 画像識別部103は、第1のカメラ101によって撮像された計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して計算撮像画像を識別する。
 次に、出力部107は、画像識別部103による識別結果を出力する(ステップS103)。出力部107は、インターフェイス部を有し、画像、テキスト、又は音声などによって識別結果をユーザに提示してもよい。また、出力部107は、機器制御部を有し、識別結果によって制御方法を変更するようにしても構わない。
 また、図4は、本実施の形態1において、マスクパターンが変更された際の画像識別システム1の主要な処理の手順の一例を示すフローチャートである。
 第1のカメラ101のマスクパターンが変更されると、マスク識別部105は、第1のカメラ101のマスクのマスクパターンを識別する(ステップS202)。なお、ステップS202の処理は、例えば、1分毎などのように定期的に行われてもよい。マスク識別部105は、マスクパターンが変更された後に、変更されたマスクパターンを識別する。
 また、ユーザがマスクパターンを変更した場合、画像識別システムが備える入力部は、ユーザによるマスクパターン識別指示の入力を受け付けてもよい。そして、マスクパターン識別指示の入力が受け付けられた場合、マスク識別部105は、変更されたマスクパターンを識別してもよい。この場合、画像識別システム1は、発光部108に替えて入力部を備えてもよい。
 マスク識別部105は、第1のカメラ101によって撮像された画像における点拡がり関数が変更したか否かを判断してもよい。そして、点拡がり関数が変更した場合、マスク識別部105は、マスクパターンが変更したと判断し、変更されたマスクパターンを識別してもよい。
 次に、識別モデル変更部106は、マスク識別部105によって識別されたマスクパターンに合わせて識別モデルを変更する(ステップS203)。識別モデル変更部106は、マスク識別部105によって識別されたマスクパターンに応じて、識別モデルを変更する。
 ここで、記憶部102は、複数のマスクパターンと複数の識別モデルとを対応付けて予め記憶している。識別モデル変更部106は、記憶部102に記憶されている複数の識別モデルの中から、マスク識別部105によって識別されたマスクパターンに対応付けられている識別モデルを特定する。識別モデル変更部106は、特定した識別モデルに、画像識別部103が使用する現在の識別モデルを変更し、変更した識別モデルを記憶部102に記憶する。
 なお、記憶部102は、複数のマスク情報と複数の識別モデルとを対応付けて予め記憶してもよい。マスク情報は、例えば、点拡がり関数である。識別モデル変更部106は、記憶部102に記憶されている複数の識別モデルの中から、マスク識別部105によって取得されたマスク情報に対応付けられている識別モデルを特定してもよい。
 また、マスク情報が点拡がり関数である場合、識別モデル変更部106は、記憶部102に記憶されている複数の識別モデルの中から、マスク識別部105によって取得された点拡がり関数に最も類似する点拡がり関数に対応付けられている識別モデルを特定してもよい。識別モデル変更部106は、取得した点拡がり関数と予め記憶されている点拡がり関数との相関(類似度)を判定することで、取得した点拡がり関数に最も類似する点拡がり関数を特定することができる。
 第1のカメラ101がマルチピンホールカメラ301である場合、第1のカメラ101のマスクに対応するマルチピンホールマスク301aは、複数のマスクを重ねた構成である。ユーザは、例えば、重ねて配置された複数のマスクのうちの少なくとも1枚を外すことでマルチピンホールマスク301aのマスクパターンを変更する。
 本実施の形態1において、第1のカメラ101は、マルチピンホールカメラ301であり、マスクは、複数のマスクを重ねたマルチピンホールマスク301aであり、複数のマスクは、互いに異なるマスクパターンを有している。複数のマスクのうちの少なくとも1つが外されると、マルチピンホールマスク301aのマスクパターンが変更される。
 図5から図7は、本実施の形態1において、マルチピンホールマスクを構成する複数のマスクの一例を説明するための模式図である。図5は、本実施の形態1において、9個のピンホールを有するマスク400aの一例を示す図であり、図6は、本実施の形態1において、5個のピンホールを有するマスク400bの一例を示す図であり、図7は、本実施の形態1において、1個のピンホールを有するマスク400cの一例を示す図である。
 図5に示す9個のピンホール401a~409aのサイズは同じであってもよいし、9個のピンホールのうちの1個のサイズは、他のピンホールのサイズと異なってもよい。この点は、図6に示す5個のピンホール401b~405bについても同様である。また、図5に示す9個のピンホール401a~409aのサイズは、図6に示す5個のピンホール401b~405bのサイズ及び図7に示す1個のピンホール401cのサイズと同じであってもよいし、異なっていてもよい。
 これらのマスク400a~400cにおいて、ピンホール401aとピンホール401bとピンホール401cとのそれぞれの位置が一致し、ピンホール402aとピンホール402bとの位置が一致し、ピンホール403aとピンホール403bとの位置が一致し、ピンホール404aとピンホール404bとの位置が一致し、ピンホール405aとピンホール405bとの位置が一致するように固定されている。このとき、マスク400aのピンホール402a~405aの位置及びマスク400bのピンホール402b~405bの位置は、マスク400cにおいてピンホール401cが形成されていない遮蔽部と一致するように固定されている。また、マスク400aにおいて、中央のピンホール401aを除く8個のピンホール402a~409aのうち、ピンホール402b~405bとは異なる位置にある4個のピンホール406a~409aは、マスク400bにおいてピンホール401b~ピンホール405bが形成されていない遮蔽部と一致するように固定されている。
 すなわち、複数のマスクのうちの1のマスクに形成された複数のピンホールのうちの少なくとも1つは、複数のマスクのうちの他のマスクに形成された複数のピンホールのうちの少なくとも1つと、同じ位置にある。また、複数のマスクのうちの1のマスクに形成された複数のピンホールのうちの少なくとも1つは、複数のマスクのうちの他のマスクによって遮蔽される。
 3枚のマスク400a,400b,400cが上述のように重ねられたマルチピンホールマスク301aには、ピンホール401a,401b,401cにより構成された1個のピンホールが形成されている。従って、3枚のマスク400a,400b,400cが重ねられたマルチピンホールマスク301aは、1個のピンホールが形成されたマスクパターンを有するといえる。また、3枚のマスク400a,400b,400cのそれぞれの厚さが十分に小さい場合、3枚のマスク400a,400b,400cが重ねられたマルチピンホールマスク301aは、1個のピンホールが形成されたマスク、つまり図7に示したマスク400cと実質的に同じといえる。
 3枚のマスク400a,400b,400cが上述のように重ねられたマルチピンホールマスク301aを有するマルチピンホールカメラ301で撮影すると、撮影範囲に含まれる被写体が発する光のうち、上述の1個のピンホールを構成するピンホール401a,401b,401cを通過した光がイメージセンサ301bの受光面で受光される。
 3枚のマスク400a,400b,400cが重ねられたマルチピンホールマスク301aにおいて、マスク400cがユーザによって外された場合、マルチピンホールマスク301aは、2枚のマスク400a及びマスク400bを重ねた構成となる。
 2枚のマスク400a,400bが重ねられたマルチピンホールマスク301aには、(1)ピンホール401a,401bにより構成されたピンホールと、(2)ピンホール402a,402bにより構成されたピンホールと、(3)ピンホール403a,403bにより構成されたピンホールと、(4)ピンホール404a,404bにより構成されたピンホールと、(5)ピンホール405a,405bにより構成されたピンホールとの5個のピンホールが形成されている。従って、2枚のマスク400a,400bが重ねられたマルチピンホールマスク301aは、5個のピンホールが形成されたマスクパターンを有するといえる。また、2枚のマスク400a,400bのそれぞれの厚さが十分に小さい場合、2枚のマスク400a,400bが重ねられたマルチピンホールマスク301aは、5個のピンホールが形成されたマスク、つまり図6に示したマスク400bと実質的に同じといえる。
 2枚のマスク400a,400bが重ねられたマルチピンホールマスク301aを有するマルチピンホールカメラ301で撮影すると、撮影範囲に含まれる被写体が発する光のうち、(1)マルチピンホールを構成するピンホール401a,401bを通過した光、(2)マルチピンホールを構成するピンホール402a,402bを通過した光、(3)マルチピンホールを構成するピンホール403a,403bを通過した光、(4)マルチピンホールを構成するピンホール404a,404bを通過した光、及び(5)マルチピンホールを構成するピンホール405a,405bを通過した光がそれぞれイメージセンサ301bの受光面で受光される。
 このように、3枚のマスク400a,400b,400cからマスク400cが外されると、マルチピンホールマスク301aのマスクパターンは、1個のピンホールが形成されたマスクパターンから5個のピンホールが形成されたマスクパターンに変更される。
 2枚のマスク400a及びマスク400bが重ねられたマルチピンホールマスク301aにおいて、マスク400bがユーザにより外された場合、マルチピンホールマスク301aはマスク400aのみで構成される。1枚のマスク400aにより構成されるマルチピンホールマスク301aは、9個のピンホールが形成されたマスク、つまり、図5に示した9個のピンホールが形成されたマスクパターンを有するマスク400aとなる。
 このように、2枚のマスク400a,400bからマスク400bが外されると、マルチピンホールマスク301aのマスクパターンは、5個のピンホールが形成されたマスクパターンから9個のピンホールが形成されたマスクパターンに変更される。
 このように、マスク400b及びマスク400cを外すために、マスク400aとマスク400bとマスク400cとは、シールのように、着脱可能な接着剤で固定しておき、ユーザが手動でマスク400b及びマスク400cのそれぞれをマスク400aからはがすことでマスクパターンが変更されても構わない。
 もちろん、ユーザは、一部のマスクを外すのではなく、マスクを追加することで、マスクパターンの変更を実現しても構わない。図5に示した9個のピンホールが形成されたマスク400aがマルチピンホールマスク301aとして設置されている状態で、ユーザが、ピンホール401aとピンホール401bとの位置が一致し、ピンホール402aとピンホール402bとの位置が一致し、ピンホール403aとピンホール403bとの位置が一致し、ピンホール404aとピンホール404bとの位置が一致し、ピンホール405aとピンホール405bとの位置が一致するようにマスク400bをマスク400aに固定してもよい。これにより、マルチピンホールマスク301aは2枚のマスク400a及びマスク400bを重ねた構成となり、このマルチピンホールマスク301aは上述したように5個のピンホールが形成されたマスクパターンを有するといえる。また、2枚のマスク400a,400bのそれぞれの厚さが十分に小さい場合、2枚のマスク400a,400bが重ねられたマルチピンホールマスク301aは、5個のピンホールが形成されたマスク、つまり図6に示したマスク400bと実質的に同じといえる。
 さらに、2枚のマスク400a,400bが重ねられた状態から、ユーザが、ピンホール401aとピンホール401bとピンホール401cとの位置が一致するようにマスク400cをマスク400bに固定する。これにより、マルチピンホールマスク301aは、3枚のマスク400a、マスク400b及びマスク400cを重ねた構成となり、このマルチピンホールマスク301aは、上述したように1個のピンホールが形成されたマスク、つまり図7に示したマスク400cと実質的に同じといえる。
 もちろん、ユーザは、複数のマスクのうちの1枚のマスクを外すのではなく、1枚のマスクを入れ替えることでマスクパターンを変更しても構わない。マルチピンホールマスク301aとして図5に示した9個のピンホールが形成されたマスク400aを設置した状態で、ユーザが、マスク400aを図6に示したマスク400bに変更することで、マルチピンホールマスク301aのマスクパターンを9個のピンホールが形成されたマスクパターンから5個のピンホールが形成されたマスクパターンに変更することができる。
 また、本実施の形態1において、複数のマスクのうちの1のマスクに含まれる1のピンホールのサイズは、複数のマスクのうち、上述した1のピンホールと同じ位置にある他のマスクに含まれる他のピンホールのサイズと同じであるが、本開示は特にこれに限定されない。例えば、複数のマスクのうちの1のマスクに含まれる1のピンホールのサイズは、複数のマスクのうち、上述した1のピンホールと同じ位置にある他のマスクに含まれる他のピンホールのサイズと異なってもよい。例えば、マスク400bにピンホール401bからピンホール405bの5個のピンホールが形成され、かつマスク400aの5個のピンホールの位置、つまりピンホール401aからピンホール405aの位置が、マスク400bのピンホール401bからピンホール405bの位置と同じであったとしても、マスク400aの5個のピンホールのうちの少なくとも1個のピンホールのサイズが、マスク400bのうち、上述したピンホールと同じ位置にあるピンホールのサイズよりも大きくなるように形成されてもよい。これにより、マスク400a及びマスク400bを重ねたマルチピンホールマスクのマスクパターンと、マスク400aのみで構成されるマルチピンホールマスクのマスクパターンとを互いに異ならせることができる。
 もちろん、ユーザは、複数のマスクのうちの1枚を外すのではなく、複数のマスクのうちの1枚を回転させることでマスクパターンを変更しても構わない。
 図8及び図9は、本実施の形態1の変形例1において、マルチピンホールマスク301aを構成する複数のマスクの一例を説明するための模式図である。図8は、本実施の形態1の変形例1において、6個のピンホールを有するマスク400dの一例を示す図であり、図9は、本実施の形態1の変形例1において、扇形の2つの開口部を有するマスク400eの一例を示す図である。図10は、本実施の形態1の変形例1において、2枚のマスク400d,400eを重ねた6個のピンホールを有するマルチピンホールマスク301aの一例を示す図であり、図11は、本実施の形態1の変形例1において、2枚のマスク400d,400eを重ねた4個のピンホールを有するマルチピンホールマスク301aの一例を示す図であり、図12は、本実施の形態1の変形例1において、2枚のマスク400d,400eを重ねた2個のピンホールを有するマルチピンホールマスク301aの一例を示す図である。
 マルチピンホールマスク301aは、図8に示したマスク400dと、図9に示したマスク400eとを重ねた構成であり、マスク400dは回転可能となるように構成されている。マスク400eは固定されている。マスク400dには、マルチピンホールに対応する複数のピンホール411~416が形成されている。マスク400eには、扇形の開口部417及び418が形成されている。扇形の開口部417,418の中心角は90度であり、開口部417及び418の半径は円形状のマスク400eの半径と略一致する。開口部417と開口部418とは、マスク400eの中心点に対して点対称となるように形成されている。この2枚のマスク400d及びマスク400eが図10に示すように重なっている場合、マスク400dの6個のピンホール411~416はマスク400eの2個の扇形の開口部417,418と一致する。そのため、マルチピンホールマスク301aは、6個のピンホールが形成されたマスクパターンを有する。
 図10の状態から、マスク400dが時計回りに30度回転すると、2枚のマスク400d,400eは図11に示すように重なる。このとき、マスク400dのピンホール412,143,414,415は、マスク400dの紙面奥側に位置するマスク400eの開口部417,418(白い点線で示した2つの扇型の領域)と一致するが、マスク400dのピンホール411,416はマスク400eの遮蔽部に重なる。そのため、図11に示すマルチピンホールマスク301aは、4個のピンホールが形成されたマスクパターンを有する。つまり、図10に示すマルチピンホールマスク301aにおけるマスク400dが時計回りに30度回転することで、マルチピンホールマスク301aのマスクパターンは、6個のピンホールが形成されたマスクパターンから4個のピンホールが形成されたマスクパターンに変更される。
 一方、図10の状態から、マスク400dが反時計回りに30度回転すると、2枚のマスク400d,400eは図12に示すように重なる。このとき、マスク400dのピンホール411,416はマスク400eの開口部と一致するが、マスク400dのピンホール412,143,414,415はマスク400eの遮蔽部に重なる。そのため、マルチピンホールマスク301aは、2個のピンホールが形成されたマスクパターンを有する。つまり、図10に示すマルチピンホールマスク301aにおけるマスク400dが反時計回りに30度回転することで、マルチピンホールマスク301aのマスクパターンは、6個のピンホールが形成されたマスクパターンから2個のピンホールが形成されたマスクパターンに変更される。
 もちろん、マスク400dが固定され、マスク400eが回転可能であってもよい。また、マスク400dとマスク400eとの両方が回転可能であってもよい。
 続いて、図13から図16を用いて、本実施の形態1の変形例1において、ユーザが任意にマスクを回転可能なマルチピンホールカメラ301の構成について説明する。
 図13は、本実施の形態1の変形例1におけるマルチピンホールカメラ301の外観を示す模式図であり、図14は、本実施の形態1の変形例1におけるマルチピンホールカメラ301の断面を示す模式図である。図13は、マルチピンホールカメラ301を横から見た図である。図14に示すマルチピンホールカメラ301は、図13に示すマルチピンホールカメラ301の断面を示している。
 マルチピンホールカメラ301は、その筐体501に対して、回転可能なマスク400dと回転しないマスク400eとを重ねた構成であるマルチピンホールマスク301aを有している。回転可能なマスク400dにはユーザが操作可能な把持部502が接続されている。また、ユーザは、把持部502を把持して操作することにより、筐体501に対してマスク400dを固定又は回転することが可能である。このような機構は、把持部502にネジを設け、そのネジを締めることでマスク400dを固定し、ネジを緩めることでマスク400dを回転可能とすればよい。
 図15は、本実施の形態1の変形例1において、把持部502を90度回転させる前のマスク400dを示す模式図である。図16は、本実施の形態1の変形例1において、把持部502を90度回転させたときのマスク400dを示す模式図である。図15及び図16は、被写体側からマルチピンホールカメラ301を見た図である。
 図16に示すように、ユーザが把持部502を90度回転させたとき、マスク400dは90度回転する。このように、この把持部502をユーザが動かすことにより、マスク400dを回転させることができる。これにより、マルチピンホールマスク301aのマスクパターンを変更することができる。
 また、ユーザにより任意にマスクが回転可能なマルチピンホールカメラ301においては、マルチピンホールマスク301aの複数のピンホールは、図15に示すように、マスク400dの回転軸を通る垂直線に対して回転対称にならないように配置しても構わない。このように複数のピンホールが非対称に配置されることで、ユーザがマスク400dを回転することで、様々なマスクパターンを実現することが可能である。
 もちろん、ユーザにより任意にマスクが回転可能なマルチピンホールカメラ301の構成は、把持部502を有しない構成であっても構わない。図17から図20を用いて、本実施の形態1の変形例2において、ユーザにより任意にマスクが回転可能なマルチピンホールカメラ301の別の構成を説明する。
 図17は、本実施の形態1の変形例2におけるマルチピンホールカメラ301の外観を示す模式図であり、図18は、本実施の形態1の変形例2におけるマルチピンホールカメラ301の断面を示す模式図である。図17は、マルチピンホールカメラ301を横から見た図である。図18に示すマルチピンホールカメラ301は、図17に示すマルチピンホールカメラ301の断面を示している。
 マルチピンホールカメラ301は、回転可能なマスク400dと回転しないマスク400eとから構成されるマルチピンホールマスク301aを有している。回転可能なマスク400dは第1鏡筒511に固定されている。また、イメージセンサ301b及び回転しないマスク400dは、第1鏡筒511とは別の第2鏡筒512に設置されている。第1鏡筒511と第2鏡筒512とはネジの構成で回転可能な状態となっている。すなわち、第1鏡筒511の外側に第2鏡筒512があり、その接合部である第1鏡筒511の外側にはオスネジが、第2鏡筒512の内側にはメスネジがきられている。また、第1鏡筒511のオスネジには、まず、固定具513が装着され、その後、第2鏡筒512が装着されている。固定具513にも、第2鏡筒512同様、メスネジがきられている。このような構成とすることで、第1鏡筒511を第2鏡筒512へねじ込む際、固定具513の第1鏡筒511へのねじ込み位置によって、ねじ込みの深さが変化し、回転可能なマスク400dの回転角を変更することができる。
 図19および図20は、固定具513の第1鏡筒511へのねじ込み位置によって、ねじ込みの深さが変化し、回転可能なマスク400dの回転角が変化することを示す模式図である。
 図19は、本実施の形態1の変形例2において、固定具513を第1鏡筒511の奥までねじ込んだ場合のマルチピンホールカメラ301の断面を示す模式図であり、図20は、本実施の形態1の変形例2において、固定具513を第1鏡筒511の途中までしかねじ込まない場合のマルチピンホールカメラ301の断面を示す模式図である。
 図19に示したように、固定具513を第1鏡筒511の奥までねじ込んだ場合、第2鏡筒512は第1鏡筒511の奥までねじ込むことができる。一方、図20に示したように、固定具513を第1鏡筒511の途中までしかねじ込まない場合、第2鏡筒512は第1鏡筒511の途中までしかねじ込むことができない。そのため、固定具513の第1鏡筒511へのねじ込み位置によって、ねじ込みの深さが変化し、回転可能なマスク400dの回転角を変化させることができる。
 また、本実施の形態1の変形例3において、マルチピンホールマスクは、ユーザがマスクに任意の穴をあけることで実現しても構わない。
 図21は、本実施の形態1の変形例3におけるマルチピンホールカメラ301の断面を示す模式図である。図21において、図13から図16と同じ構成要素に関しては同じ参照符号を付し、説明を省略する。本実施の形態1の変形例3におけるマルチピンホールカメラ301は、イメージセンサ301bと、イメージセンサ301bの前に取り付けられているマスク301abとを有している。ユーザは、マスク301abの任意の箇所に穴を開けることができる。マスク301abには当初、ピンホールは存在しない。このマスク301abに、ユーザが針などで任意の複数の位置に穴をあけることで、任意のマスクパターンのマルチピンホールマスクを作成することができる。
 続いて、本実施の形態1の変形例4における画像識別システムについて説明する。
 図22は、本開示の実施の形態1の変形例4にかかる画像識別システム1Bの構成の一例を示すブロック図である。なお、図22に示す画像識別システム1Bにおいて、図1に示す画像識別システム1と同じ構成については同じ符号を付し、説明を省略する。
 画像識別システム1Bは、第1のカメラ101と、識別モデルを記憶する記憶部102と、画像識別部103と、マスク変更部104と、マスク識別部105と、識別モデル変更部106と、出力部107と、入力部109とを備える。
 画像識別システム1Bは、例えば、記憶部102と、画像識別部103と、マスク変更部104と、マスク識別部105と、識別モデル変更部106とを備えた画像識別装置を含み、第1のカメラ101と、出力部107と、入力部109とが、画像識別装置に接続される構成であってもよい。また、画像識別装置は、サーバであってもよい。また、画像識別システム1Bは、例えば、第1のカメラ101と、記憶部102と、画像識別部103と、マスク変更部104と、マスク識別部105と、識別モデル変更部106と、出力部107と、入力部109とを備えた画像識別装置であってもよい。なお、画像識別システム1Bに含まれる画像識別装置は、図1に示した発光部108と接続する構成であってもよい。より具体的には、例えば、マスク識別部105が発光部108と接続する構成であってもよい。
 また、本実施の形態1の変形例4において、マルチピンホールマスク301aは、任意に穴の位置及び大きさを変更可能な空間光変調器520で構成される。マスク変更部104は、マルチピンホールマスク301aの穴の位置及び大きさを変更する。このようなマルチピンホールマスク301aは、Liquid Crystal On Silicon(LCOS)又は空間光位相変調器などの空間光変調器によって実現できる。
 マスク変更部104は、マスクのマスクパターンを変更する。
 入力部109は、マスクのマスクパターンを変更するためのユーザによる入力を受け付ける。ユーザは、マルチピンホールマスク301aの複数のピンホールの位置及び大きさを入力部109に入力する。例えば、入力部109は、複数のマスクパターンの中から、1つのマスクパターンのユーザによる選択を受け付けてもよい。ユーザは、複数のマスクパターンの中から、1つのマスクパターンを選択してもよい。
 マスク変更部104は、入力部109によって受け付けた複数のピンホールの位置及び大きさに応じて、マルチピンホールマスク301aのマスクパターンを変更するように第1のカメラ101に指示する。第1のカメラ101が有する空間光変調器520は、マスク変更部104からの指示に応じて、複数のピンホールの位置及び大きさを変更する。
 図23は、本実施の形態1の変形例4において、マスクパターンが変更された際の画像識別システム1Bの主要な処理の手順の一例を示すフローチャートである。
 まず、マスク変更部104は、第1のカメラ101のマスクパターンを変更する(ステップS201)。マスク変更部104は、変更後のマスクパターン、すなわち、複数のピンホールの位置及び大きさをマスク識別部105に通知する。
 次に、マスク識別部105は、第1のカメラ101のマスクのマスクパターンを識別する(ステップS202)。マスク識別部105は、マスク変更部104から通知される変更後のマスクパターンに基づいて、マスクのマスクパターンを識別する。
 図24は、本実施の形態1の変形例4におけるマルチピンホールカメラ301の断面を示す模式図である。マルチピンホールカメラ301は、空間光変調器520を利用し、マスク内の各位置の透過率を任意に設定する。図24において、図21の構成要素と同じ構成要素に関しては同じ参照符号を付し、説明を省略する。空間光変調器520は、例えば液晶などで構成され、画素ごとの透過率を変更することができる。この空間光変調器520が、マルチピンホールマスク301aとして機能する。透過率の変更は、空間光変調器制御部(マスク変更部104)により変更される。そのため、事前に用意した複数の透過率パターンの中から、ユーザが任意のパターンを選択することで様々なマスクパターン(マルチピンホールパターン)を実現することができる。
 また、マスク変更部104は、マルチピンホールマスク301aに外力を印加させ、マスクを変形させることで、マスクパターンを変更してもよい。図25から図31を用いて、本実施の形態1の変形例5において、外力の印加によってマスクを変形する構成のマルチピンホールカメラ301に関し説明をする。なお、本実施の形態1の変形例5における画像識別システムの構成は、本実施の形態1の変形例4における画像識別システム1Bの構成と同じである。
 図25は、本実施の形態1の変形例5におけるマルチピンホールカメラ301の断面を示す模式図である。本実施の形態1の変形例5におけるマルチピンホールカメラ301は、外力の印加によってマスクを変形する。図25において、図21と同じ構成要素に関しては同じ参照符号を付し、説明を省略する。
 図26は、本実施の形態1の変形例5におけるマルチピンホールマスク301acを構成する第1マスク301a1の一例を示す模式図であり、図27は、本実施の形態1の変形例5におけるマルチピンホールマスク301acを構成する第2マスク301a2の一例を示す模式図であり、図28は、本実施の形態1の変形例5におけるマルチピンホールマスク301acを構成する第3マスク301a3の一例を示す模式図である。
 図29は、本実施の形態1の変形例5において、第1マスク301a1、第2マスク301a2及び第3マスク301a3を重ねて構成したマルチピンホールマスク301acの一例を示す模式図である。図30は、本実施の形態1の変形例5において、マルチピンホールマスク301acに外力を印加した場合のマルチピンホールマスク301acの一例を示す模式図である。図31は、本実施の形態1の変形例5において、マルチピンホールマスク301acにさらに外力を印加した場合のマルチピンホールマスク301acの一例を示す模式図である。
 マルチピンホールマスク301acは、第1マスク301a1、第2マスク301a2及び第3マスク301a3を重ねた構成である。第1のカメラ101の一例であるマルチピンホールカメラ301は、第1マスク301a1、第2マスク301a2及び第3マスク301a3のそれぞれに対して独立に外力を印加する駆動部を有している。ここで、各マスクは扇型と円環とが組み合わされた形状である。もちろん、この構成は一例であり、形状は扇形に限らず、マルチピンホールマスク301acを構成する複数のマスクの枚数も3枚に限らない。各マスクには、1個、または複数のピンホールが形成されている。また、マスクには、ピンホールが形成されていなくても構わない。
 第1マスク301a1は、2つのピンホール301aa1,301aa2を有する。第2マスク301a2は、1つのピンホール301aa3を有する。第3マスク301a3は、2つのピンホール301aa4,301aa5を有する。駆動部は、これら3つのマスクを外力の印加によって動かすことで、様々なマスクパターンを作成する。
 マスク変更部104は、入力部109によって受け付けた複数のピンホールの数及び位置に応じて、マルチピンホールマスク301acのマスクパターンを変更するように第1のカメラ101に指示する。第1のカメラ101が有する駆動部は、マスク変更部104からの指示に応じて複数のマスクに外力を印加し、マルチピンホールマスク301acの複数のピンホールの数及び位置を変更する。
 図29、図30及び図31は、第1マスク301a1、第2マスク301a2及び第3マスク301a3で構成された3種類のマルチピンホールマスク301acを示している。図29及び図30に示すマルチピンホールマスク301acは、5個のピンホールを有し、図31に示すマルチピンホールマスク301acは、4個のピンホールを有している。このようなマスクの駆動部は、オートフォーカスなどで広く利用されている超音波モータ又はリニアモータで実現される。
 このように、外力の印加によってマルチピンホールマスク301acにおけるピンホールの数又は位置を変化させることができる。例えば、図29に示すマルチピンホールマスク301acに外力が印加されることで、ピンホール301aa1,301aa2,301aa3の位置が図30に示すように変化する。また、図29に示すマルチピンホールマスク301acに外力がさらに印加されることで、ピンホール301aa2が第3マスク301a3によって遮蔽される。これにより、図31に示すように、マルチピンホールマスク301acにおけるピンホールの数が4個に変化している。
 もちろん、マスク変更部104は、マルチピンホールマスクの複数のピンホールの数又は位置だけを変化させるのではなく、複数のピンホールの大きさも変化させるようにしても構わない。
 図32は、本実施の形態1の変形例6におけるマルチピンホールマスク301adの構成を説明するための模式図である。マルチピンホールカメラ301におけるマルチピンホールマスク301adの構成は、外力の印加によってマスクを変形する構成である。
 マルチピンホールマスク301adは、複数のピンホールを有し、弾性を有する材質で構成される。マルチピンホールマスク301adは、例えば、3つのピンホールを有している。第1のカメラ101の一例であるマルチピンホールカメラ301は、独立に制御可能な複数の駆動部521~524を有する。もちろん、駆動部の数は4つである必要はない。マスク変更部104は、各駆動部を動かすことにより、マルチピンホールマスク301adにおける複数のピンホールの位置又は大きさを変化させることができる。
 マスク変更部104は、入力部109によって受け付けた複数のピンホールの位置及び大きさに応じて、マルチピンホールマスク301adのマスクパターンを変更するように第1のカメラ101に指示する。第1のカメラ101が有する駆動部は、マスク変更部104からの指示に応じてマルチピンホールマスク301adに外力を印加し、マルチピンホールマスク301adの複数のピンホールの位置及び大きさを変更する。
 図33は、本実施の形態1の変形例6において、4つの駆動部521~524を同じ向きに動かした場合のマルチピンホールマスク301adの様子を示した模式図である。図33において、駆動部521~524に示した矢印の向きが、駆動部521~524のそれぞれの駆動方向を示している。この場合、駆動部521~524のそれぞれの駆動方向は同じである。そのため、マルチピンホールマスク301adは駆動方向に平行移動する。その結果、マルチピンホールマスク301adが有する3つのピンホールも、駆動方向に平行移動する。
 なお、マルチピンホールマスク301adが駆動方向に平行移動されることにより、マルチピンホールマスク301adの複数のピンホールの数及び位置が変更されてもよい。例えば、撮像範囲外にあったピンホールが撮像範囲内に移動することにより、ピンホールの数が増加してもよく、撮像範囲内にあったピンホールが撮像範囲外に移動することにより、ピンホールの数が減少してもよい。
 一方、図34は、本実施の形態1の変形例6において、4つの駆動部521~524をマルチピンホールマスク301adの中心部から外向きの方向に動かした場合のマルチピンホールマスク301adの様子を示した模式図である。この場合、マルチピンホールマスク301adはその材質の弾性に従って引き延ばされるため、各ピンホールのサイズが大きくなる。このような駆動部521~524は、オートフォーカスなどで広く利用されている超音波モータ又はリニアモータで実現される。このように、外力の印加によってマルチピンホールマスク301adにおけるピンホールの位置又は大きさを変化させることができる。
 なお、本実施の形態1では、ユーザが、マルチピンホールマスクの複数のマスクを重ね合わせているが、本開示は特にこれに限定されない。マルチピンホールカメラ301は、複数のマスクのうちの少なくとも1つのマスクをイメージセンサ301bの前方に挿入したり、複数のマスクのうちの少なくとも1つのマスクをイメージセンサ301bの前方から外したりする駆動部を備えてもよい。この場合、マスク変更部104は、入力部109からの指示に従って駆動部を制御し、マルチピンホールマスクを構成する複数のマスクの数を変更してもよい。例えば、マルチピンホールマスク301aが図5~図7に示す3枚のマスク400a~400cで構成される場合、駆動部は、マスク400b及びマスク400cの少なくとも一方を移動させてもよい。そして、マスク変更部104は、変更するマスクパターンに応じてマスク400b及びマスク400cの少なくとも一方を移動させるよう駆動部を制御してもよい。マスク変更部104は、2枚のマスク400b,400cの少なくとも一方を、イメージセンサ301bの前方に挿入したり、イメージセンサ301bの前方から外したりすることにより、マルチピンホールマスク301aのマスクパターンを変更してもよい。
 また、本実施の形態1では、ユーザが、マルチピンホールマスクの複数のマスクのうちの回転可能なマスクを回転させているが、本開示は特にこれに限定されない。マルチピンホールカメラ301は、複数のマスクのうちの少なくとも1つのマスクを回転させる駆動部を備えてもよい。この場合、マスク変更部104は、入力部109からの指示に従って駆動部を制御し、マルチピンホールマスクを構成する複数のマスクのうちの少なくとも1つのマスクを回転させてもよい。例えば、マルチピンホールマスク301aが図8に示す回転可能なマスク400dと図9に示す回転しないマスク400eとで構成される場合、駆動部は、マスク400dを回転させてもよい。そして、マスク変更部104は、変更するマスクパターンに応じた回転角でマスク400dを回転させるよう駆動部を制御してもよい。マスク変更部104は、2枚のマスク400d,400eのうちのマスク400dを回転させることにより、マルチピンホールマスク301aのマスクパターンを変更してもよい。
 マスク識別部105は、第1のカメラ101で撮像した画像からマルチピンホールマスク301aの点拡がり関数(Point Spread Function(PSF))を取得することで、マスクが有するマスクパターンを識別するようにしても構わない。PSFは、マルチピンホールカメラ又は符号化開口カメラなどの第1のカメラ101の伝達関数であり、以下の式(1)で表現される。
 y=k*x・・・(1)
 式(1)において、yは、第1のカメラ101で撮影されたボケのある計算撮像画像を表し、kは、PSFを表し、xは、第1のカメラ101で撮影したシーンをボケのない通常のカメラで撮影した通常画像を表す。また、*は畳み込み演算子である。
 マスク識別部105は、第1のカメラ101によって撮像された計算撮像画像から、マスクパターンに関するマスク情報を取得し、取得したマスク情報に基づいてマスクのマスクパターンを識別する。マスク識別部105は、第1のカメラ101によって撮像された発光部108を含む画像から点拡がり関数をマスク情報として取得する。
 図35は、本実施の形態1にかかるマスク識別部105の主要な処理の手順の一例を示すフローチャートである。
 まず、マスク識別部105は、撮影環境内に存在する発光部108に点灯を指示する(ステップS301)。発光部108は、環境内に存在する点光源とみなせる光源であり、例えば、電気機器に搭載されたLED(Light Emitting Diode)又は照明用LEDである。また、発光部108は、LEDモニタなどのモニタの一部の光のみを点灯させるようにしても構わない。
 次に、発光部108は、マスク識別部105からの点灯の指示にしたがい、点灯を実施する(ステップS302)。
 次に、マスク識別部105は、第1のカメラ101に撮像を指示する(ステップS303)。これにより、第1のカメラ101は、点灯した発光部108を撮像することができる。
 次に、第1のカメラ101は、マスク識別部105からの撮像の指示にしたがい、点灯時の計算撮像画像の撮像を実施する(ステップS304)。点灯した発光部108を撮像した計算撮像画像は、第1のカメラ101からマスク識別部105に入力される。マスク識別部105は、点灯した発光部108を撮像した計算撮像画像を第1のカメラ101から取得する。マスク識別部105は、取得した計算撮像画像を一時的に記憶する。
 次に、マスク識別部105は、光源である発光部108に消灯を指示する(ステップS305)。
 次に、発光部108は、マスク識別部105からの消灯の指示にしたがい、消灯を実施する(ステップS306)。
 次に、マスク識別部105は、第1のカメラ101に撮像を指示する(ステップS307)。これにより、第1のカメラ101は、消灯した発光部108を撮像することができる。
 次に、第1のカメラ101は、マスク識別部105からの撮像の指示にしたがい、消灯時の計算撮像画像の撮像を実施する(ステップS308)。消灯した発光部108を撮像した計算撮像画像は、第1のカメラ101からマスク識別部105に入力される。マスク識別部105は、消灯した発光部108を撮像した計算撮像画像を第1のカメラ101から取得する。マスク識別部105は、取得した計算撮像画像を一時的に記憶する。
 次に、マスク識別部105は、発光部108の点灯時の計算撮像画像と、発光部108の消灯時の計算撮像画像との差分画像を算出する(ステップS309)。
 発光部108の点灯時の画像と発光部108の消灯時の画像とは、できるだけ時間差がないように撮影することが望ましい。このように、発光部108の点灯時の画像と発光部108の消灯時の画像との差分画像が算出されることで、環境内の被写体の影響を受けず、点灯状態の発光部108のみの画像であるPSFを取得することができる。
 続いて、PSFを利用してマスクパターンを識別するマスク識別部105の処理を図36~図38を用いて説明する。第1のカメラ101は撮影環境内に存在する点光源とみなせる光源である発光部108と同期した撮像を実施する。
 図36は、本実施の形態1において、点灯状態の発光部108を第1のカメラ101が撮像した計算撮像画像701の一例を示す図である。計算撮像画像701では、発光部108に対応する画素の輝度値が高くなっていることがわかる。なお、1つの発光部108が点灯しているが、計算撮像画像701は、複数のピンホール画像が重畳された画像であるため、1つの発光部108に対応する3つの発光点を含む。
 図37は、本実施の形態1において、消灯状態の発光部108を第1のカメラ101が撮像した計算撮像画像702の一例を示す図である。計算撮像画像702では、発光部108に対応する画素の輝度値が、点灯時の輝度値よりも低くなっていることがわかる。
 図38は、点灯状態の発光部108を含む計算撮像画像701から消灯状態の発光部108を含む計算撮像画像702を減算した差分画像703の一例を示す図である。差分画像703は、発光部108以外の被写体に影響されず、点光源である発光部108のみを撮像した画像であるため、発光部108が点灯したときのマルチピンホールマスク301aのPSFが取得できていることがわかる。差分画像703は、マルチピンホールマスク301aのPSFを表している。
 また、発光部108はユーザのスマートフォン又は携帯電話のライトでも構わない。この場合、発光部108であるライトの点灯又は消灯をユーザがスマートフォン又は携帯電話を操作することにより実現しても構わない。
 また、マスク識別部105は、第1のカメラ101で撮像した画像からマルチピンホールマスク301aの点拡がり関数を取得するのではなく、ライトフィールドカメラで利用される伝達関数である輝度伝達行列(Light Transport Matrix(LTM))を取得することでマスクパターンを識別しても構わない。この場合、マスク識別部105は、環境内に分散して配置された複数の発光部108を用い、複数の位置でのPSFを取得し、それをLTMとすればよい。
 また、マスク識別部105は、第1のカメラ101で撮像した画像からマルチピンホールマスク301aのLTMを取得することでマスクパターンを識別する場合、複数の発光部108を用い、複数の位置でのPSFを取得し、それをLTMとしても構わない。
 図39は、第1のカメラ101で撮像した画像からLTMを取得することでマスクパターンを識別する場合のマスク識別部105の主要な処理の手順の一例を示すフローチャートである。
 まず、マスク識別部105は、複数の発光部108それぞれに対応する複数のPSFを算出する(ステップS331)。これは、前述の通り、複数の発光部108が点灯された際の計算撮像画像と、複数の発光部108が消灯された際の計算撮像画像との差分画像を利用して算出すればよい。このようにすることで、画像上での複数の位置でのPSFを取得することができる。
 図40は、画像上の複数の位置で取得された複数のPSFの一例を示す模式図である。図40において、画像上の6点でPSFが取得されている。
 次に、マスク識別部105は、算出した複数のPSFを補間することでLTMを取得する(ステップS332)。マスク識別部105は、算出した複数のPSFに対して補間処理を実施することで、画像のすべての画素でのPSFを算出し、それをLTMとする。このような補間処理は、モーフィングなどの一般的な画像処理を利用すればよい。
 また、マスク識別部105がLTMを利用してマスクパターンを識別する場合、画像識別システムは、複数の発光部108を備えるのではなく、1つの発光部108を備えてもよい。そして、1つの発光部108が複数の位置で利用されても構わない。これは、例えばスマートフォン又は携帯電話のライトが発光部108として利用され、ユーザが場所を変えながら1つの発光部108の点灯及び消灯を実現しても構わない。または、ドローン又は掃除ロボットなどに搭載されたLEDを発光部108として利用しても構わない。
 さらに、マスク識別部105は、第1のカメラ101が撮像した計算撮像画像に基づいて取得したマスク情報の画質の状態を判定し、判定結果に応じて処理の内容を切り替えるようにしても構わない。マスク情報は、PSFである。
 図41は、本実施の形態1にかかるマスク識別部105の別の主要な処理の手順の一例を示すフローチャートである。
 まず、マスク識別部105は、上記の図35のステップS301~ステップS309と同様の手法により、発光部108の点灯時の計算撮像画像と消灯時の計算撮像画像との差分画像を算出する。マスク識別部105は、第1のカメラ101を利用して差分画像をPSFとして取得する。
 次に、マスク識別部105は、算出した差分画像の画質を確認し、算出した差分画像の画質が十分であるか否かを判断する(ステップS310)。ここで、差分画像の画質が十分ではない、すなわち、差分画像の画質が不十分であると判断した場合(ステップS310でNO)、ステップS301に処理が戻り、マスク識別部105は、発光部108に点灯を指示する。マスク識別部105は、発光部108に点灯を指示し、第1のカメラ101に点灯状態の発光部108の撮像を指示し、発光部108に消灯を指示し、第1のカメラ101に消灯状態の発光部108の撮像を指示する。ステップS309において、マスク識別部105は、発光部108の点灯時の計算撮像画像と発光部108の消灯時の計算撮像画像との差分画像を新たに算出した後、ステップS310の処理を再び実施する。
 一方、差分画像の画質が十分であると判断した場合(ステップS310でYES)、マスク識別部105は、算出した差分画像をPSFとして保存する(ステップS311)。
 PSFの画質が十分かどうかは、例えば、差分画像を利用して求めるようにしても構わない。PSFには、点光源以外のものが写っていない必要がある。そのため、点灯時と消灯時との差分画像が利用される。しかしながら、点灯時の撮影と消灯時の撮影との間で、人が大きく動く又は環境内の明るさが劇的に変化するなどのシーンの変更があった場合、その変更分が差分画像に表れてしまい、正確なPSFを取得することができなくなる。そこで、マスク識別部105は、差分画像において一定値以上の輝度を有する画素数をカウントし、カウントした画素数が閾値以上である場合、差分画像の画質が不十分であると判断すればよい。また、マスク識別部105は、カウントした画素数が閾値より少ない場合、差分画像の画質が十分であると判断すればよい。
 なお、ステップS310において、マスク識別部105は、算出した差分画像の画質が許容値以上であるか否かを判断してもよい。マスク識別部105は、差分画像において一定値以上の輝度を有する画素数をカウントし、カウントした画素数が閾値以上である場合、差分画像の画質が許容値未満であると判断してもよい。また、マスク識別部105は、カウントした画素数が閾値より少ない場合、差分画像の画質が許容値以上であると判断してもよい。
 また、第1のカメラ101の設定が適切ではない場合、差分画像の画質が劣化してしまうことがある。例えば、第1のカメラ101の露光時間が短すぎる場合又は画像データの明るさを調整するための信号増幅のゲインが小さすぎる場合には、発光部108の輝度がノイズに埋もれてしまい、差分画像(PSF)の画質が悪くなるおそれがある。逆に、第1のカメラ101の露光時間が長すぎる場合又はゲインが大きすぎる場合には、画像内の高輝度領域の輝度値がセンシングレンジの上限値を超えて飽和してしまい、差分画像(PSF)の画質が悪くなるおそれがある。
 そこで、マスク識別部105は、発光部108が点灯された時の画像の最大輝度値を確認し、最大輝度値が上限値以上である場合又は下限値以下である場合には、差分画像(PSF)の画質が不十分であると判断してもよい。マスク識別部105が発光部108の点灯時の画像において最大輝度値が下限値以下であるかどうかで差分画像(PSF)の画質を判断する場合、発光部108の輝度がノイズに埋もれているかどうかを判断できる。また、マスク識別部105が発光部108の点灯時の画像において最大輝度値が上限値以上であるかどうかで差分画像(PSF)の画質を判断する場合、発光部108の輝度がセンシングレンジを超えて飽和しているかどうかを判断できる。発光部108の輝度がノイズに埋もれている場合又は発光部108の輝度が飽和している場合、マスク識別部105は、最大輝度値が上限値と下限値との間の所定の範囲内となるように、第1のカメラ101の設定を変更しても構わない。
 なお、マスク識別部105は、発光部108が消灯された時の画像の最大輝度値を確認し、最大輝度値が上限値以上である場合又は下限値以下である場合には、差分画像(PSF)の画質が不十分であると判断してもよい。
 図42は、本実施の形態1にかかるマスク識別部105による画質判定処理の手順の一例を示すフローチャートである。なお、図42に示す画質判定処理は、図35のステップS303とステップS305との間に行われる。
 図42のステップS304の処理は、図35のステップS304の処理と同じである。
 次に、マスク識別部105は、発光部108の点灯時に第1のカメラ101によって撮像された計算撮像画像を取得する(ステップS321)。
 次に、マスク識別部105は、取得した計算撮像画像の最大輝度値が上限値Th1以上であるか否かを判断することで、その計算撮像画像が飽和しているかどうかを判断する(ステップS322)。ここで、最大輝度値が上限値Th1以上であると判断した場合、すなわち、取得した計算撮像画像が飽和していると判断した場合(ステップS322でYES)、マスク識別部105は、第1のカメラ101に露光時間をより短くして再度撮像するように指示する(ステップS323)。そして、ステップS304に処理が戻る。
 一方、最大輝度値が上限値Th1より小さいと判断した場合(ステップS322でNO)、マスク識別部105は、取得した計算撮像画像の最大輝度値が下限値Th2以下であるか否かを判断することで、発光部108の輝度がノイズに埋もれているかどうかを判断する(ステップS324)。なお、下限値Th2は、上限値Th1よりも小さい。ここで、最大輝度値が下限値Th2以下であると判断した場合、すなわち発光部108の輝度がノイズに埋もれていると判断した場合(ステップS324でYES)、マスク識別部105は、第1のカメラ101に露光時間をより長くして再度撮像を実施するように指示する(ステップS325)。そして、ステップS304に処理が戻る。
 一方、最大輝度値が下限値Th2より大きいと判断した場合(ステップS324でNO)、マスク識別部105は、取得した計算撮像画像の画質は現状の露光時間で十分に高いと判断する。この場合、ステップS305に処理が移行し、マスク識別部105は、発光部108に消灯を指示する。そして、マスク識別部105は、さらに第1のカメラ101に発光部108の点灯時の撮像における露光時間と同じ露光時間で撮像するように指示することで、発光部108の消灯時の計算撮像画像を取得する。
 なお、マスク識別部105は、発光部108の消灯時に取得した計算撮像画像に関しても、上記と同様に、最大輝度値が上限値Th1と下限値Th2との間の所定範囲内となるように第1のカメラ101の露光時間を制御してもよい。
 もちろん、マスク識別部105は第1のカメラ101の露光時間以外の設定を変更するようにしても構わない。例えば、マスク識別部105は、第1のカメラ101のゲインを変更してもよい。
 図43は、本実施の形態1にかかるマスク識別部105による画質判定処理の手順の他の例を示すフローチャートである。この図43において、図42と同じ処理に関しては同じ番号を付与し、説明を省略する。なお、図43に示す画質判定処理は、図35のステップS303とステップS305との間に行われる。
 ステップS322の判断において、最大輝度値が上限値Th1以上であると判断した場合、すなわち取得した計算撮像画像が飽和していると判断した場合(ステップS322でYES)、マスク識別部105は、第1のカメラ101にゲインをより小さくして再度撮像を実施するように指示する(ステップS327)。そして、ステップS304に処理が戻る。
 ステップS324の判断において、最大輝度値が下限値Th2以下であると判断した場合、すなわち発光部108の輝度がノイズに埋もれていると判断した場合(ステップS324でYES)、マスク識別部105は、第1のカメラ101にゲインをより大きくして再度撮像を実施するように指示する(ステップS328)。そして、ステップS304に処理が戻る。
 一方、最大輝度値が下限値Th2より大きい場合(ステップS324でNO)、マスク識別部105は、取得した計算撮像画像の画質は現状のゲインで十分に高いと判断する。この場合、ステップS305に処理が移行し、マスク識別部105は、発光部108に消灯を指示する。そして、マスク識別部105は、さらに第1のカメラ101に発光部108の点灯時の撮像におけるゲイン及び露光時間と同じゲイン及び露光時間で撮像するように指示することで、発光部108の消灯時の計算撮像画像を取得する。
 なお、マスク識別部105は、発光部108の消灯時に取得した計算撮像画像に関しても、上記と同様に、最大輝度値が上限値Th1と下限値Th2との間の所定範囲内となるように第1のカメラ101のゲインを制御してもよい。
 また、マスク識別部105は、第1のカメラ101の露光時間又はゲインではなく、発光部108の輝度を制御するようにしても構わない。つまり、マスク識別部105は、発光部108の輝度が飽和していると判断した場合、輝度を下げるように発光部108を制御する。逆に、マスク識別部105は、発光部108の輝度がノイズに埋もれていると判断した場合、輝度を上げるように発光部108を制御する。発光部108の輝度が上がることで、発光部108とノイズとの輝度差がひろがる。
 また、マスク識別部105は、差分画像の画質が不十分であると判断した場合、対象エリア内に存在する別の発光部を選択し、当該別の発光部に対して点灯及び消灯を指示するようにしても構わない。これは、指向性を有する光源の場合、第1のカメラ101と発光部108との位置関係によっては、どうしても画質が低下してしまう場合があり、このような場合に有効である。
 (実施の形態2)
 実施の形態1では、マスク識別部105は、第1のカメラ101によって撮像された計算撮像画像から、マスクパターンに関するマスク情報を取得し、取得したマスク情報に基づいてマスクのマスクパターンを識別している。これに対し、実施の形態2では、マスク識別部は、マスクに記載されたマスクID情報を読み取ることで、マスクパターンを識別するようにしても構わない。これは、例えば、マスクの周囲に埋め込まれたマスクID情報を読みとることで実現する。マスクID情報は、例えば、バーコード、二次元コード、又は色情報などである。
 図44は、本開示の実施の形態2にかかる画像識別システム1Cの構成の一例を示すブロック図である。なお、図44に示す画像識別システム1Cにおいて、図1に示す画像識別システム1と同じ構成については同じ符号を付し、説明を省略する。
 本実施の形態2の画像識別システム1Cは、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107と、ID情報取得部111と、第2のカメラ121とを備える。マスク識別部105と、識別モデル変更部106と、画像識別部103と、ID情報取得部111とは、CPUなどのプロセッサ及び半導体メモリなどのメモリを含む。
 また、ID情報取得部111が第2のカメラ121と有線又は無線のネットワークを介して情報を送受信する場合、ID情報取得部111は、受信部を含む。受信部は、ハードウェアとして受信回路を含む。さらに、マスク識別部105が第2のカメラ121と有線又は無線のネットワークを介して情報を送受信する場合、マスク識別部105は、送信部を含む。送信部は、ハードウェアとして送信回路を含む。一方、第2のカメラ121は、ハードウェアとして送信回路及び受信回路を含む。
 画像識別システム1Cは、例えば、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、ID情報取得部111とを備えた画像識別装置を含み、第1のカメラ101と、出力部107と、第2のカメラ121とが、画像識別装置に接続される構成であってもよい。また、画像識別装置は、サーバであってもよい。また、画像識別システム1Cは、例えば、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107と、ID情報取得部111とを備えた画像識別装置を含み、第2のカメラ121が、画像識別装置に接続される構成であってもよい。
 第2のカメラ121は、第1のカメラ101とは別のカメラであり、ボケのない画像を撮影する。第2のカメラ121は、第1のカメラ101によって撮像される被写体側に配置されている。第1のカメラ101は、マルチピンホールカメラ301である。第2のカメラ121は、マルチピンホールカメラ301が有するマルチピンホールマスク301aを被写体側から撮像する。マスク識別部105は、第2のカメラ121に撮像を指示する。第2のカメラ121は、マスク識別部105からの指示に従って、被写体側からマルチピンホールマスク301aを撮像した画像を取得する。
 ID情報取得部111は、第2のカメラ121によって撮像された画像から、マスクを識別するためのマスクID情報(マスク識別情報)を取得する。
 マスク識別部105は、ID情報取得部111によって取得されたマスクID情報に基づいてマスクのマスクパターンを識別する。
 図45~図49を用いてマスク識別部105がマスクID情報を取得することでマスクパターンを識別する処理を説明する。本実施の形態2では、マルチピンホールマスク301aは、図5~図7を用いて説明した3枚のマスク400a,400b,400cを重ねた構成である。3枚のマスク400a,400b,400cには改良が加えられている。
 図45は、本実施の形態2において、9個のピンホールを有するマスク400aの一例を示す図であり、図46は、本実施の形態2において、5個のピンホールを有するマスク400bの一例を示す図であり、図47は、本実施の形態2において、1個のピンホールを有するマスク400cの一例を示す図である。
 マルチピンホールマスク301aは、図45に示した9個のピンホールが形成されたマスク400aと、図46に示した5個のピンホールが形成されたマスク400bと、図47に示した1個のピンホールが形成されたマスク400cとを重ね合わせることで構成されている。また、図45に示すマスク400aの外周部には、マスク400aを識別するためのマスクID情報601が記載されている。図46に示すマスク400bの外周部には、マスク400bを識別するためのマスクID情報602が記載されている。また、図47に示すマスク400cの外周部には、マスク400cを識別するためのマスクID情報603が記載されている。マスク400b及びマスク400cの円環状の外周部は透明である。マスク400aの円環状の外周部は、透明ではなく、遮蔽されている。また、マスク400a、マスク400b及びマスク400cの円形状の内周部は遮蔽されているとともに、ピンホールが形成されている。
 マスクID情報601~603は、例えば、2次元コードで表される。ID情報取得部111は、撮像画像に含まれる、各マスク400a~400cに記載された2次元コードを読み取ることにより、各マスク400a~400cのマスクID情報601~603を取得する。マスクID情報601~603を表す2次元コードは、各マスク400a~400cに印刷されていてもよいし、シールなどで貼り付けられていてもよい。
 また、マスク識別部105は、マスクID情報601,602,603に対応するマスク情報を予め記憶している。マスクID情報601に対応するマスク情報とは、例えば、マスク400aのみで構成されるマルチピンホールマスク301aのPSFに関する情報である。マルチピンホールマスク301aがマスク400aで構成される場合、上述したようにマルチピンホールマスク301aは9個のピンホールを有する。したがって、マスクID情報601に対応するマスク情報は、9個のピンホールを有するマスク400aのPSFである。
 マスクID情報602に対応するマスク情報とは、例えば、2枚のマスク400a,400bを重ね合わせたマルチピンホールマスク301aのPSFに関する情報である。マルチピンホールマスク301aが2枚のマスク400a,400bで構成される場合、マルチピンホールマスク301aは5個のピンホールを有する。なお、マスク400a,400bの厚さが十分に小さい場合、マスクID情報602に対応するマスク情報は、5個のピンホールを有するマスク400bのPSFである。
 マスクID情報603に対応するマスク情報とは、例えば、3枚のマスク400a,400b,400cを重ね合わせたマルチピンホールマスク301aのPSFに関する情報である。マルチピンホールマスク301aが3枚のマスク400a,400b,400cで構成される場合、マルチピンホールマスク301aは1個のピンホールを有する。なお、マスク400a,400b,400cの厚さが十分に小さい場合、マスクID情報603に対応するマスク情報は、1個のピンホールを有するマスク400cのPSFである。
 これらのマスクは、前述の通り、着脱可能な接着剤で固定されている。ユーザは、手動で各マスクをはがすことでマルチピンホールマスク301aのマスクパターンを変更する。なお、マスク変更部104が、駆動部を制御して各マスクを入れ替えることにより、マルチピンホールマスク301aのマスクパターンを変更してもよい。
 図48は、本実施の形態2において、3枚のマスク400a~400cを重ね合わせたマルチピンホールマスク301aの一例を示す図であり、図49は、本実施の形態2において、2枚のマスク400a,400bを重ね合わせたマルチピンホールマスク301aの一例を示す図である。
 第2のカメラ121が、3枚のマスク400a,400b,400cを重ね合わせたマルチピンホールマスク301aを撮影した場合、図48に示すように、マルチピンホールマスク301aの外周部にはマスクID情報601,602,603を表す2次元コードが撮像される。そのため、マスク識別部105は、これらのマスクID情報601,602,603を取得することで、3枚のマスク400a~400cを重ね合わせたマルチピンホールマスク301aが第1のカメラ101に搭載されていることを識別することができる。マスク識別部105は、3つのマスクID情報601,602,603を取得した場合に、マスクID情報603に対応するマスク情報をメモリから取得する。マスクID情報603に対応するマスク情報は、1個のピンホールを有するマスクのPSFである。
 また、3枚のマスク400a,400b,400cを重ね合わせたマルチピンホールマスク301aからマスク400cがはがされた場合、マルチピンホールマスク301aは、重ね合わせた2枚のマスク400a,400bで構成される。このとき、第2のカメラ121が、2枚のマスク400a,400bを重ね合わせたマルチピンホールマスク301aを撮影した場合、図49に示すように、マルチピンホールマスク301aの外周部にはマスクID情報601,602を表す2次元コードが撮像される。そのため、マスク識別部105は、これらのマスクID情報601,602を取得することで、2枚のマスク400a,400bを重ね合わせたマルチピンホールマスク301aが第1のカメラ101に搭載されていることを識別することができる。マスク識別部105は、2つのマスクID情報601,602を取得した場合に、マスクID情報602に対応するマスク情報をメモリから取得する。マスクID情報602に対応するマスク情報は、5個のピンホールを有するマスクのPSFである。
 また、2枚のマスク400a,400bを重ね合わせたマルチピンホールマスク301aからマスク400bがはがされた場合、マルチピンホールマスク301aは、マスク400aのみで構成される。このとき、第2のカメラ121が、マスク400aを有するマルチピンホールマスク301aを撮影した場合、図45に示すように、マルチピンホールマスク301aの外周部にはマスクID情報601を表す2次元コードが撮像される。そのため、マスク識別部105は、マスクID情報601を取得することで、マスク400aを有するマルチピンホールマスク301aが第1のカメラ101に搭載されていることを識別することができる。マスク識別部105は、マスクID情報601のみを取得した場合に、マスクID情報601に対応するマスク情報をメモリから取得する。マスクID情報601に対応するマスク情報は、9個のピンホールを有するマスクのPSFである。
 ID情報取得部111がこのようなマスクID情報を取得するには、第2のカメラ121は、被写体側からマルチピンホールマスク301aを撮像した画像を取得する必要がある。
 図50は、本実施の形態2において、第2のカメラ121を利用して、マルチピンホールマスク301aを構成するマスクに記載されたマスクID情報600を読み取る構成を説明するための図である。図50において、図3及び図21と同じ構成要素に関しては同じ参照符号を付し、説明を省略する。
 第2のカメラ121は、第1のカメラ101とは別のカメラであり、第1のカメラ101に対応するマルチピンホールカメラ301で撮影される被写体側に配置される。第2のカメラ121は例えばボケのない画像を撮影する。マスク識別部105は、例えば、第2のカメラ121に撮影を指示することで、被写体側からマルチピンホールマスク301aを撮像した画像を取得することができる。撮像画像には、マスクID情報600が含まれる。
 図51は、本実施の形態2の変形例において、鏡122を利用して、マルチピンホールマスク301aを構成するマスクに記載されたマスクID情報600を読み取る構成を説明するための図である。図51において、図3及び図21と同じ構成要素に関しては同じ参照符号を付し、説明を省略する。
 本実施の形態2の変形例では、第2のカメラ121に替えて鏡122が配置される。この場合、画像識別システム1Cは、第2のカメラ121を備えない。第1のカメラ101は、マスクID情報600が表面に記載されたマルチピンホールマスク301aが映った鏡122を撮像する。ID情報取得部111は、第1のカメラ101に対応するマルチピンホールカメラ301によって撮像された画像を取得する。ID情報取得部111は、マルチピンホールカメラ301によって撮像された計算撮像画像からマスクID情報を取得する。
 鏡122は、第1のカメラ101に対応するマルチピンホールカメラ301で撮影される被写体側に配置される。鏡122は、マスクID情報600が記載されたマルチピンホールマスク301aを映している。マスク識別部105は、マルチピンホールカメラ301に撮影を指示するとマルチピンホールマスク301aを構成するマスクから発する光は鏡122により反射された後、イメージセンサ301bの受光面に到達する。従って、マスク識別部105は、例えば、マルチピンホールカメラ301に撮影を指示することで、被写体側からマルチピンホールマスク301aを撮像した画像を取得することができる。
 なお、マルチピンホールカメラ301によって撮像される画像はボケのある計算撮像画像であるため、ID情報取得部111は、この計算撮像画像からマスクID情報を取得する必要がある。そこで、記憶部102は、例えば、マルチピンホールカメラ301によって撮像された計算撮像画像からマルチピンホールマスク301aのマスクID情報を識別するためのマスクID識別モデルを予め記憶してもよい。ID情報取得部111は、マスクID識別モデルを用いて、マルチピンホールカメラ301によって撮像されたマルチピンホールマスク301aの画像からマスクID情報を識別してもよい。ID情報取得部111は、マルチピンホールカメラ301によって撮像された画像をマスクID識別モデルに入力し、識別結果として出力されるマスクID情報をマスクID識別モデルから取得してもよい。マスクID識別モデルは学習装置による学習処理により作成される。
 マスクID識別モデルが多層のニューラルネットワークによって構築されている場合には、学習装置は、通常のカメラにより撮影されたマスクID情報を含むマルチピンホールマスク301aの画像と、この画像に付与されたマスクID情報に対応するアノテーション情報とを教師データとして用いて、Deep Learningによる機械学習を行うことで、マスクID識別モデルを作成してもよい。
 なお、第2のカメラ121及び鏡122は、ID情報取得部111がマスクID情報600を読み取る場合には必要であるが、画像識別部103が第1のカメラ101で撮像された画像を識別する場合には不要である。例えば、ID情報取得部111がマスクID情報600を読み取るときに、第2のカメラ121又は鏡122がマルチピンホールカメラ301で撮影される被写体側に設置され、マスクID情報600の読み取りが終了した後、設置した第2のカメラ121又は鏡122が取り外されるように構成するのが望ましい。
 (実施の形態3)
 実施の形態3では、ユーザが、複数枚のマスクのうちの1枚を外すのではなく、複数枚のマスクのうちの1枚を回転させることでマスクパターンを変更する場合、マスク識別部105は、マスクに記載されたマーカ情報を読み取ることで、マスクの回転角度を認識し、マスクパターンを識別するようにしても構わない。実施の形態3では、マルチピンホールマスク301aは、図8及び図9を用いて説明した2枚のマスク400d,400eを重ねた構成である。2枚のマスク400d,400eには改良が加えられている。
 図52は、本開示の実施の形態3にかかる画像識別システム1Dの構成の一例を示すブロック図である。なお、図52に示す画像識別システム1Dにおいて、図44に示す画像識別システム1Cと同じ構成については同じ符号を付し、説明を省略する。
 本実施の形態3の画像識別システム1Dは、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107と、マーカ位置特定部112と、第2のカメラ121とを備える。マスク識別部105と、識別モデル変更部106と、画像識別部103と、マーカ位置特定部112とは、CPUなどのプロセッサ及び半導体メモリなどのメモリを含む。
 また、マーカ位置特定部112が第2のカメラ121と有線又は無線のネットワークを介して情報を送受信する場合、マーカ位置特定部112は、受信部を含む。受信部は、ハードウェアとして受信回路を含む。さらに、マスク識別部105が第2のカメラ121と有線又は無線のネットワークを介して情報を送受信する場合、マスク識別部105は、送信部を含む。送信部は、ハードウェアとして送信回路を含む。一方、第2のカメラ121は、ハードウェアとして送信回路及び受信回路を含む。
 画像識別システム1Dは、例えば、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、マーカ位置特定部112とを備えた画像識別装置を含み、第1のカメラ101と、出力部107と、第2のカメラ121とが、画像識別装置に接続される構成であってもよい。また、画像識別装置は、サーバであってもよい。また、画像識別システム1Dは、例えば、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107と、マーカ位置特定部112とを備えた画像識別装置を含み、第2のカメラ121が、画像識別装置に接続される構成であってもよい。
 マルチピンホールマスク301aは、マスク400dと、マスク400dに重ねたマスク400eとを含む。マスク400dは、第1マスクの一例であり、マスク400eは、第2マスクの一例である。
 マーカ位置特定部112は、マスク400eに対するマスク400dの回転角度を検出するためにマスク400d及びマスク400eのそれぞれに形成された複数のマーカの位置を特定する。
 マスク識別部105は、マーカ位置特定部112によって特定された複数のマーカの位置に基づいてマスク400eに対するマスク400dの回転角を検出し、検出した回転角に基づいてマスクのマスクパターンを識別する。
 マルチピンホールマスク301aを構成する複数のマスクに記載された識別情報を読み込むことで1のマスクの回転角を認識し、認識した回転角からマスクパターンを識別する処理を図53から図55を用いて説明する。
 図53は、本実施の形態3において、6個のピンホールを有するマスク400dの一例を示す図であり、図54は、本実施の形態3において、扇形の2つの開口部を有するマスク400eの一例を示す図であり、図55は、本実施の形態3において、2枚のマスク400d,400eを重ねたマルチピンホールマスク301aの一例を示す図である。
 図53に示すように、回転可能なマスク400dの外周部には、識別情報として1つのマーカ611が記載されている。一方、図54に示すように、固定されているマスク400eの外周部には、識別情報として2つのマーカ612及び613が記載されている。マスク400dの円環状の外周部は透明である。マスク400eの円環状の外周部は、透明ではなく、遮蔽されている。また、マスク400dの円形状の内周部は遮蔽されているとともに、複数のピンホールが形成されている。マスク400eの円形状の内周部は、扇形の2つの開口部と、扇形の2つの遮蔽部とが形成されている。
 マーカ611は、マスク400dの外周部の所定の位置に形成されている。例えば、マーカ611は、「1」という数字である。マーカ612は、マスク400eの外周部の所定の位置に形成されており、マーカ613は、マスク400eの外周部のマーカ612に対向する位置に形成されている。マーカ612とマーカ613とを結ぶ直線は、マスク400eの中心点を通る。例えば、マーカ612及びマーカ613は、「2」という数字である。なお、マーカ611,612,613は、数字に限定されず、バーコード、二次元コード、又は色情報などであってもよく、各マーカを識別可能な情報であればよい。また、マーカ611,612,613は、各マスク400d,400eに印刷されていてもよいし、シールなどで貼り付けられていてもよい。
 図55に示すマルチピンホールマスク301aは、図53に示すマスク400dと、図54に示すマスク400eとを重ね合わせることで構成されている。
 マーカ位置特定部112は、マルチピンホールマスク301aが撮像された画像から、マーカ611,612,613の位置を特定する。例えば、マーカ位置特定部112は、画像内におけるマーカ611,612,613の座標位置を特定する。
 マスク識別部105は、マーカ位置特定部112によって特定されたマーカ611,612,613の位置に基づいてマスク400eに対するマスク400dの回転角を検出し、検出した回転角に基づいてマスクのマスクパターンを識別する。
 マスク識別部105は、マスク400eに対するマスク400dの回転角に対応するマスク情報を予め記憶している。回転角に対応するマスク情報とは、例えば、マスク400eに対するマスク400dの回転角に応じて変化するPSFに関する情報である。マスク400eに対してマスク400dが回転することにより、マルチピンホールマスク301aに形成される複数のピンホールの位置及び数が変化する。
 第2のカメラ121が、2枚のマスク400d,400eを重ね合わせたマルチピンホールマスク301aを撮影した場合、図55に示すように、マルチピンホールマスク301aの外周部にはマーカ611,612,613が撮像される。マーカ位置特定部112は、マルチピンホールマスク301aが撮像された画像から、マーカ611,612,613の位置を特定する。マスク識別部105は、特定されたマーカ611,612,613の位置情報から、マーカ612とマーカ613とを結ぶ線分621と、線分621の中点614とを算出する。さらに、マスク識別部105は、算出した中点614とマーカ611とを結んだ線分622と、マーカ612とマーカ613とを結んだ線分621との角度θを、マスク400eに対するマスク400dの回転角として算出する。
 マスク識別部105は、マスク400eに対するマスク400dの回転角に対応するマスク情報をメモリから取得する。マスク400eに対するマスク400dの回転角に対応するマスク情報は、回転角に応じたマスクパターンに対応するPSFである。
 識別モデル変更部106は、マスク識別部105が識別したマスクパターン(マスク情報)に合わせて、識別モデルを変更する。
 このようにすることで、画像識別部103は第1のカメラ101であるマルチピンホールマスク301aのマスクパターンに最適な識別モデルを利用して計算撮像画像を識別できるため、マスクが変更されても、高い識別精度を維持することができる。
 (実施の形態4)
 実施の形態1~3では、記憶部102は、複数のマスクパターンと複数の識別モデルとを対応付けて予め記憶しており、識別モデル変更部106は、記憶部102に記憶されている複数の識別モデルの中から、マスク識別部105によって識別されたマスクパターンに対応付けられている識別モデルを選択している。
 これに対し、実施の形態4における画像識別システムは、さらに学習装置を備えてもよい。学習装置は、マスク識別部105が識別したマスクパターンに合わせて識別モデルを学習してもよい。
 図56は、本開示の実施の形態4にかかる画像識別システム1Aの構成の一例を示すブロック図であり、図57は、本開示の実施の形態4にかかる学習装置2の構成の一例を示すブロック図である。なお、図56に示す画像識別システム1Aにおいて、図1に示す画像識別システム1と同じ構成については同じ符号を付し、説明を省略する。
 本実施の形態4の画像識別システム1Aは、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105Aと、識別モデル変更部106Aと、出力部107と、発光部108と、学習装置2とを備える。マスク識別部105Aと、識別モデル変更部106Aと、画像識別部103とは、CPUなどのプロセッサ及び半導体メモリなどのメモリを含む。
 画像識別システム1Aは、例えば、記憶部102と、画像識別部103と、マスク識別部105Aと、識別モデル変更部106Aとを備えた画像識別装置を含み、第1のカメラ101と、出力部107と、発光部108と、学習装置2とが、画像識別装置に接続される構成であってもよい。また、画像識別装置及び学習装置2は、サーバであってもよい。また、画像識別システム1Aは、例えば、第1のカメラ101と、記憶部102と、画像識別部103と、マスク識別部105と、識別モデル変更部106と、出力部107とを備えた画像識別装置を含み、発光部108と、学習装置2とが、画像識別装置に接続される構成であってもよい。また、画像識別装置が、学習装置2を備えてもよい。
 学習装置2は、ボケのない画像又は第1のカメラ101よりもボケの小さい画像を撮像するカメラ(第2のカメラ)によって撮像された第1の学習画像と、第1の学習画像に付与されている正解ラベルとを取得する。学習装置2は、マスク識別部105Aによって識別されたマスクパターンと第1の学習画像とに基づいて、ボケのある第2の学習画像を生成する。学習装置2は、第2の学習画像と正解ラベルとを用いた機械学習を行うことによって、第1のカメラ101によって撮像された計算撮像画像を識別するための識別モデルを作成する。
 識別モデル変更部106Aは、学習装置2によって作成された識別モデルに現在の前記識別モデルを変更する。
 学習装置2は、学習データベース201と、マスク情報取得部202と、データベース修正部203と、学習部204とを備える。学習装置2は、マスク識別部105が識別したマスク情報を用いて、画像識別部103の識別に用いる識別モデルの学習を行う。マスク情報は、前述のとおり、PSFを利用すればよい。学習データベース201は、HDD、SSD、又は半導体メモリなどの記憶部である。
 マスク情報取得部202、データベース修正部203及び学習部204は、ハードウェアとしてCPUなどのプロセッサを含む。また、マスク情報取得部202がマスク識別部105Aと有線又は無線のネットワークを介して情報を送受信する場合、マスク情報取得部202は、受信部を含む。受信部は、ハードウェアとして受信回路を含む。一方、マスク識別部105Aは、ハードウェアとして送信回路とCPUなどのプロセッサとを含む。
 また、学習部204が識別モデル変更部106Aとネットワークを介して情報を送受信する場合、学習部204は、送信部を含む。送信部は、ハードウェアとして送信回路を含む。識別モデル変更部106Aは、ハードウェアとして受信回路とCPUなどのプロセッサとを含む。
 図58は、本開示の実施の形態4にかかる学習装置2の主要な処理の手順の一例を示すフローチャートである。
 まず、マスク情報取得部202は、マスク識別部105Aによって識別されたマスク情報をマスク識別部105Aから取得する(ステップS401)。マスク識別部105Aが送信部を含み、マスク情報取得部202が受信部を含む場合、マスク情報は、有線又は無線によって送受信されても構わないし、マスク情報取得部202がインターフェイスを含む場合、マスク情報は、ユーザによって与えられても構わない。
 次に、データベース修正部203は、マスク情報取得部202によって取得されたマスク情報を利用して、学習データベース201を修正する(ステップS402)。例えば、画像識別部103が環境内の人物の行動を識別する場合、学習データベース201は、ボケのない通常のカメラで撮影した画像と、各画像において人物がどの位置でどのような行動をしていたかという、各画像に付与されるアノテーション情報(正解ラベル)とを保持している。通常のカメラを利用する場合、そのカメラで撮影した画像に対してアノテーション情報を付与すればよいが、マルチピンホールカメラ又はライトフィールドカメラなど、計算撮像画像を取得する場合、その画像を人が見ても何が写っているかがわからないため、アノテーション情報を付与することが難しい。また、第1のカメラ101と大きく異なる通常のカメラで撮影した画像で学習処理を実施しても、画像識別部103の識別精度は高くならない。
 そこで、通常のカメラで撮影した画像に対して事前にアノテーション情報を付与したデータベースが学習データベース201として保持される。データベース修正部203は、マスク識別部105Aから得られるマスク情報を用いて、通常のカメラで撮影した画像を第1のカメラ101で撮影されるべき画像に変形させることで、その第1のカメラ101のマスクパターンに合わせた学習データセットを作成し、学習データベース201を修正する。識別モデルは、作成した学習データセットを用いて学習処理が実施されることで作成される。そして、作成された識別モデルを用いて画像識別部103が識別を実施することにより、識別精度を向上させる。そのために、データベース修正部203は、学習データベース201に事前に用意した通常のカメラから得られた撮像画像zに対して、マスク情報取得部202が取得したマスク情報であるPSFを利用して、補正画像yを以下の式(2)に基づいて算出する。
 y=k*z・・・(2)
 式(2)において、kはマスク情報取得部202が取得したマスク情報であるPSFを示しており、*は畳み込み演算子を示している。
 データベース修正部203は、補正画像とアノテーション情報とを学習データベース201に記憶する。
 次に、学習部204は、修正された学習データベース201を利用して学習処理を実施する(ステップS403)。学習部204は、データベース修正部203によって算出された補正画像と、学習データベース201に事前に保持していたアノテーション情報とを利用して、学習処理を実施し、学習済みの識別モデルを作成する。例えば、識別モデルが多層のニューラルネットワークによって構築されている場合には、学習部204は、補正画像と、補正画像を算出する際に用いた通常のカメラにより撮影された画像に付与されたアノテーション情報とを教師データとして用いて、Deep Learningによる機械学習を行う。予測誤差の補正アルゴリズムとしては、Back Propagation法などが用いられてもよい。
 学習部204が作成した学習済みの識別モデルは、識別モデル変更部106Aへ出力される。識別モデル変更部106Aは、受け取った学習済みの識別モデルを記憶部102に格納する、識別モデル変更部106Aは、例えば、記憶部102に格納された識別モデルを、受け取った学習済みの識別モデルに置き換え、置き換えた学習済みの識別モデルを新たな識別モデルとして記憶部102に格納する。このようにすることで、識別モデル変更部106Aは、マスク識別部105Aが識別したマスクパターンに合わせて識別モデルを変更する。
 画像識別部103は、記憶部102から新たな識別モデルを読み出して、読み出した新たな識別モデルを用いて第1のカメラ101により撮影された計算撮像画像の識別を行う。
 なお、本実施の形態4では、学習装置2は、識別モデル変更部106Aと別体である構成について説明をしたが、本開示はこれに限定されない。識別モデル変更部106Aは、学習装置2を含んでもよい。
 補正画像は、第1のカメラ101のマスクのマスクパターンに応じたPSFに合致した画像となっている。そのため、補正画像を用いた学習により、第1のカメラ101のマスクが有するマスクパターンにより適した識別モデルが学習装置2の学習処理により新たに作成される。つまり、第1のカメラ101のマスクのマスクパターンが変更されたとしても、変更されたマスクのマスクパターンにより適した識別モデルが学習装置2の学習処理によって新たに作成される。従って、第1のカメラ101のマスクのマスクパターンが変更されたとしても、画像識別部103は新たに作成された識別モデルを用いて識別処理を行うので、高精度の識別処理が実現できる。
 以上のように、本実施の形態4の画像識別システム1Aは、第1のカメラ101のマスクが有するマスクパターンに合わせた識別モデルの学習を実施し、識別精度を向上させることができる。本実施の形態4の画像識別システム1Aは、特に、プライバシーに配慮する必要がある環境でのセンシングに有効である。これは、第1のカメラ101は通常のカメラと異なり、撮像画像自体を人が見ても被写体を認識することが困難であるためである。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
 また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
 また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 本開示に係る技術は、被写体のプライバシーを保護しつつ、ユーザの心理的負荷を低減させることが可能であるので、特に家庭内又は屋内など、プライバシー保護が必要となる環境において画像を識別する技術として有用である。

Claims (15)

  1.  複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含み、ボケのある画像である計算撮像画像を撮像する第1のカメラと、
     前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別する画像識別部と、
     前記マスクパターンが変更された後に、変更された前記マスクパターンを識別するマスク識別部と、
     前記マスク識別部によって識別された前記マスクパターンに応じて、前記識別モデルを変更する識別モデル変更部と、
     を備える画像識別システム。
  2.  さらに、前記マスクの前記マスクパターンを変更するマスク変更部を備える、
     請求項1記載の画像識別システム。
  3.  前記第1のカメラは、マルチピンホールカメラであり、
     前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、
     前記複数のマスクは、互いに異なるマスクパターンを有し、
     前記複数のマスクのうちの少なくとも1つが外されると、前記マルチピンホールマスクの前記マスクパターンが変更される、
     請求項1又は2に記載の画像識別システム。
  4.  前記第1のカメラは、マルチピンホールカメラであり、
     前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、
     前記複数のマスクは、互いに異なるマスクパターンを有し、
     前記複数のマスクのうちの1のマスクに形成された前記複数のピンホールのうちの少なくとも1つは、前記複数のマスクのうちの他のマスクによって遮蔽される、
     請求項1又は2に記載の画像識別システム。
  5.  前記第1のカメラは、マルチピンホールカメラであり、
     前記マスクは、複数のマスクを重ねたマルチピンホールマスクであり、
     前記複数のマスクは、互いに異なるマスクパターンを有し、
     前記複数のマスクのうちの1のマスクに形成された前記複数のピンホールのうちの少なくとも1つは、前記複数のマスクのうちの他のマスクに形成された前記複数のピンホールのうちの少なくとも1つと、同じ位置にある、
     請求項1又は2に記載の画像識別システム。
  6.  前記1のマスクに含まれる1のピンホールのサイズは、前記1のピンホールと同じ位置にある前記他のマスクに含まれる他のピンホールのサイズと異なる、
     請求項5に記載の画像識別システム。
  7.  前記マスク識別部は、前記第1のカメラによって撮像された前記計算撮像画像から、前記マスクパターンに関するマスク情報を取得し、取得した前記マスク情報に基づいて前記マスクの前記マスクパターンを識別する、
     請求項1又は2に記載の画像識別システム。
  8.  さらに、発光部を備え、
     前記マスク識別部は、前記第1のカメラによって撮像された前記発光部を含む画像から点拡がり関数を前記マスク情報として取得する、
     請求項7に記載の画像識別システム。
  9.  さらに、前記マスクを識別するためのマスク識別情報を取得するマスク識別情報取得部を備え、
     前記マスク識別部は、取得された前記マスク識別情報に基づいて前記マスクの前記マスクパターンを識別する、
     請求項1又は2に記載の画像識別システム。
  10.  前記マスクは、第1マスクと、前記第1マスクに重ねた第2マスクとを含み、
     さらに、前記第2マスクに対する前記第1マスクの回転角度を検出するために前記第1マスク及び前記第2マスクのそれぞれに形成された複数のマーカの位置を特定するマーカ位置特定部を備え、
     前記マスク識別部は、特定された前記複数のマーカの位置に基づいて前記第2マスクに対する前記第1マスクの回転角を検出し、検出した前記回転角に基づいて前記マスクの前記マスクパターンを識別する、
     請求項1又は2に記載の画像識別システム。
  11.  さらに、複数のマスクパターンと複数の識別モデルとを対応付けて記憶する記憶部を備え、
     前記識別モデル変更部は、前記記憶部に記憶されている前記複数の識別モデルの中から、前記マスク識別部によって識別された前記マスクパターンに対応付けられている識別モデルを特定し、特定した前記識別モデルに現在の前記識別モデルを変更する、
     請求項1又は2に記載の画像識別システム。
  12.  さらに、ボケのない画像又は前記第1のカメラよりもボケの小さい画像を撮像する第2のカメラによって撮像された第1の学習画像と、前記第1の学習画像に付与されている正解ラベルとを取得し、前記マスク識別部によって識別された前記マスクパターンと前記第1の学習画像とに基づいて、ボケのある第2の学習画像を生成し、前記第2の学習画像と前記正解ラベルとを用いた機械学習を行うことによって、前記第1のカメラによって撮像された前記計算撮像画像を識別するための識別モデルを作成する学習部を備え、
     前記識別モデル変更部は、前記学習部によって作成された前記識別モデルに現在の前記識別モデルを変更する、
     請求項1又は2に記載の画像識別システム。
  13.  画像識別システムにおける画像識別方法であって、
     複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、
     前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、
     前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、
     識別した前記マスクパターンに応じて、前記識別モデルを変更する、
     画像識別方法。
  14.  複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、
     前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、
     前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、識別した前記マスクパターンに応じて、前記識別モデルを変更するようにコンピュータを機能させる、
     画像識別プログラム。
  15.  画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体であって、
     前記画像識別プログラムは、
     複数のピンホールが形成された変更可能なマスクパターンを有するマスクとイメージセンサとを含む第1のカメラによって撮像されたボケのある画像である計算撮像画像を取得し、
     前記第1のカメラによって撮像された前記計算撮像画像を入力データとし、
     識別結果を出力データとする識別モデルを利用して前記計算撮像画像を識別し、
     前記マスクパターンが変更された後に、変更された前記マスクパターンを識別し、識別した前記マスクパターンに応じて、前記識別モデルを変更するようにコンピュータを機能させる、
     コンピュータ読み取り可能な非一時的な記録媒体。
PCT/JP2022/046813 2021-12-27 2022-12-20 画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体 WO2023127589A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-212421 2021-12-27
JP2021212421 2021-12-27

Publications (1)

Publication Number Publication Date
WO2023127589A1 true WO2023127589A1 (ja) 2023-07-06

Family

ID=86998942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/046813 WO2023127589A1 (ja) 2021-12-27 2022-12-20 画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体

Country Status (1)

Country Link
WO (1) WO2023127589A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019078337A1 (ja) * 2017-10-19 2019-04-25 ソニー株式会社 撮像装置および方法、並びに、画像処理装置および方法
WO2021075527A1 (ja) * 2019-10-18 2021-04-22 国立大学法人大阪大学 カメラ及びイメージングシステム
WO2021176899A1 (ja) * 2020-03-02 2021-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理システム、及び、情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019078337A1 (ja) * 2017-10-19 2019-04-25 ソニー株式会社 撮像装置および方法、並びに、画像処理装置および方法
WO2021075527A1 (ja) * 2019-10-18 2021-04-22 国立大学法人大阪大学 カメラ及びイメージングシステム
WO2021176899A1 (ja) * 2020-03-02 2021-09-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理システム、及び、情報処理装置

Similar Documents

Publication Publication Date Title
CN103827920B (zh) 根据图像的对象距离确定
JP7480882B2 (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
US9295141B2 (en) Identification device, method and computer program product
JP6003135B2 (ja) 画像処理装置、画像処理方法及び撮像装置
JP2006523067A (ja) 物体上に出力画像を表示する方法
TW201220253A (en) Image calculation method and apparatus
US20230138710A1 (en) Multi-pinhole camera and image identification system
US20210174143A1 (en) Information processing method, information processing system, and information processing apparatus
JP2016092693A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP6720966B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6088864B2 (ja) キャリブレーションシステム、およびキャリブレーション方法
JP2010217984A (ja) 像検出装置及び像検出方法
WO2023127589A1 (ja) 画像識別システム、画像識別方法、画像識別プログラム及び画像識別プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体
JP7021036B2 (ja) 電子機器及び通知方法
JP2020004389A (ja) ビデオシーケンスにおいて動きを検出するための方法
JP2008058204A (ja) 位置計測システム
JP2005031044A (ja) 三次元誤差測定装置
WO2022014306A1 (ja) 学習方法、画像識別方法、学習装置、及び画像識別システム
JPWO2018155269A1 (ja) 画像処理装置および方法、並びにプログラム
JP2019096961A (ja) 医療安全システム
JP6213640B2 (ja) 画像処理装置、画像処理方法、撮像装置、及びシステム
JP2010225092A (ja) 画像処理装置、及び画像処理システム
WO2018139250A1 (ja) 全天球撮像装置
JP7263493B2 (ja) 電子機器及び通知方法
WO2023276480A1 (ja) 撮影システム、撮影方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915813

Country of ref document: EP

Kind code of ref document: A1