WO2023233457A1 - 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体 - Google Patents

画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023233457A1
WO2023233457A1 PCT/JP2022/021906 JP2022021906W WO2023233457A1 WO 2023233457 A1 WO2023233457 A1 WO 2023233457A1 JP 2022021906 W JP2022021906 W JP 2022021906W WO 2023233457 A1 WO2023233457 A1 WO 2023233457A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
authentication
image
face
target
Prior art date
Application number
PCT/JP2022/021906
Other languages
English (en)
French (fr)
Inventor
政義 山浦
智弘 波多江
尚幸 村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/021906 priority Critical patent/WO2023233457A1/ja
Publication of WO2023233457A1 publication Critical patent/WO2023233457A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • the present disclosure relates to an image processing device, an authentication system, an image processing method, and a non-transitory computer-readable medium.
  • Patent Document 1 discloses an image processing apparatus that performs blurring processing on a background area that is an area other than the main subject area of a target image.
  • an object of the present disclosure is to provide an image processing device, an authentication system, an image processing method, and a non-transitory computer-readable medium that can flexibly set areas to be hidden or not to be hidden in a photographed image. be.
  • An image processing device includes a setting means for setting a designated part other than the face of a subject as a target part, and a setting means for setting a designated part other than the face of a subject as a target part; an authentication means for determining whether or not the target person is included in the photographed image; and if the photographed image includes the target person, a first area that is a facial area of the target person, and a first area that is an image area of the target body part; 2 areas as a specific area that is not subject to abstraction processing, and an abstraction unit that performs abstraction processing on an image area other than the identified specific area.
  • An authentication system includes an authentication device that performs face authentication based on a target person's facial area, and an image processing device.
  • the image processing device includes a setting means for setting a designated part other than the face of the target person as a target part, and a photographed image of a predetermined area based on a gate, which includes a predetermined target person.
  • an authentication means for determining whether or not the target person is included in the photographed image;
  • the image forming apparatus includes an area specifying means for specifying a specific area that is not to be subjected to an abstraction process, and an abstraction process for performing an abstraction process on an image area other than the identified specific area.
  • a designated part other than the face of a subject is set as a target part, and a predetermined part of the subject is captured in a photographed image of a predetermined area based on a gate. If the subject is included in the photographed image, a first area that is the face area of the subject and a second area that is the image area of the target part are abstracted. Abstraction processing is performed on image regions other than the identified specific region.
  • a non-transitory computer-readable medium has a function of setting a designated part other than the face of a subject as a target part, and a function of setting a designated part other than the face of a subject as a target part, and a function of setting a designated part other than the face of the subject as a target part, and a function of setting a designated part other than the face of the subject as a target part, and a function of setting a designated part other than the face of the subject as a target part, and a function of setting a designated part other than the face of the subject as a target part, and a function of determining whether or not a predetermined target person is included; and if the captured image includes the target person, a first area that is the face area of the target person and an image area of the target part;
  • an image processing device an authentication system, an image processing method, and a non-temporary computer-readable medium that can flexibly set a hidden area or non-hidden area for a photographed image.
  • FIG. 1 is a block diagram showing the configuration of an image processing device according to a first embodiment
  • FIG. 3 is a flowchart illustrating an example of the flow of image processing according to the first embodiment
  • FIG. 2 is a block diagram showing the overall configuration of an authentication system according to a second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an authentication terminal according to a second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an authentication device according to a second embodiment.
  • 7 is a flowchart illustrating an example of the flow of face information registration processing according to the second embodiment.
  • 7 is a flowchart illustrating an example of the flow of authentication processing according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of authentication processing according to the second embodiment.
  • FIG. 2 is a block diagram showing the configuration of an image processing device according to a second embodiment.
  • FIG. 7 is a flowchart illustrating an example of the flow of image processing according to the second embodiment. 7 is a diagram for explaining an example of a display on a display unit 250 according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • FIG. 7 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • FIG. 1 is a block diagram showing the configuration of an image processing device 20 according to the first embodiment.
  • the image processing device 20 is one or more devices that perform abstraction processing on an image area other than a specific area of a photographed image.
  • the specific area is an area that is not subject to abstraction processing. Abstraction processing is processing for processing objects or people appearing in an image area that is a target of abstraction processing so that they cannot be identified.
  • the abstraction process is, for example, a mosaic process, a blur process, a fill process, or a transparency process.
  • the specific area is a combination of the first area included in the captured image and the second area included in the captured image.
  • the first area is a predetermined facial area of the subject.
  • the target person is a person conducting or cooperating with a demonstration experiment of face recognition.
  • the second area is an image area of a target region specified in advance by the user of the image processing device 20.
  • the target part may be at least one of a body part of the target person excluding the face, baggage carried by the target person, and an ornament worn by the target person. Further, in an experiment in which the face of a subject passing through a gate is authenticated, the target part may be a reading section such as an IC card reader installed at the gate.
  • the image processing device 20 includes a setting section 22, an authentication section 24, an area specifying section 25, and an abstraction section 26.
  • the setting unit 22 is also referred to as setting means.
  • the setting unit 22 sets the designated region as the target region.
  • the setting unit 22 receives a designation of the type of target region from the user of the image processing device 20, and sets the target region. Further, for example, in response to receiving information specifying the type of the target site from another device, the setting unit 22 sets the target site based on the information specifying the type of the target site.
  • the authentication unit 24 is also referred to as authentication means.
  • the authentication unit 24 determines whether or not a predetermined target person is included in a captured image of a predetermined area based on the gate.
  • the authentication unit 24 may determine whether the target person is included in the captured image by controlling face authentication for the face area of each person included in the captured image. Controlling face authentication may mean that the image processing device 20 performs face authentication. Alternatively, controlling face authentication may mean that the image processing device 20 requests another face authentication device (not shown) to perform face authentication and receives a face authentication result from the face authentication device. The authentication unit 24 may then determine whether the detected person includes the target person based on the result of face authentication.
  • the area specifying unit 25 is also referred to as area specifying means.
  • the area specifying unit 25 specifies the first area and the second area as specific areas when the photographed image includes the subject.
  • the specific area is an image area that is not subject to abstraction processing.
  • the abstraction unit 26 is also referred to as abstraction means.
  • the abstraction unit 26 performs abstraction processing on the image area excluding the specific area by converting the pixel values of pixels included in the image area excluding the specific area in the photographed image. On the other hand, the abstraction unit 26 does not convert pixel values for the specific area. In other words, the abstraction unit 26 does not perform abstraction processing on the specific area.
  • FIG. 2 is a flowchart showing an example of the flow of image processing according to the first embodiment.
  • the setting unit 22 of the image processing device 20 sets a designated region as a target region (S11).
  • the setting unit 22 receives a designation of the type of target region from the user of the image processing device 20, and sets the accepted region as the target region.
  • the user may specify the target's hand, finger, ear, or posture as the type of target part.
  • the user may specify baggage carried by the subject or accessories worn by the subject as the type of the subject part.
  • the user may specify a reading section installed at the gate as the type of target region.
  • the authentication unit 24 controls face authentication for each person included in the photographed image (S12). Thereby, the authentication unit 24 obtains the face authentication result. The authentication unit 24 then determines whether the photographed image includes the subject (S13).
  • the area specifying unit 25 identifies the subject's face area (i.e., the first area) and the image area of the target body part (i.e., the first area). 2 area) as a specific area (S14).
  • the abstraction unit 26 performs abstraction processing on image areas other than the specific area in the photographed image (S15).
  • the image processing device 20 then outputs the abstracted image (S16).
  • the image processing device 20 ends the process.
  • the image processing device 20 may store the abstracted image in the storage device.
  • the target person's face area and the image area of the target part designated by the user of the image processing device 20 are set as areas that are not hidden, and other image areas are abstracted. Process. Therefore, it is possible to flexibly set areas to be hidden or areas not to be hidden depending on the verification target or operation.
  • FIG. 3 is a block diagram showing the overall configuration of the authentication system 1 according to the second embodiment.
  • the authentication system 1 is a computer system that conducts a demonstration experiment in which a person passing through the gate 60 is authenticated.
  • the authentication system 1 stores the captured image used for personal authentication for a predetermined period of time.
  • the personal authentication is face authentication.
  • the authentication system 1 includes an authentication device 10, an image processing device 20a, an image storage device 30, an authentication terminal 40, and a gate 60.
  • the authentication device 10, the image processing device 20a, the image storage device 30, and the authentication terminal 40 are communicably connected via the network N.
  • the network N is a wired or wireless communication network.
  • the gate 60 may be a ticket gate at a station where the demonstration experiment is conducted, a gate at an airport, a gate at a concert hall or an amusement park, or the like.
  • the gate 60 includes a first gate body 61 and a second gate body 62.
  • the first gate main body 61 and the second gate main body 62 are separated from each other by a predetermined distance in a direction perpendicular to the direction of travel of passersby.
  • a camera 410 of the authentication terminal 40 is installed at the gate 60, and the camera 410 photographs passersby, and the authentication device 10 performs facial recognition based on the photographed image.
  • the gate 60 is then opened or closed based on the result of face authentication.
  • Opening or closing the gate 60 means rotating or sliding the flap 63 into the open or closed state. However, opening or closing the gate 60 may mean unlocking or locking the flap 63, or may simply mean displaying or outputting a voice indicating whether or not passage is permitted. Note that the flap 63 in the gate 60 is not essential.
  • the camera 410 is illustrated as being disposed on the second gate body 62 in this figure, the camera 410 is not limited to this and may be disposed on the first gate body 61. Further, the camera 410 may be provided apart from the gate 60.
  • the authentication device 10 is an example of a face authentication device that performs face authentication based on a person's facial area.
  • the authentication device 10 stores face information for each target person, and performs face authentication on a person passing through the gate 60 using the stored face information.
  • the authentication device 10 in response to receiving a photographed image from the authentication terminal 40, the authentication device 10 detects a face area of a person from the photographed image and performs face authentication on the face area. The authentication device 10 transmits the result of face authentication to the authentication terminal 40.
  • the image processing device 20a is an example of the image processing device 20 of the first embodiment.
  • the image processing device 20a performs abstraction processing on an image area other than the specific area of the photographed image used by the authentication device 10 for face authentication, and generates an image in which at least a portion of the image is abstracted.
  • an image in which at least a portion of the image is abstracted will be referred to as an abstracted image.
  • the abstracted image is used to verify the results of face authentication.
  • the specific area which is a non-abstracted area, is composed of a face area of the subject and an image area of the target body part.
  • the target region is an area that the verifier confirms during verification in order to understand the situation during face authentication.
  • the target part may be at least one of a body part of the target person excluding the face, baggage carried by the target person, and an ornament worn by the target person.
  • the image processing device 20a stores the generated abstracted image in the image storage device 30.
  • the image storage device 30 is a storage device that stores abstract images generated by the image processing device 20a.
  • the abstracted images stored in the image storage device 30 are deleted after a predetermined period of time has passed since they were stored.
  • the authentication terminal 40 is a terminal device equipped with a camera 410 installed near the gate 60.
  • the authentication terminal 40 transmits an image of the passerby taken by the camera 410 to the authentication device 10, and requests the authentication device 10 to perform face authentication.
  • the authentication terminal 40 controls opening and closing of the gate 60 based on the result of face authentication from the authentication device 10.
  • the gate 60 and the authentication terminal 40 may be configured as separate devices or may be configured integrally. Further, the gate 60 does not need to have an opening/closing mechanism.
  • the gate 60 may have a pole type instead of having a structure in which the main body is separated into two parts, or may be simply a passage. In this case, the authentication terminal 40 may output whether or not passage is permitted instead of controlling the opening and closing of the gate 60.
  • FIG. 4 is a block diagram showing the configuration of the authentication terminal 40 according to the second embodiment.
  • the authentication terminal 40 includes a camera 410, a storage section 420, a communication section 430, a display section 440, and a control section 460.
  • the camera 410 is a photographing device that performs photographing under the control of the control unit 460.
  • the storage unit 420 is a storage device in which programs for realizing each function of the authentication terminal 40 are stored.
  • the communication unit 430 is a communication interface with the network N.
  • Display unit 440 is a display device.
  • the control unit 460 controls the hardware included in the authentication terminal 40.
  • control unit 460 controls the camera 410 to photograph a predetermined area based on the gate, and transmits the photographed image to the authentication device 10 via the communication unit 430. Further, in response to the communication unit 430 receiving the face authentication result from the authentication device 10, the control unit 460 controls opening and closing of the gate 60 based on the result of the face authentication.
  • FIG. 5 is a block diagram showing the configuration of the authentication device 10 according to the second embodiment.
  • the authentication device 10 includes a storage section 100, a memory 110, a communication section 120, and a control section 140.
  • the storage unit 100 is a storage device such as a hard disk or flash memory.
  • the storage unit 100 stores a program 101 and a face information DB 102.
  • the program 101 is a computer program in which processing by the authentication device 10 is implemented.
  • the face information DB 102 stores a target person ID that identifies a target person and face information of the target person in association with each other. Face information is a set of feature points extracted from a face image.
  • the memory 110 is a volatile storage device such as a RAM (Random Access Memory), and is a storage area for temporarily holding information when the control unit 140 operates.
  • the communication unit 120 is a communication interface with the network N.
  • the control unit 140 is a processor that controls each component of the authentication device 10, that is, a control device.
  • the control unit 140 loads the program 101 from the storage unit 100 into the memory 110 and executes the program 101. Thereby, the control unit 140 realizes the functions of the registration unit 141, the detection unit 143, and the authentication unit 144.
  • the registration unit 141 issues a new target person ID when registering face information.
  • the registration unit 141 also detects a face area from a registered image for registering face information, extracts feature points from the face area, and generates information on the extracted feature points as face information.
  • the registration unit 141 associates the issued subject ID with the facial information for registration extracted from the registered image and registers it in the facial information DB 102.
  • the detection unit 143 detects a face area of a person from the captured image for authentication received from the authentication terminal 40, and supplies the face area to the authentication unit 144. When a plurality of people are included in the photographed image, the detection unit 143 detects a face area for each person and supplies the face area to the authentication unit 144.
  • the authentication unit 144 extracts feature points from the face area detected by the detection unit 143, and uses this as facial information for authentication. The authentication unit 144 then performs face authentication using face information. Specifically, the authentication unit 144 compares the face information extracted from the captured image for authentication with the face information in the face information DB 102. Thereby, the authentication unit 144 identifies the target person ID with which the facial information matches. Note that the facial information matches (match exists) when the matching degree is greater than or equal to a predetermined value.
  • the authentication unit 144 transmits the face authentication result to the authentication terminal 40 via the communication unit 120.
  • the authentication unit 144 also transmits the captured image for authentication to the image processing device 20a via the communication unit 120.
  • FIG. 6 is a flowchart illustrating an example of the flow of face information registration processing according to the second embodiment.
  • the registration unit 141 of the authentication device 10 acquires a registered image of the subject (S21). For example, the authentication device 10 acquires the registered image by receiving a face registration request including the registered image of the target person from a terminal used by the target person.
  • the registration unit 141 detects a face area included in the registered image (S22).
  • the registration unit 141 extracts face information from the face area detected in step S22 (S23).
  • the registration unit 141 issues a subject ID, associates the subject ID with the face information, and registers it in the face information DB 102 (S24).
  • the registration unit 141 may receive face information from the face registration request source instead of the registered image, and register it in the face information DB 102 in association with the subject ID. In this case, the processes of S21 to S23 may be omitted.
  • FIG. 7 is a flowchart showing an example of the flow of authentication processing according to the second embodiment.
  • the detection unit 143 detects a face area of a person from the photographed image (S32). If the face areas of multiple people are detected here, the detection unit 143 determines the person to be authenticated from among the multiple people (S33).
  • FIG. 8 is a diagram for explaining a specific example of authentication processing according to the second embodiment.
  • FIG. 8 shows a photographed image 500 of the vicinity of the gate 60.
  • the photographed image 500 includes persons P1 to P5 who are about to pass through the gate 60.
  • the detection unit 143 detects the face areas of the plurality of persons P1 to P5 in S32. Then, in S33, the detection unit 143 may determine the person P1 closest to the gate 60 as the person to be authenticated. Further, in S33, the detection unit 143 may determine a person who is located within a predetermined range based on the gate 60 as the person to be authenticated.
  • the authentication unit 144 performs face authentication on the authentication target person determined in this way.
  • the authentication unit 144 executes the processes shown in S34 to S38. First, the authentication unit 144 extracts facial information from the facial area of the person to be authenticated (S34). Next, the authentication unit 144 compares the extracted face information with the face information in the face information DB 102 (S35). If the degree of matching of the face information is equal to or greater than the predetermined value (Yes in S36), the authentication unit 144 outputs to the authentication terminal 40 that the face authentication was successful (S37). On the other hand, if the degree of matching of the face information is less than the predetermined value (No in S36), the authentication unit 144 outputs to the authentication terminal 40 that the face authentication has failed (S38).
  • the authentication unit 144 outputs the captured image to the image processing device 20a (S39).
  • FIG. 9 is a block diagram showing the configuration of an image processing device 20a according to the second embodiment.
  • the image processing device 20a includes a storage section 200, a memory 210, a communication section 220, an input section 230, a control section 240, and a display section 250.
  • the storage unit 200 is a storage device such as a hard disk or flash memory.
  • the storage unit 200 stores a program 201, a face information DB 202, and target part information 203.
  • the program 201 is a computer program in which processing by the image processing device 20a is implemented.
  • the face information DB 202 stores the subject ID and the face information of the subject in association with each other.
  • the target region information 203 stores information regarding the target region.
  • the target region information 203 stores the type of target region and characteristic information of the target region in association with each other.
  • the feature information is information for detecting the image area of the target person's bag.
  • the feature information may include information on features extracted from an image of a typical bag.
  • the feature information may include the general relative position of the bag with respect to the face area. Note that the relative position may be a value normalized by the size of the face area.
  • the memory 210 is a volatile storage device such as a RAM, and is a storage area for temporarily holding information when the control unit 240 operates.
  • the communication unit 220 is a communication interface with the network N.
  • the input unit 230 is an input device that receives input from the user of the image processing device 20a.
  • the control unit 240 is a processor, that is, a control device that controls each component of the image processing device 20a.
  • the control unit 240 loads the program 201 from the storage unit 200 into the memory 210 and executes the program 201. Thereby, the control unit 240 realizes the functions of the registration unit 241, the setting unit 242, the detection unit 243, the authentication unit 244, the area identification unit 245, and the abstraction unit 246.
  • the registration unit 241 is also referred to as registration means. It has the same function as the registration unit 141. That is, the registration unit 241 registers the subject ID and the face information for registration in the face information DB 202 in association with each other.
  • the registration unit 241 may extract face information for registration from the registered image, or may receive the face information extracted from the registered image from the registration unit 141 together with the subject ID. In the former case, the registration unit 241 executes a process similar to the process shown in FIG.
  • the setting unit 242 is an example of the setting unit 22 of the first embodiment.
  • the setting unit 242 receives a designation of the type of target region from the user of the image processing device 20a via the input unit 230.
  • the setting unit 242 then sets the designated region as the target region.
  • the detection unit 243 is also referred to as detection means.
  • the detection unit 243 detects a face area of a person from the captured image for authentication received from the authentication device 10, and supplies the face area to the authentication unit 244.
  • the face area detection method is the same as that of the detection unit 143.
  • the face area detected by the detection unit 243 is also referred to as a first area.
  • the detection unit 243 detects a face area for each person and supplies the face area to the authentication unit 244.
  • the authentication unit 244 extracts feature points from the face area detected by the detection unit 243, and uses this as facial information for authentication. The authentication unit 244 then performs face authentication using face information.
  • the face authentication method is the same as that of the authentication section 144. The person whose face has been successfully authenticated here is one of the subjects registered in advance.
  • the authentication unit 244 supplies information on the facial area (first area) of the subject whose face has been successfully authenticated to the area specifying unit 245.
  • the area specifying unit 245 is an example of the area specifying unit 25 of the first embodiment.
  • the area specifying unit 245 detects a second area.
  • the area specifying unit 245 detects a second area, which is an image area of the target body part, based on the position of the face area of the target person identified by the authentication unit 244 and the specified type of the target body part.
  • the region specifying unit 245 detects the second region using the position of the target person's facial region and the feature information associated with the type of target region in the target region information 203.
  • the area specifying unit 245 specifies the first area specified by the authentication unit 244 and the second area detected by itself as a specific area.
  • the abstraction unit 246 is an example of the abstraction unit 26 of the first embodiment.
  • the abstraction unit 246 performs pixel value conversion on image areas other than the specific area in the photographed image. As a result, the abstraction unit 246 performs abstraction processing on image areas other than the specific area.
  • the display unit 250 is a display device.
  • the display unit 250 displays an input screen for receiving a designation of the type of target region from the user.
  • FIG. 10 is a flowchart showing an example of the flow of image processing according to the second embodiment.
  • the setting unit 242 of the image processing device 20a receives a designation of the type of target region from the user (S60), and sets the designated region as the target region (S61).
  • the display unit 250 may display an input screen 600 shown in FIG. 11.
  • FIG. 11 is a diagram for explaining an example of a display on the display unit 250 according to the second embodiment.
  • the input screen 600 includes a message prompting the user to select a target part that is not subject to abstraction processing, and further includes a selection area for the user to select one type from a plurality of target part types.
  • the types of target parts that can be selected are, for example, hands, whole body, bags, and hats.
  • the setting unit 242 receives the designation of the type of target region in response to the user selecting one type.
  • the setting unit 242 then sets the target region according to the received specification.
  • the communication unit 220 receives the captured image used for face authentication from the authentication device 10 (S62).
  • the detection unit 243 detects the face area of the person from the photographed image (S63).
  • the authentication unit 244 performs face authentication for each detected person (S64). Specifically, as shown in S34 to S36 in FIG. 7, the authentication unit 244 extracts facial information from the facial area, compares the extracted facial information with the facial information in the facial information DB 202, and determines whether the facial information matches. It is determined whether the degree is greater than or equal to a predetermined value.
  • the authentication unit 244 determines that the face authentication has been successful when the degree of matching of the face information is equal to or higher than a predetermined value, and determines that the person for whom the face authentication has been successfully performed is a pre-registered target person. On the other hand, the authentication unit 144 determines that face authentication has failed if the degree of matching of the face information is less than a predetermined value.
  • the area specifying unit 245 determines whether the target person is included in the detected persons based on the results of face authentication of all the detected persons (S65). If the target person is not included in the detected persons (No in S65), the image processing device 20a ends the process.
  • the area specifying unit 245 detects the image area of the target part as the second area (S66). Specifically, the region specifying unit 245 detects the second region using feature information associated with the specified type of target region in the target region information 203.
  • the area specifying unit 245 specifies the face area of the person determined to be the target person as the first area. Then, the area specifying unit 245 specifies the first area, which is the face area of the subject, and the second area, which is the image area of the target part, as specific areas (S67).
  • the abstraction unit 246 performs abstraction processing on image regions other than the specific region included in the photographed image (S68).
  • the abstraction unit 246 stores the abstracted image in the image storage device 30 (S69).
  • the target region is set in S61, but the target region may be set at any timing between S62 and S66.
  • the setting of the target region may be the setting of the image region (that is, the second region) of the target region instead of setting the type of the target region.
  • the process shown in S66 may be omitted.
  • the display unit 250 of the image processing device 20a may display a photographed image, and the setting unit 242 may set a portion of the photographed image specified by the user as the second area.
  • the user may directly input the coordinates of the second area using a keyboard, or may use a pointing device to surround the second area.
  • the setting unit 242 may accept the designation of the second area every time a captured image is received from the authentication device 10, but the configuration is not limited thereto. For example, before the start of operation, the setting unit 242 receives the designation of the second area from the user using one or more captured images, and trains a second area detection model that detects the second area from the captured images. good. After the start of operation, the setting unit 242 may detect the second area using the learned second area detection model. This can reduce the user's specification burden.
  • FIG. 12 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • the abstracted image 510 includes facial regions of a plurality of people detected by the detection unit 243.
  • the authentication unit 244 identifies, as the first region F1, the face region of the person P1 whose degree of matching with the face information of the subject registered in advance is equal to or greater than a predetermined value.
  • the region specifying unit 245 detects an image region of the target region using the feature information associated with the specified type of target region in the target region information 203, and identifies this as the second region S1.
  • the region specifying unit 245 detects an image region in which the degree of matching of the feature amount is equal to or higher than a predetermined threshold value as the second region S1. good.
  • the area specifying unit 245 determines the second area based on the position and size of the subject's face area (first area F1) and the relative position. S1 may be detected.
  • the region specifying unit 245 may specify the second region S1 using the relative position and skeletal information. For example, bags are often located near the hand. Therefore, the region specifying unit 245 may first extract the skeletal information of the subject and specify the position of the subject's hand from the skeletal information. Then, the area specifying unit 245 may detect an image area within a predetermined range from the specified hand position as the second area S1.
  • the area specifying unit 245 uses some of the above-mentioned methods using the characteristic amount of the bag, methods using the relative position based on the face area, and methods using the relative position based on other parts of the body. Alternatively, the second region S1 may be detected by combining all of them.
  • the abstraction unit 246 then performs abstraction processing on the image regions excluding the first region F1 and the second region S1. For example, the abstraction unit 246 abstracts image areas other than the specific area by lowering the resolution, converting a plurality of pixels to the same pixel value, or uniformly converting to a specific pixel value. When converting multiple pixels to the same pixel value, the abstraction unit 246 may convert the pixel values of the multiple pixels to the average pixel value of the multiple pixels, or may convert the pixel values of the multiple pixels to the average pixel value of the multiple pixels, or It may also be converted into pixel values.
  • the target part is at least one of the body parts of the target person excluding the face, baggage carried by the target person, and accessories worn by the target person.
  • the target part may be an IC card reader provided at the gate 60.
  • the image processing device 20a may hold a predetermined position and size in the photographed image as the position and size of the IC card reading section in the target region information 203.
  • the area specifying unit 245 specifies the first area F1 similarly to FIG. 12. Further, the area specifying unit 245 reads the characteristic information of the reading unit stored in the target region information 203 and grasps the relative position and size of the reading unit in the photographed image. Then, the area specifying unit 245 detects the second area S1 from the captured image based on the relative position and size.
  • the image processing device 20a may hold information on the feature amount extracted from the image of the IC card reading section in the target region information 203.
  • the region specifying unit 245 may detect an image region in which the degree of coincidence of feature amounts is equal to or greater than a predetermined value as the second region S1.
  • the abstraction unit 246 then performs abstraction processing on the image regions excluding the first region F1 and the second region S1.
  • the target region may be a predetermined area near the gate 60.
  • FIG. 14 is a diagram for explaining a specific example of image processing according to the second embodiment.
  • the region specifying section 245 may specify the second region S1 using the characteristic information registered in advance in the same manner as when the target region is the reading section.
  • the target person's face area and the image area of the target part designated by the user of the image processing device 20 are set as areas that are not hidden, and other image areas are abstracted. Process. Therefore, it is possible to flexibly set areas to be hidden or areas not to be hidden depending on the verification target or operation. Thereby, the image processing device 20a can be used for general purposes regardless of the authentication method of the authentication device 10.
  • the authentication device 10 may transmit the face area detection result and the face authentication result to the image processing device 20a.
  • the image processing device 20a can divert the face area detection result and the face authentication result for image processing, so the face area detection process and the face authentication process (S62 to S63 in FIG. 10) may be omitted.
  • ⁇ First modification example> For example, two or more types of target parts may be specified.
  • the user may specify the subject's baggage and the IC card reader as the target parts.
  • the area specifying unit 245 may specify the image area of each specified target site as the second area.
  • the area specifying unit 245 uniformly sets the first area and the second area as specific areas, but the specific area may be limited based on the shooting time.
  • the area identifying unit 245 identifies the first area and the second area within a predetermined period based on the time when the subject is estimated to have entered or exited the gate 60 as the specific area. good.
  • the area specifying unit 245 may estimate the entry time or exit time based on the timing of receipt of the IC card of the target person.
  • the area specifying unit 245 may estimate a predetermined period of time (for example, 5 seconds) before the time when the IC card reading unit detects the signal as the entry time.
  • the area specifying unit 245 may estimate a predetermined period of time (for example, 2 seconds) after the time when the reading unit detects the signal as the exit time. Then, the area specifying unit 245 specifies the first area and the second area of the photographed image taken from the entrance time to the exit time as the specific area, and the first area and the second area of the photographed image taken at other times. may be excluded from specific areas. As a result, information unnecessary for verification is hidden, so verification of the authentication results can be made more convenient. In particular, when face authentication is performed using a walk-through method, the operation of entering and exiting the gate 60 can be suitably verified.
  • a predetermined period of time for example, 2 seconds
  • the authentication device 10 authenticates the person to be authenticated by face authentication.
  • the personal authentication may be multi-factor authentication including first authentication which is face authentication and second authentication other than face authentication.
  • the second authentication may be authentication that determines whether the subject is taking a pre-registered pose when passing through the gate.
  • the second authentication may be authentication that determines whether the subject is looking in a pre-registered direction when passing through the gate.
  • the second authentication may be an authentication that determines whether the user is carrying pre-registered baggage or wearing pre-registered accessories.
  • the second authentication may be authentication by reading an IC card. The part used for the second authentication becomes the target part.
  • the authentication device 10 may store target region information that stores the type of the target region and characteristic information of the target region.
  • the authentication device 10 may perform a second authentication on the image area of the target region using the target region information. Then, when the first authentication is successful and the second authentication is successful, the authentication device 10 transmits a message to the authentication terminal 40 that the person authentication has been successful. On the other hand, if any of the authentications fails, the authentication device 10 sends a notification to the authentication terminal 40 that the personal authentication has failed.
  • the details of personal authentication are as follows. First, the detection unit 143 of the authentication device 10 detects a second area used for second authentication in addition to the face area from the captured image. Next, the authentication unit 144 of the authentication device 10 extracts a feature amount from the second area detected by the detection unit 143, and uses this as feature information for authentication. The authentication unit 144 then compares the characteristic information for authentication with the characteristic information linked to the subject ID in the target region information 103. The authentication unit 144 authenticates the person based on the result of the first authentication based on the face information and the result of the second authentication based on the characteristic information for authentication extracted from the second area.
  • the setting unit 242 of the image processing device 20a may set a region according to the authentication method of the authentication device 10 as the target region.
  • the setting unit 242 of the image processing device 20a may receive the authentication method from the authentication device 10, and set the region according to the authentication method as the designated target region. This allows user input to be omitted.
  • the setting unit 242 of the image processing device 20a may receive a designation of the second authentication method from the user, and may set a region according to the accepted method as the designated target region. Thereby, in conjunction with the authentication method of the authentication device 10, the area to be hidden or the area not to be hidden can be flexibly set. Therefore, user input becomes easier.
  • modes such as whether or not the second authentication is performed and the authentication method of the second authentication may be set for each gate 60.
  • one-factor authentication using face authentication may be set at the first gate
  • two-factor authentication using face authentication and IC card authentication may be set at the second gate.
  • the setting unit 242 may set whether or not to set the target region and which region should be the target region, depending on the mode set for each gate 60.
  • the setting unit 242 does not need to set the target region for the image taken at the first gate.
  • the abstraction unit 246 does not need to perform abstraction processing on the captured image captured by the first gate.
  • the setting section 242 may set the reading section as the target region for the photographed image taken at the second gate.
  • the abstraction unit 246 may perform abstraction processing on the image region of the photographed image photographed at the second gate, excluding the subject's face and the reading section.
  • the image processing device 20a receives the captured image from the authentication device 10, but may also receive the captured image from the authentication terminal 40. Furthermore, although the image processing device 20a performs image processing on the captured image used by the authentication device 10 for face authentication, the image processing device 20a also performs image processing on captured images other than the captured image used by the authentication device 10 for face authentication. Processing may be performed.
  • the authentication device 10 and the image processing device 20a are separate devices, but the authentication device 10 and the image processing device 20a may be configured as the same device.
  • the present disclosure can implement arbitrary processing by causing a processor to execute a computer program.
  • the program includes instructions (or software code) that, when loaded into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored on a non-transitory computer readable medium or a tangible storage medium.
  • computer readable or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technology, CD - Including ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or a communication medium.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • a setting means for setting a specified part other than the target person's face as a target part a setting means for setting a specified part other than the target person's face as a target part
  • an authentication means for determining whether a predetermined target person is included in a photographed image of a predetermined range based on the gate
  • a first area that is a face area of the target person and a second area that is an image area of the target part are set as specific areas that are not subject to abstraction processing.
  • An image processing apparatus comprising: abstraction means for performing abstraction processing on an image area other than the identified specific area.
  • the image processing device includes at least one of a body part of the target person excluding the face, baggage carried by the target person, and accessories worn by the target person.
  • the area specifying means detects the second area based on the specified position of the target person's facial area and the type of the target part.
  • the target region includes a reading section installed at the gate.
  • the area specifying means specifies, as the specific area, the first area and the second area within a predetermined period based on a time when the subject is estimated to have entered the gate or a time when the subject is estimated to have left the gate.
  • the image processing device according to any one of Supplementary Notes 1 to 4.
  • an authentication device that performs facial recognition based on a person's facial area; Equipped with an image processing device and The image processing device includes: a setting means for setting a specified part other than the target person's face as a target part; an authentication means for determining whether a predetermined target person is included in a photographed image of a predetermined range based on the gate; When the target person is included in the photographed image, a first area that is a face area of the target person and a second area that is an image area of the target part are set as specific areas that are not subject to abstraction processing. an area specifying means for specifying; An authentication system comprising: abstraction means for performing abstraction processing on an image area other than the identified specific area.
  • the authentication device includes: detecting the second region from the photographed image; The authentication system according to supplementary note 6, wherein the person is further authenticated based on the result of the face authentication and the result of second authentication based on the feature amount extracted from the second area.
  • (Appendix 9) Set a specified part other than the target person's face as the target part, Determining whether a predetermined target person is included in a photographed image of a predetermined range of areas based on the gate, When the target person is included in the photographed image, a first area that is a face area of the target person and a second area that is an image area of the target part are set as specific areas that are not subject to abstraction processing. identify, An image processing method that performs abstraction processing on an image area excluding the identified specific area.
  • Authentication System 10 Authentication Device 20, 20a Image Processing Device 22 Setting Unit 23 Detection Unit 24 Authentication Unit 25 Area Specification Unit 26 Abstraction Unit 30 Image Storage Device 40 Authentication Terminal 60 Gate 61 First Gate Body 62 Second Gate Body 63 Flap 64 Reading section 100 Storage section 101 Program 102 Face information DB 110 memory 120 communication unit 140 control unit 141 registration unit 143 detection unit 144 authentication unit 200 storage unit 201 program 202 face information DB 203 Target part information 210 Memory 220 Communication unit 230 Input unit 240 Control unit 241 Registration unit 242 Setting unit 243 Detection unit 244 Authentication unit 245 Area specification unit 246 Abstraction unit 250 Display unit 410 Camera 420 Storage unit 430 Communication unit 440 Display unit 450 Input unit 460 Control unit 500 Photographed image 510 Abstracted image 600 Input screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

画像処理装置(20)は、対象者の顔以外の指定された部位を対象部位として設定する設定部(22)と、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証部(24)と、撮影画像に対象者が含まれる場合、対象者の顔領域である第1領域と、対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定部(25)と、特定した特定領域を除く画像領域に抽象化処理を実施する抽象化部(26)とを備える。

Description

画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体
 本開示は、画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体に関する。
 被写体を撮影した画像に写り込んだ通行人のプライバシーを保護するための技術が提案されている。例えば特許文献1には、対象の画像の主被写体領域以外の領域である背景領域に対してぼかし処理を施す画像処理装置が開示されている。
特開2021-012597号公報
 近年、一般客が通行する空港や駅において顔認証の実証実験が活発に実施されている。顔認証の実証実験においては、結果検証のために撮影した画像を一定期間保存することが望ましい。したがって画像に写り込んだ通行人のプライバシーを保護するニーズが特に高まっている。
 このような顔認証システムにおいては、検証対象に応じて或いは運用に即して、隠す領域と隠さない領域とを柔軟に設定することが求められている。しかし上述の特許文献1に記載の技術では、ぼかし処理を施す領域を柔軟に設定することが難しい。
 本開示の目的は、上述した課題に鑑み、撮影画像について隠す領域又は隠さない領域を柔軟に設定できる画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体を提供することにある。
 本開示の一態様にかかる画像処理装置は、対象者の顔以外の指定された部位を対象部位として設定する設定手段と、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段とを備える。
 本開示の一態様にかかる認証システムは、対象者の顔領域に基づく顔認証を実施する認証装置と、画像処理装置とを備える。前記画像処理装置は、対象者の顔以外の指定された部位を対象部位として設定する設定手段と、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段とを有する。
 本開示の一態様にかかる画像処理方法は、対象者の顔以外の指定された部位を対象部位として設定し、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定し、前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定し、特定した前記特定領域を除く画像領域に抽象化処理を実施する。
 本開示の一態様にかかる非一時的なコンピュータ可読媒体は、対象者の顔以外の指定された部位を対象部位として設定する機能と、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する機能と、前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する機能と、特定した前記特定領域を除く画像領域に抽象化処理を実施する機能とをコンピュータに実現させるためのプログラムが格納される。
 本開示により、撮影画像について隠す領域又は隠さない領域を柔軟に設定できる画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体を提供できる。
実施形態1にかかる画像処理装置の構成を示すブロック図である。 実施形態1にかかる画像処理の流れの一例を示すフローチャートである。 実施形態2にかかる認証システムの全体構成を示すブロック図である。 実施形態2にかかる認証端末の構成を示すブロック図である。 実施形態2にかかる認証装置の構成を示すブロック図である。 実施形態2にかかる顔情報登録処理の流れの一例を示すフローチャートである。 実施形態2にかかる認証処理の流れの一例を示すフローチャートである。 実施形態2にかかる認証処理の具体例を説明するための図である。 実施形態2にかかる画像処理装置の構成を示すブロック図である。 実施形態2にかかる画像処理の流れの一例を示すフローチャートである。 実施形態2にかかる表示部250の表示の一例を説明するための図である。 実施形態2にかかる画像処理の具体例を説明するための図である。 実施形態2にかかる画像処理の具体例を説明するための図である。 実施形態2にかかる画像処理の具体例を説明するための図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
 <実施形態1>
 次に本開示の実施形態1について説明する。図1は、実施形態1にかかる画像処理装置20の構成を示すブロック図である。画像処理装置20は、撮影画像のうち特定領域以外の画像領域に対して抽象化処理を実施する、1又は複数の装置である。
 特定領域は、抽象化処理の対象外となる領域である。抽象化処理は、抽象化処理の対象となる画像領域に映る物体又は人物を識別できないように加工する処理である。抽象化処理は、例えばモザイク処理、ぼかし処理、塗りつぶし処理、又は透明化処理である。本実施形態1では、特定領域は、撮影画像に含まれる第1領域と、撮影画像に含まれる第2領域とを合わせた領域である。
 第1領域は、予め定められた対象者の顔領域である。例えば対象者は、顔認証の実証実験の実施者又は協力者である。第2領域は、画像処理装置20のユーザが予め指定した対象部位の画像領域である。対象部位は、顔を除く対象者の身体の部位、対象者が有する手荷物、及び対象者が装着する装飾品の少なくともいずれかであってよい。またゲートを通過する対象者の顔を認証する実験においては、対象部位はゲートに設置されたICカードリーダ等の読取部であってもよい。
 画像処理装置20は、設定部22と、認証部24と、領域特定部25と、抽象化部26とを備える。
 設定部22は設定手段とも称する。設定部22は、指定された部位を対象部位として設定する。例えば設定部22は、画像処理装置20のユーザから対象部位の種別の指定を受け付け、対象部位を設定する。また例えば設定部22は、対象部位の種別を指定する情報を他の装置から受信したことに応じて、前記対象部位の種別を指定する情報に基づいて対象部位を設定する。
 認証部24は認証手段とも称する。認証部24は、ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する。
 例えば認証部24は、撮影画像に含まれる各人物の顔領域に対して顔認証を制御することで、撮影画像に対象者が含まれるか否かを判定してよい。顔認証を制御するとは、画像処理装置20が顔認証を実施することであってよい。あるいは顔認証を制御するとは、画像処理装置20が他の顔認証装置(不図示)に対して顔認証を要求して顔認証結果をその顔認証装置から受信することであってもよい。そして認証部24は、顔認証の結果に基づいて、検出した人物に対象者が含まれるかを判定してよい。
 領域特定部25は領域特定手段とも称する。領域特定部25は、撮影画像に対象者が含まれる場合、第1領域と第2領域とを特定領域として特定する。特定領域は、抽象化処理の対象外となる画像領域である。
 抽象化部26は抽象化手段とも称する。抽象化部26は、撮影画像のうち特定領域を除く画像領域に含まれる画素の画素値を変換することで、特定領域を除く画像領域に対して抽象化処理を実施する。一方抽象化部26は、特定領域については画素値を変換しない。つまり抽象化部26は、特定領域については抽象化処理を実施しない。
 図2は、実施形態1にかかる画像処理の流れの一例を示すフローチャートである。まず画像処理装置20の設定部22は、指定された部位を対象部位として設定する(S11)。例えば設定部22は、画像処理装置20のユーザから対象部位の種別の指定を受け付け、受け付けた部位を対象部位として設定する。このときユーザは、対象部位の種別として対象者の手、指、耳、又は姿勢を指定してよい。またユーザは、対象部位の種別として対象者が有する手荷物又は対象者が装着する装飾品を指定してよい。またユーザは、対象部位の種別としてゲートに設置された読取部を指定してよい。
 次に認証部24は、撮影画像に含まれる各人物についての顔認証を制御する(S12)。これにより認証部24は、顔認証結果を取得する。そして認証部24は、撮影画像に対象者が含まれているかを判定する(S13)。
 撮影画像に対象者が含まれていると認証部24が判定した場合(S13でYes)、領域特定部25は、対象者の顔領域(つまり第1領域)と対象部位の画像領域(つまり第2領域)とを特定領域として特定する(S14)。次に抽象化部26は、撮影画像のうち特定領域以外の画像領域に対して抽象化処理を実施する(S15)。そして画像処理装置20は、抽象化した画像を出力する(S16)。
 一方撮影画像に対象者が含まれていないと認証部24が判定した場合(S13でNo)、画像処理装置20は処理を終了する。
 尚、S16において画像処理装置20は、抽象化した画像を記憶装置に格納してもよい。
 このように実施形態1によれば、対象者の顔領域と、画像処理装置20のユーザが指定した対象部位の画像領域とを隠さない領域として設定し、それ以外の画像領域に対して抽象化処理をする。したがって検証対象に応じて或いは運用に即して隠す領域又は隠さない領域を柔軟に設定できる。
 <実施形態2>
 次に本開示の実施形態2について説明する。図3は、実施形態2にかかる認証システム1の全体構成を示すブロック図である。認証システム1は、ゲート60を通過する人物に対して本人認証を行う実証実験を実施するコンピュータシステムである。認証システム1は、本人認証に用いた撮影画像を所定期間保存する。本実施形態2では本人認証は顔認証である。
 認証システム1は、認証装置10と、画像処理装置20aと、画像記憶装置30と、認証端末40と、ゲート60とを備える。認証装置10、画像処理装置20a、画像記憶装置30、及び認証端末40は、ネットワークNを介して通信可能に接続されている。
 ネットワークNは、有線又は無線の通信ネットワークである。
 ゲート60は、実証実験が行われる駅の改札、空港のゲート、又はコンサートホールや遊園地のゲート等であってよい。ゲート60は、第1のゲート本体61と、第2のゲート本体62とを備える。
 第1のゲート本体61及び第2のゲート本体62は、通行者の進行方向に対して直交する方向に所定の間隔をあけて離隔している。ゲート60には認証端末40のカメラ410が配設され、カメラ410が通行者を撮影し、認証装置10が撮影画像に基づいて顔認証を行うようになっている。そしてゲート60は、顔認証の結果に基づいて開放又は閉鎖する。
 ゲート60を開放又は閉鎖するとは、フラップ63を開状態又は閉状態に回転又は摺動させることを意味する。しかしゲート60を開放又は閉鎖するとは、フラップ63を解錠又は施錠することであってもよいし、単に通過許否を表示又は音声出力することであってよい。尚、ゲート60においてフラップ63は必須ではない。
 尚、本図ではカメラ410が第2のゲート本体62上に配設されるように図示されているが、これに限らず、第1のゲート本体61上に配設されてもよい。またカメラ410はゲート60から離隔して設けられてもよい。
 認証装置10は、人物の顔領域に基づく顔認証を実施する顔認証装置の一例である。認証装置10は、対象者ごとに顔情報を記憶し、記憶している顔情報を用いてゲート60を通過する人物に対して顔認証を実施する。
 例えば認証装置10は、認証端末40から撮影画像を受信したことに応じて、撮影画像から人物の顔領域を検出し、顔領域に対して顔認証を実施する。認証装置10は顔認証の結果を認証端末40に送信する。
 画像処理装置20aは、実施形態1の画像処理装置20の一例である。画像処理装置20aは、認証装置10が顔認証に用いた撮影画像のうち、特定領域以外の画像領域に対して抽象化処理を実施して、少なくとも一部が抽象化された画像を生成する。以下では、少なくとも一部が抽象化された画像を抽象化画像と称する。本実施形態2では抽象化画像は顔認証の結果の検証のために用いられる。抽象化されていない領域である特定領域は、対象者の顔領域と対象部位の画像領域とから構成される。対象部位は、顔認証時の状況を把握するために、検証時に検証者が確認する領域である。本実施形態2では、対象部位は、顔を除く対象者の身体の部位、対象者が有する手荷物、及び対象者が装着する装飾品の少なくともいずれかであってよい。
 そして画像処理装置20aは、生成した抽象化画像を画像記憶装置30に格納する。
 画像記憶装置30は、画像処理装置20aが生成した抽象化画像を記憶する記憶装置である。画像記憶装置30に格納された抽象化画像は、格納から所定期間経過した場合に削除されるようになっている。
 認証端末40は、ゲート60の近傍に設置されたカメラ410を備える端末装置である。認証端末40は、カメラ410が撮影した通行者の撮影画像を認証装置10に送信し、認証装置10に対して顔認証を要求する。認証端末40は、認証装置10からの顔認証の結果に基づいてゲート60の開閉を制御する。
 尚、ゲート60と認証端末40とは、別個の装置として構成されてもよいし、一体的に構成されてもよい。またゲート60は開閉機構を有さなくてよい。例えばゲート60は、本体が2つに分離した構成ではなくポール型であってもよいし、単に通路であってもよい。この場合、認証端末40は、ゲート60の開閉を制御する代わりに通過許否を出力してよい。
 図4は、実施形態2にかかる認証端末40の構成を示すブロック図である。認証端末40は、カメラ410と、記憶部420と、通信部430と、表示部440と、制御部460とを備える。
 カメラ410は、制御部460の制御に応じて撮影を行う撮影装置である。記憶部420は、認証端末40の各機能を実現するためのプログラムが格納される記憶装置である。通信部430は、ネットワークNとの通信インタフェースである。表示部440は、表示装置である。制御部460は、認証端末40が有するハードウェアの制御を行う。
 例えば制御部460は、ゲートを基準とする所定範囲の領域を撮影するようにカメラ410を制御し、通信部430を介して撮影画像を認証装置10に送信する。また制御部460は、通信部430が認証装置10から顔認証の結果を受信したことに応じて、顔認証の結果に基づいてゲート60の開閉を制御する。
 図5は、実施形態2にかかる認証装置10の構成を示すブロック図である。認証装置10は、記憶部100と、メモリ110と、通信部120と、制御部140とを備える。
 記憶部100は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部100は、プログラム101及び顔情報DB102を記憶する。プログラム101は、認証装置10による処理が実装されたコンピュータプログラムである。
 顔情報DB102は、対象者を識別する対象者IDと当該対象者の顔情報とを対応付けて記憶する。顔情報は、顔画像から抽出された特徴点の集合である。
 メモリ110は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部140の動作時に一時的に情報を保持するための記憶領域である。通信部120は、ネットワークNとの通信インタフェースである。
 制御部140は、認証装置10の各構成を制御するプロセッサつまり制御装置である。制御部140は、記憶部100からプログラム101をメモリ110へ読み込ませ、プログラム101を実行する。これにより制御部140は、登録部141、検出部143、及び認証部144の機能を実現する。
 登録部141は、顔情報の登録に際して、対象者IDを新規に発行する。また登録部141は、顔情報を登録するための登録画像から顔領域を検出し、顔領域から特徴点を抽出し、抽出した特徴点の情報を顔情報として生成する。登録部141は、発行した対象者IDと、登録画像から抽出した登録用の顔情報とを対応付けて顔情報DB102へ登録する。
 検出部143は、認証端末40から受信した認証用の撮影画像から人物の顔領域を検出し、顔領域を認証部144に供給する。撮影画像に複数の人物が含まれている場合は、検出部143は、各人物について、顔領域を検出して顔領域を認証部144に供給する。
 認証部144は、検出部143が検出した顔領域から特徴点を抽出し、これを認証用の顔情報とする。そして認証部144は顔情報を用いた顔認証を行う。具体的には、認証部144は、認証用の撮影画像から抽出された顔情報と、顔情報DB102内の顔情報との照合を行う。これにより認証部144は、顔情報が一致した対象者IDを特定する。尚、顔情報が一致する(一致有)とは、一致度が所定値以上である場合をいうものとする。
 認証部144は、顔認証の結果を、通信部120を介して認証端末40に送信する。また認証部144は、認証用の撮影画像を、通信部120を介して画像処理装置20aに送信する。
 図6は、実施形態2にかかる顔情報登録処理の流れの一例を示すフローチャートである。まず、認証装置10の登録部141は、対象者の登録画像を取得する(S21)。例えば、認証装置10は、対象者の登録画像を含む顔登録要求を対象者が使用する端末から受信することで、登録画像を取得する。次に登録部141は、登録画像に含まれる顔領域を検出する(S22)。次に登録部141は、ステップS22で検出した顔領域から顔情報を抽出する(S23)。最後に登録部141は、対象者IDを発行し、当該対象者IDと顔情報とを対応付けて顔情報DB102に登録する(S24)。尚、登録部141は、登録画像に代えて顔情報を顔登録要求元から受信し、対象者IDと対応付けて顔情報DB102に登録してもよい。この場合S21~S23の処理は省略されてよい。
 図7は、実施形態2にかかる認証処理の流れの一例を示すフローチャートである。
 まず、検出部143は、撮影画像を認証端末40から受信したことに応じて(S31)、撮影画像から人物の顔領域を検出する(S32)。ここで複数の人物の顔領域を検出した場合、検出部143は複数の人物から認証対象者を決定する(S33)。
 図8は、実施形態2にかかる認証処理の具体例を説明するための図である。図8はゲート60近傍を撮影した撮影画像500を示している。撮影画像500にはゲート60を通過しようとする人物P1~P5が含まれている。検出部143は、S32において複数の人物P1~P5の顔領域を検出する。そしてS33において検出部143は、最もゲート60に近い人物P1を認証対象者として決定してよい。またS33において検出部143は、ゲート60を基準とした所定範囲内に位置する人物を認証対象者として決定してもよい。このように決定された認証対象者について、認証部144は顔認証を実施する。
 図7に戻り説明を続ける。認証部144はS34~S38に示す処理を実行する。まず認証部144は、認証対象者の顔領域から顔情報を抽出する(S34)。次に認証部144は、抽出した顔情報と、顔情報DB102の顔情報とを照合する(S35)。顔情報の一致度が所定値以上である場合(S36でYes)、認証部144は、顔認証が成功した旨を認証端末40に出力する(S37)。一方、顔情報の一致度が所定値未満である場合(S36でNo)、認証部144は、顔認証が失敗した旨を認証端末40に出力する(S38)。
 そして認証部144は、画像処理装置20aに撮影画像を出力する(S39)。
 図9は、実施形態2にかかる画像処理装置20aの構成を示すブロック図である。画像処理装置20aは、記憶部200と、メモリ210と、通信部220と、入力部230と、制御部240と、表示部250とを備える。
 記憶部200は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部200は、プログラム201、顔情報DB202、及び対象部位情報203を記憶する。プログラム201は、画像処理装置20aによる処理が実装されたコンピュータプログラムである。
 顔情報DB202は、顔情報DB102と同様に、対象者IDと当該対象者の顔情報とを対応付けて記憶する。
 対象部位情報203は、対象部位に関する情報を記憶する。例えば対象部位情報203は、対象部位の種別と、その対象部位の特徴情報とを対応付けて記憶する。例えば対象部位の種別が「かばん」である場合、特徴情報は対象者のかばんの画像領域を検出するための情報である。例えば特徴情報は、一般的なかばんの画像から抽出した特徴量の情報を含んでよい。あるいは例えば特徴情報は、顔領域を基準としたかばんの一般的な相対位置を含んでよい。尚、相対位置は、顔領域のサイズで正規化した値であってよい。
 メモリ210は、RAM等の揮発性記憶装置であり、制御部240の動作時に一時的に情報を保持するための記憶領域である。通信部220は、ネットワークNとの通信インタフェースである。入力部230は、画像処理装置20aのユーザからの入力を受け付ける入力装置である。
 制御部240は、画像処理装置20aの各構成を制御するプロセッサつまり制御装置である。制御部240は、記憶部200からプログラム201をメモリ210へ読み込ませ、プログラム201を実行する。これにより制御部240は、登録部241、設定部242、検出部243、認証部244、領域特定部245、及び抽象化部246の機能を実現する。
 登録部241は、登録手段とも称する。登録部141と同様の機能を有する。つまり登録部241は、対象者IDと登録用の顔情報とを対応付けて顔情報DB202へ登録する。登録部241は、登録画像から登録用の顔情報を抽出してもよいし、登録画像から抽出した顔情報を対象者IDとともに登録部141から受信してもよい。前者の場合、登録部241は図6に示す処理と同様の処理を実行する。
 設定部242は、実施形態1の設定部22の一例である。設定部242は、入力部230を介して、画像処理装置20aのユーザから対象部位の種別の指定を受け付ける。そして設定部242は、指定された部位を対象部位として設定する。
 検出部243は検出手段とも称する。検出部243は、認証装置10から受信した認証用の撮影画像から人物の顔領域を検出し、顔領域を認証部244に供給する。顔領域の検出方法は検出部143と同様である。検出部243が検出した顔領域は、第1領域とも称する。撮影画像に複数の人物が含まれている場合は、検出部243は、各人物について、顔領域を検出して顔領域を認証部244に供給する。
 認証部244は、検出部243が検出した顔領域から特徴点を抽出し、これを認証用の顔情報とする。そして認証部244は顔情報を用いた顔認証を行う。顔認証方法は認証部144と同様である。ここで顔認証に成功した者は、予め登録されている対象者のうちのいずれかの対象者である。
 認証部244は顔認証に成功した対象者の顔領域(第1領域)の情報を領域特定部245に供給する。
 領域特定部245は、実施形態1の領域特定部25の一例である。まず領域特定部245は、第2領域を検出する。具体的には領域特定部245は、認証部244により特定した対象者の顔領域の位置と、指定された対象部位の種別とに基づいて、対象部位の画像領域である第2領域を検出する。より具体的には領域特定部245は、対象者の顔領域の位置と、対象部位情報203において対象部位の種別に対応付けられた特徴情報を用いて、第2領域を検出する。
 そして領域特定部245は、認証部244が特定した第1領域と、自己が検出した第2領域とを、特定領域として特定する。
 抽象化部246は、実施形態1の抽象化部26の一例である。抽象化部246は、撮影画像のうち特定領域以外の画像領域に対して画素値の変換を行う。これにより抽象化部246は特定領域以外の画像領域に対して抽象化処理を実施する。
 表示部250は、表示装置である。例えば表示部250は、ユーザから対象部位の種別の指定を受け付けるための入力画面を表示する。
 図10は、実施形態2にかかる画像処理の流れの一例を示すフローチャートである。まず画像処理装置20aの設定部242は、ユーザから対象部位の種別の指定を受け付け(S60)、指定された部位を対象部位として設定する(S61)。
 このとき表示部250は図11に示す入力画面600を表示してよい。図11は、実施形態2にかかる表示部250の表示の一例を説明するための図である。例えば入力画面600は抽象化処理の対象外となる対象部位の選択を促すメッセージを含み、さらにユーザが複数の対象部位の種別から1の種別を選択するための選択領域を含んでいる。選択肢として挙げられる対象部位の種別は、一例として手、全身、かばん、及び帽子である。設定部242は、ユーザが1の種別を選択したことに応じて、対象部位の種別の指定を受け付ける。そして設定部242は、受け付けた指定通りに対象部位を設定する。
 図10に戻り説明を続ける。次に通信部220は、顔認証に用いた撮影画像を認証装置10から受信する(S62)。次に検出部243は、撮影画像から人物の顔領域を検出する(S63)。次に認証部244は、検出した人物ごとに顔認証を実施する(S64)。具体的には認証部244は、図7のS34~S36に示すように、顔領域から顔情報を抽出し、抽出した顔情報と、顔情報DB202の顔情報とを照合し、顔情報の一致度が所定値以上であるかを判定する。認証部244は、顔情報の一致度が所定値以上である場合は顔認証が成功したと判定し、顔認証が成功した人物を予め登録された対象者であると判定する。一方、認証部144は、顔情報の一致度が所定値未満である場合は顔認証が失敗したと判定する。
 領域特定部245は、検出した人物全ての顔認証の結果から、検出した人物に対象者が含まれていたか否かを判定する(S65)。検出した人物に対象者が含まれなかった場合(S65でNo)、画像処理装置20aは処理を終了する。
 一方、検出した人物に対象者が含まれていた場合(S65でYes)、領域特定部245は、対象部位の画像領域を第2領域として検出する(S66)。具体的には領域特定部245は、対象部位情報203において、指定された対象部位の種別に対応付けられた特徴情報を用いて、第2領域を検出する。
 尚、領域特定部245は、対象者であると判定された人物の顔領域を第1領域として特定している。そして領域特定部245は、対象者の顔領域である第1領域と対象部位の画像領域である第2領域とを特定領域として特定する(S67)。
 次に抽象化部246は、撮影画像に含まれる、特定領域以外の画像領域に対して抽象化処理を実施する(S68)。
 そして抽象化部246は、抽象化画像を画像記憶装置30に格納する(S69)。
 尚、上述の説明でS61において対象部位を設定するとしたが、対象部位の設定はS62からS66までの間のいずれかのタイミングであってもよい。この場合、対象部位の設定は、対象部位の種別の設定に代えて、対象部位の画像領域(つまり第2領域)の設定であってよい。後者の場合、S66に示す処理は省略されてよい。
 例えば画像処理装置20aの表示部250は撮影画像を表示し、設定部242は撮影画像に対しユーザが指定した部分を第2領域として設定してよい。第2領域の指定方法として、ユーザは、キーボードを用いて第2領域の座標を直接入力してもよいし、ポインティングデバイスを用いて第2領域を囲んでもよい。
 尚、設定部242は、撮影画像を認証装置10から受信する度に第2領域の指定を受け付けてもよいが、これに限らない。例えば設定部242は、運用開始前には1又は複数枚の撮影画像を用いてユーザから第2領域の指定を受け付けて、撮影画像から第2領域を検出する第2領域検出モデルを学習させてよい。そして設定部242は、運用開始後には学習済の第2領域検出モデルを用いて第2領域を検出してよい。これによりユーザの指定負担を軽減できる。
 図12は、実施形態2にかかる画像処理の具体例を説明するための図である。抽象化画像510には、検出部243により検出された複数の人物の顔領域が含まれている。認証部244は、予め登録されている対象者の顔情報との一致度が所定値以上の人物P1の顔領域を第1領域F1として特定する。そして領域特定部245は、対象部位情報203において、指定された対象部位の種別に対応付けられた特徴情報を用いて対象部位の画像領域を検出し、これを第2領域S1として特定する。
 例えば対象部位情報203に格納された特徴情報がかばんの特徴量の情報を含む場合、領域特定部245は、特徴量の一致度が所定閾値以上である画像領域を第2領域S1として検出してよい。
 あるいは特徴情報が顔領域を基準としたかばんの相対位置を含む場合、領域特定部245は、対象者の顔領域(第1領域F1)の位置及び大きさと当該相対位置とに基づいて第2領域S1を検出してよい。
 または特徴情報が身体の他の部位を基準とした相対位置を含む場合、領域特定部245は、当該相対位置と骨格情報とを用いて第2領域S1を特定してもよい。一例としてかばんは手の近傍に位置することが多い。したがって領域特定部245は、まず対象者の骨格情報を抽出し、骨格情報から対象者の手の位置を特定してよい。そして領域特定部245は、特定した手の位置から所定範囲内の画像領域を第2領域S1として検出してよい。
 領域特定部245は、上述したかばんの特徴量を用いた方法、顔領域を基準とした相対位置を用いた方法、及び身体の他の部位を基準とした相対位置を用いた方法のうち一部又は全部を組み合わせて、第2領域S1を検出してよい。
 そして抽象化部246は、第1領域F1と第2領域S1を除く画像領域に対して抽象化処理を実施する。例えば抽象化部246は、特定領域以外の画像領域について、低解像度化したり、複数の画素を同じ画素値に変換したり、特定の画素値に一律に変換したりすることにより抽象化する。複数の画素を同じ画素値に変換する場合、抽象化部246は、複数の画素の画素値を上記複数の画素の平均画素値に変換してもよいし、複数の画素中の任意の画素の画素値に変換してもよい。
 上述の説明では、対象部位は、顔を除く対象者の身体の部位、対象者が有する手荷物、及び対象者が装着する装飾品の少なくともいずれかであるとした。しかし対象部位は、ゲート60に設けられるICカードの読取部であってもよい。この場合、画像処理装置20aは、撮影画像中の予め定められた位置及びサイズをICカードの読取部の位置及びサイズとして対象部位情報203に保持していてよい。
 この場合の画像処理の具体例を、図13を用いて説明する。まず領域特定部245は、図12と同様に第1領域F1を特定する。また領域特定部245は、対象部位情報203において記憶されている読取部の特徴情報を読み出して、撮影画像中の読取部の相対位置及びサイズを把握する。そして領域特定部245は、当該相対位置及びサイズに基づいて、撮影画像から第2領域S1を検出する。
 尚、画像処理装置20aは、ICカードの読取部の画像から抽出された特徴量の情報を対象部位情報203に保持していてもよい。この場合、領域特定部245は、特徴量の一致度が所定値以上である画像領域を第2領域S1として検出してよい。
 そして抽象化部246は、第1領域F1と第2領域S1とを除く画像領域に対して抽象化処理を実施する。
 また対象部位はゲート60付近の所定の領域であってもよい。図14は、実施形態2にかかる画像処理の具体例を説明するための図である。この場合も領域特定部245は、対象部位が読取部である場合と同様の方法で、予め登録されている特徴情報を用いて第2領域S1を特定してよい。
 このように実施形態2によれば、対象者の顔領域と、画像処理装置20のユーザが指定した対象部位の画像領域とを隠さない領域として設定し、それ以外の画像領域に対して抽象化処理をする。したがって検証対象に応じて或いは運用に即して隠す領域又は隠さない領域を柔軟に設定できる。これにより画像処理装置20aは、認証装置10の認証方式を問わず汎用的に用いられることができる。
 尚、認証装置10は顔領域の検出結果や顔認証結果を画像処理装置20aに送信してよい。これにより画像処理装置20aは、顔領域の検出結果や顔認証結果を画像処理のために転用できるため、顔領域の検出処理及び顔認証処理(図10のS62~S63)を省略してよい。
 尚、本開示は上述の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 <第1変形例>
 例えば指定される対象部位は2種類以上あってもよい。一例としてユーザは、対象者の手荷物とICカードの読取部とを対象部位として指定してよい。この場合、領域特定部245は、指定された各対象部位の画像領域を第2領域として特定してよい。
 <第2変形例>
 実施形態2では領域特定部245は第1領域及び第2領域を一律で特定領域としたが、特定領域を撮影時刻で限定してよい。例えば領域特定部245は、対象者がゲート60を入場したと推定される時刻又は退場したと推定される時刻を基準として所定期間内の第1領域及び第2領域を、特定領域として特定してよい。このとき領域特定部245は、対象者のICカードの着券タイミングに基づいて入場時刻又は退場時刻を推定してよい。一例として領域特定部245は、ICカードの読取部が信号を検出した時刻から所定時間前(例えば5秒前)を入場時刻として推定してよい。また領域特定部245は、読取部が信号を検出した時刻から所定時間後(例えば2秒後)を退場時刻として推定してよい。そして領域特定部245は、入場時刻から退場時刻までに撮影された撮影画像の第1領域及び第2領域を特定領域として特定し、それ以外で撮影された撮影画像の第1領域及び第2領域を特定領域から除外してよい。これにより検証に不要な情報は隠されることになるため、認証結果の検証を好適にできる。特に顔認証がウォークスルー方式である場合、ゲート60の出入りの動作を好適に検証できる。
 <第3変形例>
 上述の実施形態では、認証装置10は顔認証により認証対象者の本人認証をしていた。しかし本人認証は、顔認証である第1認証と、顔認証以外の第2認証とを含む多要素認証であってよい。例えば第2認証は、対象者がゲート通過時に予め登録されたポーズをとっているかを判定する認証であってよい。または第2認証は、対象者がゲート通過時に予め登録された方向に視線を向けているかを判定する認証であってよい。または第2認証は、予め登録された手荷物を所持しているか、又は予め登録された装飾品を装着しているかを判定する認証であってよい。または第2認証はICカードを読み取ることによる認証であってよい。第2認証に用いられる部位が対象部位となる。
 この場合、認証装置10は、対象部位の種別と、その対象部位の特徴情報とを記憶する対象部位情報を記憶してよい。認証装置10は、顔認証である第1認証に加えて、対象部位情報を用いて対象部位の画像領域に対して第2認証を実施してよい。そして認証装置10は、第1認証が成功し第2認証が成功した場合、本人認証が成功した旨を認証端末40に送信する。一方認証装置10は、いずれかの認証が失敗した場合、本人認証が失敗した旨を認証端末40に送信する。
 本人認証の詳細は例えば以下の通りである。まず認証装置10の検出部143は、撮影画像から、顔領域に加えて、第2認証に用いる第2領域を検出する。次に認証装置10の認証部144は、検出部143が検出した第2領域から特徴量を抽出し、これを認証用の特徴情報とする。そして認証部144は、認証用の特徴情報と、対象部位情報103において対象者IDに紐づけられた特徴情報との照合を行う。認証部144は、顔情報に基づく第1認証の結果と、第2領域から抽出した認証用の特徴情報に基づく第2認証の結果とに基づいて、人物についての認証を行う。
 このように認証装置10が多要素認証を採用する場合、画像処理装置20aの設定部242は、認証装置10の認証方式に応じた部位を対象部位として設定してよい。例えば画像処理装置20aの設定部242は、認証装置10から認証方式を受信し、認証方式に応じた部位を、指定された対象部位として設定してよい。これによりユーザ入力を省略できる。また例えば画像処理装置20aの設定部242は、ユーザから第2認証の方式の指定を受け付け、受け付けた方式に応じた部位を、指定された対象部位として設定してよい。これにより認証装置10の認証方式に連動して、隠す領域又は隠さない領域を柔軟に設定できる。したがってユーザ入力が簡易になる。
 尚、ゲート60ごとに第2認証の有無や第2認証の認証方式等のモードが設定されていてもよい。例えば第1のゲートにおいては顔認証による1要素認証が設定され、第2のゲートにおいては顔認証及びICカード認証の2要素認証が設定されてよい。この場合、設定部242は、ゲート60ごとに設定されたモードに応じて、対象部位を設定するか否か、そしてどこを対象部位とするかを設定してよい。上述の例において、設定部242は、第1のゲートで撮影された撮影画像については、対象部位を設定しなくてよい。つまり抽象化部246は、第1のゲートで撮影された撮影画像に対して抽象化処理を実施しなくてよい。また設定部242は、第2のゲートで撮影された撮影画像については、読取部を対象部位として設定してよい。つまり抽象化部246は、第2のゲートで撮影された撮影画像の対象者の顔及び読取部を除いた画像領域に対して抽象化処理を実施してよい。
 <その他の変形例>
 上述の実施形態2では、画像処理装置20aは、認証装置10から撮影画像を受信していたが、認証端末40から撮影画像を受信してもよい。また画像処理装置20aは、認証装置10が顔認証に用いた撮影画像に対して画像処理を実施したが、認証装置10が顔認証に用いた撮影画像以外の撮影画像に対しても同様に画像処理を実施してもよい。
 また上述の実施形態2では、認証装置10と画像処理装置20aとを別個の装置であるとしたが、認証装置10及び画像処理装置20aが同一の装置で構成されていてもよい。
 本開示は、任意の処理を、プロセッサにコンピュータプログラムを実行させることにより実現することが可能である。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 対象者の顔以外の指定された部位を対象部位として設定する設定手段と、
 ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、
 前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、
 特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段と
 を備える
 画像処理装置。
   (付記2)
 前記対象部位は、顔を除く対象者の身体の部位、対象者が有する手荷物、及び対象者が装着する装飾品の少なくともいずれかを含む
 付記1に記載の画像処理装置。
   (付記3)
 前記領域特定手段は、特定した前記対象者の顔領域の位置と、前記対象部位の種別とに基づいて、前記第2領域を検出する
 付記2に記載の画像処理装置。
   (付記4)
 前記対象部位は、前記ゲートに設置された読取部を含む
 付記1又は2に記載の画像処理装置。
   (付記5)
 前記領域特定手段は、対象者がゲートを入場したと推定される時刻又は退場したと推定される時刻を基準として所定期間内の前記第1領域及び前記第2領域を、前記特定領域として特定する
 付記1から4のいずれか一項に記載の画像処理装置。
   (付記6)
 人物の顔領域に基づく顔認証を実施する認証装置と、
 画像処理装置と
 を備え、
 前記画像処理装置は、
 対象者の顔以外の指定された部位を対象部位として設定する設定手段と、
 ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、
 前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、
 特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段と
 を有する
 認証システム。
   (付記7)
 前記認証装置は、
 前記撮影画像から前記第2領域を検出し、
 前記顔認証の結果と、前記第2領域から抽出した特徴量に基づく第2認証の結果とにさらに基づいて、前記人物について認証を行う
 付記6に記載の認証システム。
   (付記8)
 前記設定手段は、前記第2認証の方式に応じた部位を前記対象部位として設定する
 付記7に記載の認証システム。
   (付記9)
 対象者の顔以外の指定された部位を対象部位として設定し、
 ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定し、
 前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定し、
 特定した前記特定領域を除く画像領域に抽象化処理を実施する
 画像処理方法。
   (付記10)
 対象者の顔以外の指定された部位を対象部位として設定する機能と、
 ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する機能と、
 前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する機能と、
 特定した前記特定領域を除く画像領域に抽象化処理を実施する機能と
 をコンピュータに実現させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
 1 認証システム
 10 認証装置
 20,20a 画像処理装置
 22 設定部
 23 検出部
 24 認証部
 25 領域特定部
 26 抽象化部
 30 画像記憶装置
 40 認証端末
 60 ゲート
 61 第1のゲート本体
 62 第2のゲート本体
 63 フラップ
 64 読取部
 100 記憶部
 101 プログラム
 102 顔情報DB
 110 メモリ
 120 通信部
 140 制御部
 141 登録部
 143 検出部
 144 認証部
 200 記憶部
 201 プログラム
 202 顔情報DB
 203 対象部位情報
 210 メモリ
 220 通信部
 230 入力部
 240 制御部
 241 登録部
 242 設定部
 243 検出部
 244 認証部
 245 領域特定部
 246 抽象化部
 250 表示部
 410 カメラ
 420 記憶部
 430 通信部
 440 表示部
 450 入力部
 460 制御部
 500 撮影画像
 510 抽象化画像
 600 入力画面

Claims (10)

  1.  対象者の顔以外の指定された部位を対象部位として設定する設定手段と、
     ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、
     前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、
     特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段と
     を備える画像処理装置。
  2.  前記対象部位は、顔を除く対象者の身体の部位、対象者が有する手荷物、及び対象者が装着する装飾品の少なくともいずれかを含む
     請求項1に記載の画像処理装置。
  3.  前記領域特定手段は、特定した前記対象者の顔領域の位置と、前記対象部位の種別とに基づいて、前記第2領域を検出する
     請求項2に記載の画像処理装置。
  4.  前記対象部位は、前記ゲートに設置された読取部を含む
     請求項1又は2に記載の画像処理装置。
  5.  前記領域特定手段は、対象者がゲートを入場したと推定される時刻又は退場したと推定される時刻を基準として所定期間内の前記第1領域及び前記第2領域を、前記特定領域として特定する
     請求項1又は2に記載の画像処理装置。
  6.  人物の顔領域に基づく顔認証を実施する認証装置と、
     画像処理装置と
     を備え、
     前記画像処理装置は、
     対象者の顔以外の指定された部位を対象部位として設定する設定手段と、
     ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する認証手段と、
     前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する領域特定手段と、
     特定した前記特定領域を除く画像領域に抽象化処理を実施する抽象化手段と
     を有する
     認証システム。
  7.  前記認証装置は、
     前記撮影画像から前記第2領域を検出し、
     前記顔認証の結果と、前記第2領域から抽出した特徴量に基づく第2認証の結果とにさらに基づいて、前記人物について認証を行う
     請求項6に記載の認証システム。
  8.  前記設定手段は、前記第2認証の方式に応じた部位を前記対象部位として設定する
     請求項7に記載の認証システム。
  9.  対象者の顔以外の指定された部位を対象部位として設定し、
     ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定し、
     前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定し、
     特定した前記特定領域を除く画像領域に抽象化処理を実施する
     画像処理方法。
  10.  対象者の顔以外の指定された部位を対象部位として設定する機能と、
     ゲートを基準とする所定範囲の領域を撮影した撮影画像に予め定められた対象者が含まれるか否かを判定する機能と、
     前記撮影画像に前記対象者が含まれる場合、前記対象者の顔領域である第1領域と、前記対象部位の画像領域である第2領域とを、抽象化処理の対象外となる特定領域として特定する機能と、
     特定した前記特定領域を除く画像領域に抽象化処理を実施する機能と
     をコンピュータに実現させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2022/021906 2022-05-30 2022-05-30 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体 WO2023233457A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021906 WO2023233457A1 (ja) 2022-05-30 2022-05-30 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021906 WO2023233457A1 (ja) 2022-05-30 2022-05-30 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023233457A1 true WO2023233457A1 (ja) 2023-12-07

Family

ID=89025918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021906 WO2023233457A1 (ja) 2022-05-30 2022-05-30 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023233457A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062560A (ja) * 2002-07-30 2004-02-26 Omron Corp 顔照合装置および顔照合方法
JP2009033738A (ja) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd 撮像装置、画像ファイルのデータ構造
JP2013196423A (ja) * 2012-03-21 2013-09-30 Glory Ltd 監視システム、監視装置及び監視方法
JP2015111321A (ja) * 2013-12-06 2015-06-18 東芝テック株式会社 顔認識ゲートシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062560A (ja) * 2002-07-30 2004-02-26 Omron Corp 顔照合装置および顔照合方法
JP2009033738A (ja) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd 撮像装置、画像ファイルのデータ構造
JP2013196423A (ja) * 2012-03-21 2013-09-30 Glory Ltd 監視システム、監視装置及び監視方法
JP2015111321A (ja) * 2013-12-06 2015-06-18 東芝テック株式会社 顔認識ゲートシステム

Similar Documents

Publication Publication Date Title
JP7133949B2 (ja) 顔認証方法及び装置
CN101379528B (zh) 面部认证装置、面部认证方法
JP6151582B2 (ja) 顔認証システム
US10282532B2 (en) Secure storage of fingerprint related elements
KR20180092775A (ko) 본인 인증 방법 및 그 장치
JP4899552B2 (ja) 認証装置、認証方法、認証プログラム、これを記録したコンピュータ読み取り可能な記録媒体
US8065528B2 (en) Authentication device, authentication method, authentication program and computer readable recording medium
JP2003233816A (ja) アクセスコントロールシステム
JP2006085289A (ja) 顔認証システムおよび顔認証方法
WO2023233457A1 (ja) 画像処理装置、認証システム、画像処理方法、及び非一時的なコンピュータ可読媒体
WO2022003766A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
WO2021256099A1 (ja) 顔認証方法
JP2003308524A (ja) アクセスコントロールシステム
JP2022032529A (ja) 顔認証サーバ、情報処理方法及び情報処理システム
JP7260145B2 (ja) 認証装置、認証用端末、認証方法、プログラム及び記録媒体
KR102539533B1 (ko) 타인의 신분증 불법 촬영을 방지하기 위한 인증 방법 및 장치
US20230222193A1 (en) Information processing device, permission determination method, and program
TWI729679B (zh) 認證系統、認證裝置、及認證方法
JP7458991B2 (ja) 認証装置、認証方法およびプログラム
JP7494899B2 (ja) 撮影制御装置、システム、方法及びプログラム
WO2022044274A1 (ja) 認証制御装置、認証システム、認証制御方法及び非一時的なコンピュータ可読媒体
WO2023242948A1 (ja) 認証装置、認証システム、認証方法、及び非一時的なコンピュータ可読媒体
WO2021199124A1 (ja) 検出装置
WO2022018792A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
JP2004173043A (ja) 認証装置および入退室管理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22944747

Country of ref document: EP

Kind code of ref document: A1