WO2023228732A1 - 検出システム、検出方法、及び非一時的なコンピュータ可読媒体 - Google Patents

検出システム、検出方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023228732A1
WO2023228732A1 PCT/JP2023/017486 JP2023017486W WO2023228732A1 WO 2023228732 A1 WO2023228732 A1 WO 2023228732A1 JP 2023017486 W JP2023017486 W JP 2023017486W WO 2023228732 A1 WO2023228732 A1 WO 2023228732A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
face
hand
target person
detection
Prior art date
Application number
PCT/JP2023/017486
Other languages
English (en)
French (fr)
Inventor
美涼 新粥
克也 中島
帆夏 鈴木
武夫 田村
正俊 杉澤
伸二 窪谷
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2023228732A1 publication Critical patent/WO2023228732A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Definitions

  • This disclosure relates to detection systems, detection methods, and non-transitory computer-readable media.
  • Patent Document 1 describes a personal identification input device that takes a face image and a fingerprint image using a camera and a fingerprint sensor, respectively.
  • This disclosure was made in order to solve such problems, and provides a detection system, a detection method, and a non-temporary computer-readable system that can acquire biometric information that can be authenticated while reducing the burden on the subject.
  • the purpose is to provide a medium.
  • a detection system includes a face detection section, a region setting section, a hand detection section, and an output section.
  • the face detection unit detects the face of the subject from an image of the subject.
  • the area setting unit sets a hand detection area around the area including the target person's face when the face detection unit detects the target person's face.
  • the hand detection unit detects a hand existing within the hand detection area from an image of the subject.
  • the output unit outputs information regarding the target person's face detected by the face detection unit and information regarding the target person's hand detected by the hand detection unit.
  • a computer executes the following processing.
  • the computer detects the face of the target person from the image taken of the target person.
  • the computer detects the target person's face, it sets a hand detection area around the area including the target person's face.
  • the computer detects a hand present within the hand detection area.
  • the computer outputs information regarding the detected face and information regarding the detected hand.
  • a non-transitory computer-readable medium is a non-transitory computer-readable medium that stores a program that causes a computer to perform the following processing.
  • the computer detects the face of the target person from the image taken of the target person.
  • the computer detects the target person's face, it sets a hand detection area around the area including the target person's face.
  • the computer detects a hand present within the hand detection area.
  • the computer outputs information regarding the detected face and information regarding the detected hand.
  • FIG. 1 is a block diagram showing the configuration of a detection system according to a first embodiment.
  • FIG. 3 is a flowchart showing processing of the detection system according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of a detection system according to a second embodiment.
  • FIG. 2 is a block diagram showing the configuration of a detection device according to a second embodiment.
  • 7 is a flowchart showing processing of the detection device according to the second embodiment.
  • FIG. 3 is a schematic diagram illustrating an image taken of a subject according to a second embodiment.
  • FIG. 3 is a schematic diagram illustrating an image taken of a subject according to a second embodiment.
  • FIG. 3 is a schematic diagram illustrating an image taken of a subject according to a second embodiment.
  • FIG. 3 is a schematic diagram illustrating an image taken of a subject according to a second embodiment.
  • FIG. 3 is a schematic diagram illustrating an image taken of a subject according to a second embodiment.
  • FIG. 3 is a block diagram showing the configuration of a detection device according to a third embodiment.
  • 7 is a flowchart showing the processing of the detection system according to the third embodiment.
  • 12 is a flowchart showing processing of the detection system according to the fourth embodiment.
  • 1 is a block diagram illustrating the hardware configuration of a computer.
  • FIG. 1 is a block diagram showing the configuration of a detection system according to a first embodiment.
  • the detection system 101 detects the face and hands of a target person from an image of the target person, and outputs information regarding the detected face and information regarding the detected hands.
  • the detection system 101 includes a face detection section 11 , a region setting section 12 , a hand detection section 13 , and an output section 14 .
  • the information regarding the face may be, for example, a portion of an image of the subject that corresponds to the detected face, that is, an image of the detected face. Further, the information regarding the face may be a feature amount extracted from the image.
  • the information regarding the hand may be, for example, a portion of the image of the subject that corresponds to the detected hand, that is, an image of the detected hand. Further, the information regarding the hand may be a feature amount extracted from the image.
  • the face detection unit 11 detects the face of the subject from an image of the subject.
  • the area setting unit 12 sets a hand detection area around the area including the target person's face. Note that when the hand detection area is set, the detection system 101 may guide the subject to take a posture in which the hand is reflected in the hand detection area.
  • the hand detection unit 13 detects a hand existing within a hand detection area from an image of the subject.
  • the output unit 14 outputs information regarding the face detected by the face detection unit 11 and information regarding the hand detected by the hand detection unit 13.
  • FIG. 2 is a flowchart showing the processing of the detection system according to the first embodiment.
  • FIG. 1 will be referred to as appropriate.
  • the face detection unit 11 detects the face of the subject from an image of the subject (step S101).
  • the face detection section 11 supplies information regarding the detected face of the target person to the area setting section 12 and the output section 14 .
  • the area setting unit 12 sets a hand detection area around the area including the subject's face. (Step S102).
  • the area setting unit 12 supplies information regarding the set hand detection area to the hand detection unit 13.
  • the hand detection unit 13 detects a hand existing within the hand detection area (step S103).
  • the hand detection unit 13 supplies information regarding the detected hand of the subject to the area setting unit 12 and the output unit 14.
  • the output unit 14 outputs the information regarding the face and the information regarding the hands, and the detection system 101 ends the series of processing.
  • the detection system 101 detects the face of the target person from an image of the target person, and detects the target person from the hand detection area set around the area including the target person's face. It is designed to detect the hands of other people.
  • the detection system 101 can suppress the subject from feeling bothered. In other words, the detection system 101 according to this embodiment can reduce the burden on the subject.
  • FIG. 3 is a block diagram showing the configuration of a detection system according to the second embodiment.
  • the detection system 102 is a system that performs biometric authentication of a person using a facility, such as an airport or a port.
  • the detection system 102 has a detection device 1, a photographing device 2, a display device 3, and an authentication device 4 as main components.
  • the detection device 1 and the authentication device 4 are communicably connected to each other via a network N1.
  • the network N1 may be a telephone line, a wide area network, or a local area network.
  • the detection device 1 is installed at an airport, for example, and acquires biometric information of a target person S, who is a passenger.
  • the detection device 1 that has acquired the biometric information of the subject S supplies the acquired biometric information to the authentication device 4.
  • the authentication device 4 authenticates the received biometric information.
  • the authentication device 4 that performed the authentication supplies information regarding the authentication result to the detection device 1.
  • the detection device 1 acquires an image of the subject S, and extracts information about the face of the subject S from the acquired image and information about the subject S's face as biometric information for authenticating the subject S. Detect information about hands.
  • the detection system 102 outputs an image of the face of the target person S as information regarding the face of the target person S. Furthermore, the detection system 102 according to the present embodiment outputs an image of the subject's S hand as information regarding the subject's S hand.
  • the information regarding the target person's face and the information regarding the hands output by the detection system according to this disclosure are not limited to the target person's face image and hand image, respectively.
  • the detection system according to this disclosure may output feature amounts of the target person's face as information regarding the target person's face.
  • the detection system according to this disclosure may output an image or a feature amount of the iris of the subject's eye.
  • the detection system according to this disclosure may output the feature amount of the target person's hand as information regarding the target person's hand.
  • the detection system according to this disclosure may output an image or a feature amount of the subject's fingerprint.
  • the detection system according to this disclosure may output an image or a feature amount of veins in the palm of the subject's hand. That is, the information regarding the target person's face and the information regarding the hands outputted by the detection system according to this disclosure may be information that can authenticate the target person.
  • the photographing device 2 photographs the subject S based on control from the photographing control unit 16.
  • the photographing device 2 then supplies the photographed image of the subject S to the photographing control unit 16.
  • the configuration of the photographing device 2 is not limited to this.
  • the photographing device 2 may be configured to photograph the subject S every time the detection device 1 completes a predetermined process.
  • the photographing device 2 according to the present embodiment is configured with one camera, the configuration of the photographing device 2 is not limited to this, and may be configured with two or more cameras, for example.
  • the photographing device 2 may be a camera that detects light in the visible light range to take a picture, or may be a camera that detects light in a non-visible light range to take a picture. For example, when the information regarding the hand of the subject S includes an image or feature amount of veins in the palm of the subject S, the photographing device 2 may detect light in the infrared region to photograph the subject S.
  • the display device 3 displays a guide image to the subject S.
  • the display device 3 may display an image that notifies the subject S that photography will be performed to obtain biometric information.
  • the display device 3 may display a reference posture image for prompting the subject S to take a predetermined posture when a hand detection area, which will be described later, is set.
  • the display device 3 may acquire an image showing the range of the hand detection area and an image of the subject S from the detection device 1.
  • the display device 3 may display the images in a superimposed manner. Then, the display device 3 may notify the subject S to take a posture in which the hand is reflected in the hand detection area.
  • FIG. 4 is a block diagram showing the configuration of the detection device 1 according to the second embodiment.
  • the detection device 1 mainly includes a face detection section 11, an area setting section 12, a hand detection section 13, an output section 14, an image quality determination section 15, and a photographing control section 16. These components included in the detection device 1 are communicably connected as appropriate in order for the detection device 1 to perform the functions described in this disclosure.
  • the photographing control unit 16 controls the photographing device 2. For example, the imaging control unit 16 may determine the timing at which the imaging device 2 starts imaging, or may determine the timing at which the imaging device 2 ends imaging.
  • the photographing control section 16 acquires an image photographed by the photographing device 2 and supplies the image to the face detection section 11 .
  • the imaging control unit 16 may cause the imaging device 2 to start imaging when a sensor (not shown) detects that the subject is within the imaging range of the imaging device 2. Further, the photographing control unit 16 may cause the photographing device 2 to end photographing when the detection device 1 outputs the image of the face and the hand image of the subject. With such a configuration, the detection device 1 can shorten the time the subject needs to pay attention to the photographing device 2, and reduce the burden on the subject.
  • the face detection unit 11 detects the face of the target person from an image of the target person. More specifically, the face detection unit 11 acquires an image of the subject from the photography control unit 16, and detects the face of the subject from the image.
  • detecting a face here refers to identifying a section that includes the target person's face from an image of the target person. Further, the face detection section 11 supplies the section as an image of the subject's face to the image quality determination section 15.
  • the face detection unit 11 detects the target person from the acquired image by, for example, dividing the acquired image into a plurality of sections and determining whether each section includes part or all of the target person's face. face may be detected. Further, the face detection unit 11 may include, for example, artificial intelligence (AI) that has learned images of human faces. Then, the face detection unit 11 may cause the artificial intelligence to read the acquired image and cause the artificial intelligence to detect the face of the subject. That is, the face detection unit 11 can use various methods that can detect the face of the target person.
  • AI artificial intelligence
  • the face detection unit 11 When the face detection unit 11 detects the face of the target person from the image of the target person, it supplies the area setting unit 12 with the image of the target person and information regarding the position of the face in the image. do. The face detection unit 11 then supplies the detected face image to the image quality determination unit 15.
  • the information regarding the position of the face in the image referred to here may be, for example, coordinate information of a section where the face is reflected in the image. Further, the information regarding the position of the face in the image may be, for example, image data obtained by superimposing the boundary line of the section in which the face is reflected on the image.
  • the face detection unit 11 may obtain a new photographed image of the target person from the photographing control unit 16. Then, images may continue to be acquired until the target person's face is detected. Further, the face detection unit 11 may continue to acquire images from the photographing control unit 16 and attempt to detect a face until the output unit 14 (described later) outputs information regarding the subject's face and information regarding the hands. .
  • the area setting unit 12 obtains an image of the subject and information regarding the position of the face in the image from the face detection unit 11. Then, based on the acquired information regarding the position of the face in the image, a hand detection area is set around the area including the target person's face.
  • the hand detection area here is an area set within an image of the subject, and the hand detection unit 13, which will be described later, detects the subject's hand within the hand detection area. That is, the area setting unit 12 limits the range in which the hand detection unit 13 detects the subject's hand to the periphery of the area including the subject's face. With such a configuration, the detection device 1 can suppress erroneously detecting the hand of a person other than the target person reflected in the acquired image as the target person's hand.
  • the area setting unit 12 may set, for example, an area existing within a range of a predetermined horizontal width and a predetermined vertical width centered on the position of the face as the hand detection area.
  • the detection system 102 may guide the subject to take a posture where the hand is reflected in the hand detection area.
  • the display device 3 may display the image of the subject and the hand detection area in a superimposed manner. Then, the detection system 102 may guide the subject to take a posture such that the hand is present within the hand detection area displayed by the display device 3.
  • the hand detection unit 13 detects a hand existing within the hand detection area from the image taken by the imaging device. More specifically, the hand detection unit 13 acquires an image of the subject and position information of the hand detection area from the area setting unit 12. Then, the subject's hand existing within the hand detection area of the image is detected.
  • detecting the hand refers to identifying a section containing the subject's hand from an image of the subject. Further, the hand detection unit 13 supplies the section as an image of the subject's hand to the image quality determination unit 15.
  • the hand detection unit 13 divides the acquired image into a plurality of sections and determines whether each section existing within the hand detection area includes part or all of the subject's hand. Then, the subject's hand may be detected from within the hand detection area of the acquired image. Further, the hand detection unit 13 may have, for example, artificial intelligence that has learned images of human hands. Then, the hand detection unit 13 may cause the artificial intelligence to read the acquired image and cause the artificial intelligence to detect the subject's hand. That is, the hand detection unit 13 can use various methods that can detect the subject's hand.
  • the hand detection unit 13 When the hand detection unit 13 detects the subject's hand within the hand detection area, the hand detection unit 13 supplies an image of the detected hand to the image quality determination unit 15. Note that if the face of the target person cannot be detected from the image of the target person, the face detection unit 11 may obtain a new image of the target person from the photography control unit 16. Then, images may continue to be acquired until the target person's face is detected. Further, the face detection unit 11 may continue to acquire images from the photographing control unit 16 and attempt to detect a face until the output unit 14 (described later) outputs information regarding the subject's face and information regarding the hands. .
  • the image quality determination unit 15 acquires an image of the subject's face from the face detection unit 11 and an image of the subject's hand from the hand detection unit 13. The image quality determination unit 15 determines whether the acquired image of the face of the subject and the image of the hand of the subject are photographed with an image quality that allows extraction of feature amounts of quality suitable for biometric authentication.
  • the image quality determination unit 15 may evaluate, for example, the degree of blurring of the acquired image or the CNR (Contrast to Noise Ratio). Then, the image quality determination unit 15 determines whether the acquired image has been photographed with an image quality that allows extracting feature quantities of quality suitable for biometric authentication, based on the degree of blurring of the acquired image or when the CNR is smaller than a predetermined threshold. It may be determined that there is. Note that the image quality determination unit 15 may determine the image quality of the acquired image using the degree of blurring of the acquired image or evaluation criteria other than CNR.
  • the image quality determination unit 15 also determines whether the image of the target person's face and the image of the target person's hands detected from one image have been photographed with an image quality that allows extracting feature quantities of quality suitable for biometric authentication. It may also be determined whether or not there is one. That is, the image quality determination section 15 may detect the image of the subject's face obtained from the face detection section 11 and the image of the subject's hand obtained from the hand detection section 13 from the same image.
  • the detection system 102 can indicate that the acquired face image and hand image are related. That is, the detection system 102 can easily ensure that the detected face image and hand image are of the same person.
  • the image quality determination unit 15 determines that the detected face image and hand image of the subject are not photographed with an image quality that allows extraction of feature quantities of quality suitable for biometric authentication, the image quality determination unit 15 determines that The photographing control unit 16 may also be notified.
  • the photographing control section 16 may process the image of the subject and then supply the image to the face detecting section 11 and the hand detecting section 13 .
  • the image processing here may be, for example, processing for adjusting the hue of the image. Further, the image processing may be a process of applying a signal obtained by converting the image to a low-pass filter.
  • the output unit 14 outputs information regarding the face detected by the face detection unit 11 and information regarding the hand detected by the hand detection unit 13. More specifically, the output unit 14 determines that the image quality determination unit 15 determines that the face image and hand image of the subject have been photographed with an image quality that allows extraction of feature quantities suitable for biometric authentication. In this case, the image of the face is output to the authentication device 4 as information regarding the target person's face. Then, the output unit 14 outputs the image of the hand to the authentication device 4 as information regarding the subject's hand.
  • the output unit 14 When the output unit 14 outputs the information regarding the face detected by the face detection unit 11 and the information regarding the hand detected by the hand detection unit 13, the output unit 14 notifies the imaging control unit 16 that the information has been output. You may notify. Further, in this case, the output unit 14 may notify the face detection unit 11, the area setting unit 12, and the hand detection unit 13 that this information has been output.
  • FIG. 5 is a flowchart showing the processing of the detection system according to the second embodiment. More specifically, FIG. 5 is a flowchart showing the processing of the detection device 1 according to the second embodiment. In addition, in the following description, FIG. 4 will be referred to as appropriate.
  • the face detection unit 11 acquires an image of a subject (step S201). More specifically, the face detection section 11 acquires the image of the subject photographed by the photographing device 2 from the photographing control section 16 .
  • FIG. 6 is a schematic diagram showing an example of an image acquired by the face detection unit 11.
  • the face detection unit 11 acquires an image P in which the subject S is shown as shown in FIG. Note that the face detected by the detection device 1 according to this embodiment is the face F of the subject S shown in FIG. 6, and the hand detected by the detection device 1 according to this embodiment is the face F of the subject S shown in FIG. The hand is H.
  • the face detection unit 11 detects the target person's face (step S202).
  • the face detection unit 11 may identify a section FA including the face of the subject S, and supply it as an image of the face of the subject S, as shown in FIG. 7, for example.
  • step S202 if the face detection unit 11 has not been able to detect the target person's face, the detection device 1 executes step S201 again. That is, the face detection unit 11 repeatedly executes step S201 and step S202 until the face of the target person is detected.
  • step S202 when the face detection unit 11 detects the target person's face (step S203 YES), the detection device 1 proceeds to step S203.
  • the area setting unit 12 sets a hand detection area (step S203). More specifically, the area setting unit 12 sets a hand detection area around the area including the subject's face.
  • the periphery of the area including the subject's face may be used to mean the periphery of the section FA including the subject's face in the image of the subject.
  • the area setting unit 12 may set the hand detection area DA so as to be adjacent to the section FA including the face of the subject S, as shown in FIG.
  • the hand detection unit 13 detects a hand existing within the hand detection area (step S204).
  • the hand detection unit 13 may identify the section HA including the hand of the subject S, and supply it as an image of the hand of the subject S, for example, as shown in the figure.
  • step S204 if the hand detection unit 13 has not detected the subject's hand (step S204 NO), the detection device 1 executes step S201 again. That is, the detection device 1 repeatedly executes steps S201 to S204 until it detects the subject's hand. In step S204, when the hand detection unit 13 detects the subject's hand (step S204 YES), the detection device 1 proceeds to step S205.
  • the image quality determination unit 15 determines whether each of the detected face image and hand image has an image quality suitable for biometric authentication (step S205).
  • step S205 if the detected face image and hand image do not have image quality suitable for biometric authentication (step S205: NO), the detection device 1 executes step S201 again. That is, the detection device 1 repeatedly executes steps S201 to S205 until the detected face image and hand image have image quality suitable for biometric authentication.
  • step S205 if the detected face image and hand image have image quality suitable for biometric authentication (step S205 YES), the detection device 1 proceeds to step S206.
  • the output unit 14 outputs the detected face image and hand image (step S206), and the detection device 1 ends the series of processing. Note that the output unit 14 may notify the imaging control unit 16 that step S208 has been executed at the timing when step S208 has been executed.
  • the detection system 102 detects the face and hands of the subject from an image of the subject.
  • the detection system 102 according to this disclosure is executable if at least the photographing device 2 can photograph a person to be photographed. According to such a configuration, the subject does not need to focus on two or more devices: the photographing device that photographs the face image and the photographing device that photographs the hand image. Therefore, the detection system 101 can reduce the burden on the subject.
  • the detection system 102 sets a hand detection area around the area including the target person's face.
  • the detection system 102 is configured to detect a hand existing within the hand detection area. According to such a configuration, it is possible to suppress erroneously detecting the hand of a person other than the target person reflected in the image as the target person's hand.
  • the detection system 102 outputs an image of the target person's face and an image of the target person's hands as information regarding the target person's face and information regarding the hands.
  • the detection system 103 outputs the feature amount of the target person's face and the feature amount of the target person's hand as information regarding the target person's face and information regarding the hand.
  • the detection system 103 according to the third embodiment includes a detection device 1, a photographing device 2, a display device 3, and an authentication device 4. That is, the detection system 103 according to the third embodiment has a configuration similar to that shown in FIG. 3.
  • FIG. 10 is a block diagram showing the configuration of the detection device 1 according to the third embodiment.
  • the detection system 103 according to the third embodiment differs from the detection system 102 according to the second embodiment in that it includes a feature amount extraction section 17 and a feature amount determination section 18 instead of the image quality determination section 15.
  • the feature amount extraction unit 17 extracts the respective feature amounts from the target person's face image and hand image. More specifically, the feature extraction unit 17 acquires an image of the target person's face from the face detection unit 11 and acquires an image of the target person's hand from the hand detection unit 13. Then, the feature amount extraction unit 17 extracts the feature amounts of each of the subject's face and hands from the acquired image. The feature amount extraction unit 17 supplies the extracted feature amount to the feature amount determination unit 18.
  • the feature amount here refers to data obtained by converting image data using various methods, and refers to data that allows the subject to be authenticated by comparing the data.
  • the feature amount may be expressed as a numerical value or in a format other than numerical values.
  • the feature amount may be data in a format that allows the subject to be authenticated.
  • the feature amount extraction unit 17 may extract feature amounts of each of the target person's face and hand from an image of the target person's face and an image of the target person's hand detected from one image. .
  • the detection system 103 can indicate that the acquired facial feature amount and hand feature amount are related. That is, the detection system 103 can easily ensure that the detected facial feature amount and hand feature amount are those of the same person.
  • the feature amount determination unit 18 determines whether the feature amount extracted by the feature amount extraction unit 17 has a quality suitable for biometric authentication.
  • the feature amount determining unit 18 may, for example, evaluate the standard deviation of the extracted feature amounts. In other words, the feature quantity determination unit 18 may acquire a plurality of feature quantities and calculate their standard deviations. Then, when the standard deviation is less than or equal to a predetermined threshold value, it may be determined that the extracted feature amount has a quality suitable for biometric authentication. However, the feature amount determining unit 18 may evaluate the quality of the feature amount using an evaluation criterion other than the standard deviation.
  • the feature amount determination unit 18 determines that the feature amount extracted by the feature amount extraction unit 17 has a quality suitable for biometric authentication, the feature amount determination unit 18 outputs the feature amount to the output unit 14.
  • the output unit 14 that has acquired the feature amount outputs the feature amount as information regarding the subject's face and information regarding the hand.
  • the feature value determination unit 18 determines that the feature value extracted by the feature value extraction unit 17 is not of a quality suitable for biometric authentication
  • the feature value determination unit 18 informs the face detection unit 11, the area setting unit 12, and the hand detection unit to that effect. 13 may be notified.
  • the face detection unit 11, the area setting unit 12, and the hand detection unit 13 may obtain a new image and perform the process of detecting the subject's face and hand again.
  • FIG. 11 is a flowchart showing the processing of the detection system according to the third embodiment.
  • FIG. 10 will be referred to as appropriate.
  • steps S301 to S304 described in FIG. 11 are the same processes as steps S201 to S204 described in the second embodiment, so the explanation will be omitted. That is, hereinafter, the portion corresponding to FIG. 12, that is, the subsequent processing of the detection device 1 according to the third embodiment when the determination in step S304 shown in FIG. 11 is YES will be described.
  • the feature amount extraction unit 17 detects a feature amount from the detected face image and hand image (step S305). Then, the feature amount determination unit 18 determines whether the extracted feature amount has a quality suitable for biometric authentication (step S306).
  • step S306 NO If the extracted feature amount does not have a quality suitable for biometric authentication (step S306 NO), the detection device 1 executes step S301 shown in FIG. 11 again. That is, the detection device 1 repeatedly executes steps S301 to S306 until the extracted feature amount has a quality suitable for biometric authentication.
  • step S306 If the extracted feature amount is of a quality suitable for biometric authentication (step S306 YES), the output unit 14 outputs the extracted feature amount (step S307), and the detection device 1 ends the series of processing. Note that the output unit 14 may notify the imaging control unit 16 that step S307 has been executed at the timing when step S307 has been executed.
  • the detection system 103 extracts the respective feature amounts of the target person's face and hands from the image of the target person. Then, the detection system 103 according to the present embodiment extracts the feature quantities of each of the subject's face and hands, and continues photographing the subject until outputting feature quantities of quality suitable for biometric authentication. ing.
  • the detection system according to the present embodiment can contribute to improving the biometric information authentication system. Therefore, the detection system according to the present embodiment can provide a detection system, a detection method, and a detection program that acquire biometric information that can be authenticated with high accuracy while reducing the burden on the subject.
  • FIG. 13 is a block diagram showing the configuration of a detection system according to the fourth embodiment.
  • a detection system 104 according to the fourth embodiment differs from the above-described embodiments in that it includes a light irradiation section 5.
  • the detection device 1 according to this embodiment may have the same configuration as the second embodiment.
  • the detection device 1 according to this embodiment may have the same configuration as the third embodiment.
  • the light irradiation unit 5 irradiates at least the hand detection area with light containing a predetermined pattern image.
  • the light irradiation unit 5 may irradiate light only to the hand detection area.
  • the light irradiation unit 5 may irradiate the subject's whole body with light.
  • the pattern image refers to an image in which many predetermined patterns are displayed. When light containing such an image is irradiated, it becomes difficult to photograph the irradiated area.
  • the light irradiation unit 5 blinks the irradiated light at a predetermined timing.
  • the light irradiation unit 5 switches between a state in which it irradiates light and a state in which it does not irradiate light at a predetermined timing.
  • the predetermined timing is shared with the photographing device 2 or the photographing control unit 16.
  • the imaging device 2 photographs the subject at a time when the light irradiation unit 5 is not irradiating light. Therefore, the photographing device 2 is not hindered from photographing by the light emitted by the light irradiation section 5.
  • the light irradiation unit 5 can communicate with imaging devices other than the imaging device 2 without suppressing the imaging of the subject by the imaging device 2. It is possible to suppress the shooting caused by As a result, the light irradiation unit 5 can, for example, suppress secret photography by a malicious third party.
  • the light irradiation unit 5 may acquire information regarding the hand detection area from the detection device 1, for example. Then, the range to be irradiated with light may be determined based on the acquired information regarding the hand detection area. However, the information regarding the hand detection area here may be information regarding the position of the hand detection area.
  • the information regarding the hand detection area may be coordinate information of the hand detection area.
  • the light irradiation unit 5 irradiates the area corresponding to the acquired coordinate information with light.
  • the detection system 104 can prevent a malicious third party from secretly photographing an image showing the subject's face and hands at the same time. Therefore, the detection system 104 according to the present embodiment can provide a detection system, a detection method, and a detection program that acquire authenticable biometric information while reducing the burden on the subject under highly safe conditions. can.
  • FIG. 14 is a block diagram illustrating the hardware configuration of the computer.
  • the management device in this disclosure can realize the above-described functions using a computer 200 including the hardware configuration shown in the figure.
  • the computer 200 may be a portable computer such as a smartphone or a tablet terminal, or may be a stationary computer such as a PC.
  • the computer 200 may be a dedicated computer designed to implement each device, or may be a general-purpose computer.
  • the computer 200 can realize desired functions by installing a predetermined program.
  • the computer 200 has a bus 202, a processor 204, a memory 206, a storage device 208, an input/output interface 210 (the interface is also referred to as an I/F), and a network interface 212.
  • Bus 202 is a data transmission path through which processor 204, memory 206, storage device 208, input/output interface 210, and network interface 212 exchange data with each other.
  • the method for connecting the processors 204 and the like to each other is not limited to bus connection.
  • the processor 204 is a variety of processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array).
  • the memory 206 is a main storage device implemented using RAM (Random Access Memory) or the like.
  • the storage device 208 is an auxiliary storage device realized using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the storage device 208 stores programs for implementing desired functions.
  • the processor 204 reads this program into the memory 206 and executes it, thereby realizing each functional component of each device.
  • the input/output interface 210 is an interface for connecting the computer 200 and an input/output device.
  • an input device such as a keyboard and an output device such as a display device are connected to the input/output interface 210.
  • the network interface 212 is an interface for connecting the computer 200 to a network.
  • the program includes a group of instructions (or software code) for causing the computer to perform one or more of the functions described in the embodiments when the program is loaded into the computer.
  • the program may be stored on a non-transitory computer readable medium or a tangible storage medium.
  • a computer readable medium or tangible storage medium may include RAM, ROM, flash memory, SSD or other memory technology, CD-ROM, DVD (digital versatile disc), Blu-ray disc. or any other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or a communication medium.
  • transitory computer-readable or communication media includes electrical, optical, acoustic, or other forms of propagating signals.
  • a face detection unit that detects the face of the target person from an image of the target person; an area setting unit that sets a hand detection area around an area including the target person's face when the face detection unit detects the target person's face; a hand detection unit that detects a hand existing within the hand detection area from an image taken of the subject; an output unit that outputs information regarding the target person's face detected by the face detection unit and information regarding the target person's hand detected by the hand detection unit; detection system.
  • the output unit outputs an image of the target person's face as information regarding the target person's face, and outputs an image of the target person's hand as information regarding the target person's hands.
  • Detection system according to Appendix 1. (Additional note 3) further comprising an image quality determination unit that determines whether the image of the face of the target person and the image of the hand of the target person are photographed with an image quality that allows extraction of feature quantities suitable for biometric authentication; When the image quality determination unit determines that the image of the face of the target person and the image of the hand of the target person are photographed with an image quality that allows extraction of feature quantities of quality suitable for biometric authentication, The output unit outputs the image of the face as information regarding the face of the target person, and outputs the image of the hand as information regarding the hand of the target person.
  • the image quality determination unit determines that the image of the target person's face and the image of the target person's hand detected from one image are photographed with an image quality that allows extraction of feature quantities of quality suitable for biometric authentication. determine whether there is Detection system described in Appendix 3. (Appendix 5) further comprising a feature amount extraction unit that extracts feature amounts from the target person's face image and hand image, respectively, The output unit outputs a feature amount extracted from an image of the target person's face as information regarding the target person's face, and outputs a feature amount extracted from the image of the target person's hand as information regarding the target person's hand.
  • Detection system according to any one of Supplementary Notes 1 to 4.
  • Appendix 6 further comprising a feature determining unit that determines whether the feature extracted by the feature extracting unit has a quality suitable for biometric authentication; When the feature amount determining unit determines that the feature amount is of a quality suitable for biometric authentication, the output unit outputs the feature amount as information regarding the face or hands of the subject.
  • Detection system according to Appendix 5.
  • Appendix 7) further comprising a light irradiation unit that irradiates at least the hand detection area with light including a predetermined pattern image; Detection system according to any one of Supplementary Notes 1 to 6.
  • Appendix 8 further comprising a display unit that displays a reference posture image for prompting the subject to take a predetermined posture when the hand detection area is set; Detection system according to any one of Supplementary Notes 1 to 7.
  • the computer is Detecting the face of the target person from an image taken of the target person, If the target person's face is detected, setting a hand detection area around the area including the target person's face, detecting a hand existing within the hand detection area; outputting information about the detected face and information about the detected hand; Detection method.
  • the output unit outputs an image of the target person's face as information regarding the target person's face, and outputs an image of the target person's hand as information regarding the target person's hands.
  • Detection method described in Appendix 9. (Appendix 11) further comprising an image quality determination unit that determines whether the image of the face of the target person and the image of the hand of the target person are photographed with an image quality that allows extraction of feature quantities suitable for biometric authentication; When the image quality determination unit determines that the image of the face of the target person and the image of the hand of the target person are photographed with an image quality that allows extraction of feature quantities of quality suitable for biometric authentication, The output unit outputs the image of the face as information regarding the face of the target person, and outputs the image of the hand as information regarding the hand of the target person.
  • Detection method according to appendix 10.
  • the image quality determination unit determines that the image of the target person's face and the image of the target person's hand detected from one image are photographed with an image quality that allows extraction of feature quantities of quality suitable for biometric authentication. determine whether there is Detection method according to appendix 11.
  • Appendix 13 further comprising a feature amount extraction unit that extracts feature amounts from the target person's face image and hand image, respectively, The output unit outputs a feature amount extracted from an image of the target person's face as information regarding the target person's face, and outputs a feature amount extracted from the image of the target person's hand as information regarding the target person's hand.
  • Appendix 16 further comprising a display unit that displays a reference posture image for prompting the subject to take a predetermined posture when the hand detection area is set; Detection method according to any one of Supplementary Notes 9 to 15.
  • Appendix 17 Detecting the face of the target person from an image taken of the target person, If the target person's face is detected, setting a hand detection area around the area including the target person's face, detecting a hand existing within the hand detection area; A program is stored that causes a computer to execute a method for outputting information regarding a detected face and information regarding a detected hand.
  • Non-transitory computer-readable medium Non-transitory computer-readable medium.
  • Detection device 2 Photography device 3
  • Display device 4 Authentication device 5
  • Light irradiation unit 11 Face detection unit 12
  • Area setting unit 13 Hand detection unit 14
  • Output unit 15 Image quality determination unit 16
  • Photography control unit 17 Feature extraction unit 18
  • Feature determination unit 101 ⁇ 104 Detection system 200
  • Input/output interface 212 Network interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

この開示の一態様にかかる検出システム(101)は、顔検出部(11)、領域設定部(12)、手検出部(13)、及び出力部(14)を有する。顔検出部(11)は、対象者を撮影した画像から対象者の顔を検出する。領域設定部(12)は、顔検出部(11)が対象者の顔を検出した場合、対象者の顔を含む領域の周辺に手検出領域を設定する。手検出部(13)は、対象者を撮影した画像から手検出領域内に存在する手を検出する。出力部(14)は、顔検出部(11)が検出した対象者の顔に関する情報と、手検出部(13)が検出した対象者の手に関する情報と、を出力する。

Description

検出システム、検出方法、及び非一時的なコンピュータ可読媒体
 この開示は、検出システム、検出方法、及び非一時的なコンピュータ可読媒体に関する。
 出入国審査等において、利用者の生体情報を取得するための種々の技術が開示されている。例えば、特許文献1には、顔画像及び指紋画像をそれぞれカメラ、指紋センサで撮影する個人識別入力装置が記載されている。
特開2004-062846号公報
 特許文献1に記載の個人識別装置においては、識別対象者、即ち顔画像及び指紋画像を撮影される対象者が、顔画像を撮影するカメラと、指紋画像を撮影する指紋センサとの両方に意識を向ける必要がある。そのため、対象者が煩わしさを感じるという課題があった。
 この開示は、このような課題を解決するためになされたものであり、対象者の負担を軽減しつつ認証可能な生体情報の取得が可能な検出システム、検出方法、及び非一時的なコンピュータ可読媒体を提供することを目的としている。
 この開示の一態様にかかる検出システムは、顔検出部、領域設定部、手検出部、及び出力部を有する。顔検出部は、対象者を撮影した画像から対象者の顔を検出する。領域設定部は、顔検出部が対象者の顔を検出した場合、対象者の顔を含む領域の周辺に手検出領域を設定する。手検出部は、対象者を撮影した画像から手検出領域内に存在する手を検出する。出力部は、顔検出部が検出した対象者の顔に関する情報と、手検出部が検出した対象者の手に関する情報と、を出力する。
 この開示の一態様にかかる検出方法は、コンピュータが、以下の処理を実行する。コンピュータは、対象者を撮影した画像から対象者の顔を検出する。コンピュータは、対象者の顔を検出した場合、対象者の顔を含む領域の周辺に手検出領域を設定する。コンピュータは、手検出領域内に存在する手を検出する。コンピュータは、検出した顔に関する情報と、検出した手に関する情報とを出力する。
 この開示の一態様にかかる非一時的なコンピュータ可読媒体は、コンピュータに以下の処理を実行させるプログラムが格納された非一時的なコンピュータ可読媒体である。コンピュータは、対象者を撮影した画像から対象者の顔を検出する。コンピュータは、対象者の顔を検出した場合、対象者の顔を含む領域の周辺に手検出領域を設定する。コンピュータは、手検出領域内に存在する手を検出する。コンピュータは、検出した顔に関する情報と、検出した手に関する情報とを出力する。
実施形態1にかかる検出システムの構成を示すブロック図である。 実施形態1にかかる検出システムの処理を示すフローチャートである。 実施形態2にかかる検出システムの構成を示すブロック図である。 実施形態2にかかる検出装置の構成を示すブロック図である。 実施形態2にかかる検出装置の処理を示すフローチャートである。 実施形態2にかかる対象者を撮影した画像を例示する模式図である。 実施形態2にかかる対象者を撮影した画像を例示する模式図である。 実施形態2にかかる対象者を撮影した画像を例示する模式図である。 実施形態2にかかる対象者を撮影した画像を例示する模式図である。 実施形態3にかかる検出装置の構成を示すブロック図である。 実施形態3にかかる検出システムの処理を示すフローチャートである。 実施形態4にかかる検出システムの処理を示すフローチャートである。 コンピュータのハードウェア構成を例示するブロック図である。
<実施形態1>
(検出システムの構成)
 以下、図面を参照して、第1の実施形態にかかる検出システムについて詳細に説明する。図1は、実施形態1にかかる検出システムの構成を示すブロック図である。
 本実施形態にかかる検出システム101は、対象者を撮影した画像から、対象者の顔及び手を検出し、検出した顔に関する情報と、検出した手に関する情報と、を出力する。
 検出システム101は、顔検出部11と、領域設定部12と、手検出部13と、出力部14と、を有する。
 なお、顔に関する情報は、例えば、対象者を撮影した画像のうち検出した顔に該当する部分、即ち検出した顔の画像であってもよい。また、顔に関する情報は、当該画像から抽出した特徴量であってもよい。
 また、手に関する情報は、例えば、対象者を撮影した画像のうち検出した手に該当する部分、即ち検出した手の画像であってもよい。また、手に関する情報は、当該画像から抽出した特徴量であってもよい。
 顔検出部11は、対象者を撮影した画像から、対象者の顔を検出する。
 領域設定部12は、顔検出部が対象者の顔を検出した場合、対象者の顔を含む領域の周辺に手検出領域を設定する。
 なお、検出システム101は手検出領域が設定された場合、手検出領域内に手が映り込む姿勢を取るように、対象者を誘導してもよい。
 手検出部13は、対象者を撮影した画像から、手検出領域内に存在する手を検出する。
 出力部14は、顔検出部11が検出した顔に関する情報と、手検出部13が検出した手に関する情報と、を出力する。
(検出システムの処理)
 次に、図面を参照して、実施形態1にかかる検出システムの処理、即ち方法について詳細に説明する。図2は、実施形態1にかかる検出システムの処理を示すフローチャートである。なお、以降の説明においては、適宜図1を参照する。
 まず始めに、顔検出部11が、対象者を撮影した画像から対象者の顔を検出する(ステップS101)。顔検出部11は、検出した対象者の顔に関する情報を、領域設定部12及び出力部14に対して供給する。
 次に、領域設定部12が、対象者の顔を含む領域の周辺に手検出領域を設定する。(ステップS102)。領域設定部12は、設定した手検出領域に関する情報を手検出部13に対して供給する。
 次に、手検出部13が、手検出領域内に存在する手を検出する(ステップS103)。手検出部13は、検出した対象者の手に関する情報を、領域設定部12及び出力部14に対して供給する。
 最後に、出力部14が、顔に関する情報と、手に関する情報とを出力し、検出システム101は、一連の処理を終了する。
 以上、説明したように本実施形態にかかる検出システム101は、対象者を撮影した画像から、対象者の顔を検出し、対象者の顔を含む領域の周辺に設定される手検出領域から対象者の手を検出するようにしている。
 このような構成によると、対象者が複数の撮影装置に対して意識を向ける必要が無くなる。そのため、検出システム101は、対象者が煩わしさを感じることを抑制できる。つまり、本実施形態にかかる検出システム101は、対象者の負担を軽減できる。
<実施形態2>
(検出システムの構成)
 以下、図面を参照して、実施形態2にかかる検出システムについて詳細に説明する。まず始めに、実施形態2にかかる検出システムの構成について説明する。図3は、実施形態2にかかる検出システムの構成を示すブロック図である。
 検出システム102は、例えば空港や港など、施設を利用する対象者の生体認証を行うシステムである。検出システム102は主な構成として、検出装置1と、撮影装置2と、表示装置3と、認証装置4とを有している。検出装置1と、認証装置4とは、ネットワークN1を介して互いに通信可能に接続している。なお、ネットワークN1は、電話回線、ワイドエリアネットワークまたはローカルエリアネットワークであってもよい。
 検出装置1は例えば空港に設置され、旅客である対象者Sの生体情報を取得する。対象者Sの生体情報を取得した検出装置1は、取得した生体情報を認証装置4に供給する。認証装置4は、検出装置1から生体情報を受け取ると、受け取った生体情報の認証を行う。認証を行った認証装置4は、認証の結果に関する情報を検出装置1に供給する。認証装置4から認証の結果に関する情報を受け取った検出装置1は、この情報に応じて、対象者Sの通行許可等の処理を実行する。
 より詳細には、検出装置1は、対象者Sを撮影した画像を取得し、対象者Sを認証するための生体情報として、取得した画像から対象者Sの顔に関する情報と、対象者Sの手に関する情報とを検出する。ここで、本実施形態にかかる検出システム102は、対象者Sの顔に関する情報として、対象者Sの顔の画像を出力する。また、本実施形態にかかる検出システム102は、対象者Sの手に関する情報として、対象者Sの手の画像を出力する。
 ただし、この開示にかかる検出システムが出力する対象者の顔に関する情報及び手に関する情報は、それぞれ対象者の顔の画像及び手の画像に限定されない。例えば、この開示にかかる検出システムは、対象者の顔に関する情報として、当該対象者の顔の特徴量を出力してもよい。また、この開示にかかる検出システムは、対象者の目の虹彩の画像又は特徴量を出力してもよい。また、この開示にかかる検出システムは、対象者の手に関する情報として、当該対象者の手の特徴量を出力してもよい。また、この開示にかかる検出システムは、対象者の指紋の画像又は特徴量を出力してもよい。また、この開示にかかる検出システムは、対象者の手の平の静脈の画像又は特徴量を出力してもよい。つまり、この開示にかかる検出システムが出力する対象者の顔に関する情報及び手に関する情報は、対象者を認証可能な情報であればよい。
 撮影装置2は、撮影制御部16からの制御に基づいて、対象者Sを撮影する。そして、撮影装置2は、対象者Sを撮影した画像を撮影制御部16に供給する。なお、本実施形態にかかる撮影装置2は、所定の時間毎に対象者Sを撮影するが、撮影装置2の構成はこれに限定されない。例えば、撮影装置2は、検出装置1が所定の処理を完了する毎に対象者Sを撮影する構成であってもよい。また、本実施形態にかかる撮影装置2は、1台のカメラによって構成されているが、撮影装置2の構成はこれに限定されず、例えば2台以上のカメラによって構成されてもよい。
 撮影装置2は、可視光領域の光を検知して撮影するカメラであってもよいし、可視光外領域の光を検知して撮影するカメラであってもよい。例えば、対象者Sの手に関する情報が、対象者Sの手の平の静脈の画像又は特徴量を含む場合、撮影装置2は、赤外線領域の光を検知して対象者Sを撮影してもよい。
 表示装置3は、対象者Sに対して案内画像を表示する。例えば、表示装置3は、対象者Sに対して生体情報を取得するための撮影を行う旨を通知する画像を表示してもよい。
 また、表示装置3は、後述する手検出領域が設定された場合、対象者Sが所定の姿勢を取ることを促すための参照姿勢画像を表示してもよい。
 より詳細には、表示装置3は、検出装置1から手検出領域の範囲を示す画像と、対象者Sを撮影した画像を取得してもよい。表示装置3は、当該画像同士を重畳して表示してもよい。そして、表示装置3は、対象者Sに対して手検出領域内に手が映り込む姿勢を取るように対象者Sに対して通知してもよい。
 次に、図4を参照して、検出装置1についてさらに説明する。図4は、実施形態2にかかる検出装置1の構成を示すブロック図である。検出装置1は主な構成として、顔検出部11、領域設定部12、手検出部13、出力部14、画質判定部15、及び撮影制御部16を有している。検出装置1が有するこれらの構成は、検出装置1がこの開示に記載した機能を発揮するために、適宜通信可能に接続している。
 撮影制御部16は、撮影装置2を制御する。撮影制御部16は、例えば、撮影装置2が撮影を開始するタイミングを決定してもよいし、撮影装置2が撮影を終了するタイミングを決定してもよい。撮影制御部16は、撮影装置2が撮影した画像を取得し、当該画像を顔検出部11に対して供給する。
 撮影制御部16は、例えば、対象者が撮影装置2の撮影可能範囲内に存在することを図示しないセンサが検出した場合に、撮影装置2に撮影を開始させてもよい。また、撮影制御部16は、検出装置1が、対象者の顔の画像及び手の画像を出力した場合に、撮影装置2に撮影を終了させてもよい。検出装置1は、このような構成により、対象者が撮影装置2に対して注意を向ける必要のある時間が短縮され、対象者の負担を軽減できる。
 顔検出部11は、対象者を撮影した画像から、対象者の顔を検出する。より詳細には、顔検出部11は、撮影制御部16から対象者を撮影した画像を取得し、当該画像から対象者の顔を検出する。
 ただし、ここでいう顔を検出するとは、対象者を撮影した画像中から、対象者の顔を含む区画を特定することを指す。また、顔検出部11は、当該区画を対象者の顔の画像として、画質判定部15に対して供給する。
 顔検出部11は、例えば、取得した画像を複数の区画に分割し、各区画に対象者の顔の一部もしくは全部が含まれているか否かを判定することで、取得した画像から対象者の顔を検出してもよい。また、顔検出部11は、例えば、人間の顔の画像を学習した人工知能(AI、Artificial Intelligence)を有していてもよい。そして、顔検出部11は、取得した画像を当該人工知能に読みこませ、当該人工知能に対象者の顔を検出させてもよい。つまり、顔検出部11は、対象者の顔を検出可能な種々の手法を用いることができる。
 顔検出部11は、対象者を撮影した画像から対象者の顔を検出した場合、領域設定部12に対して、対象者を撮影した画像と、当該画像における顔の位置に関する情報と、を供給する。そして、顔検出部11は、検出した顔の画像を、画質判定部15に対して供給する。
 ただし、ここでいう当該画像における顔の位置に関する情報とは、例えば、当該画像において顔が映り込んでいる区画の座標情報であってもよい。また、当該画像における顔の位置に関する情報とは、例えば、当該画像に対して、顔が映り込んでいる区画の境界線を重畳した画像データであってもよい。
 なお、対象者を撮影した画像から対象者の顔を検出できなかった場合、顔検出部11は、撮影制御部16から新たに対象者を撮影した画像を取得してもよい。そして、対象者の顔を検出するまで、画像を取得し続けてもよい。また、顔検出部11は、後述する出力部14が、対象者の顔に関する情報及び手に関する情報を出力するまで、撮影制御部16から画像を取得し続け、顔の検出を試み続けてもよい。
 領域設定部12は、顔検出部11から対象者を撮影した画像と、当該画像における顔の位置に関する情報と、を取得する。そして、取得した当該画像における顔の位置に関する情報に基づいて、対象者の顔を含む領域の周辺に手検出領域を設定する。
 ただし、ここでいう手検出領域とは、対象者を撮影した画像内に設定される領域であり、後述する手検出部13は、手検出領域内において対象者の手を検出する。つまり、領域設定部12は、手検出部13が対象者の手を検出する範囲を、対象者の顔を含む領域の周辺に制限する。検出装置1は、このような構成により、取得した画像に映り込んだ対象者以外の人物の手を、対象者の手として誤検出することを抑制できる。
 また、領域設定部12は、例えば、顔の位置を中心として、所定の横幅及び所定の縦幅の範囲内に存在する領域を手検出領域として設定してもよい。
 ここで、手検出領域が設定された場合、検出システム102は、手検出領域内に手が映り込む姿勢を取るように対象者を誘導してもよい。検出システム102は例えば、手検出領域が設定された場合、対象者の画像と、手検出領域とを、表示装置3が重畳して表示してもよい。そして検出システム102は、表示装置3が表示した手検出領域内に、手が存在するような姿勢を取るように、対象者を誘導してもよい。
 手検出部13は、撮影装置が撮影した画像から、手検出領域内に存在する手を検出する。より詳細には、手検出部13は、対象者を撮影した画像と、手検出領域の位置情報と、を領域設定部12から取得する。そして、当該画像の手検出領域内に存在する対象者の手を検出する。
 ただし、ここでいう手を検出するとは、対象者を撮影した画像中から、対象者の手を含む区画を特定することを指す。また、手検出部13は、当該区画を対象者の手の画像として、画質判定部15に対して供給する。
 手検出部13は、例えば、取得した画像を複数の区画に分割し、手検出領域内に存在する各区画に、対象者の手の一部もしくは全部が含まれているか否かを判定することで、取得した画像の手検出領域内から対象者の手を検出してもよい。また、手検出部13は、例えば、人間の手の画像を学習した人工知能を有していてもよい。そして、手検出部13は、取得した画像を当該人工知能に読みこませ、当該人工知能に対象者の手を検出させてもよい。つまり、手検出部13は、対象者の手を検出可能な種々の手法を用いることができる。
 手検出部13は、手検出領域内において対象者の手を検出した場合、画質判定部15に対して、検出した手の画像を供給する。なお、対象者を撮影した画像から対象者の顔を検出できなかった場合、顔検出部11は、撮影制御部16から新たに対象者を撮影した画像を取得してもよい。そして、対象者の顔を検出するまで、画像を取得し続けてもよい。また、顔検出部11は、後述する出力部14が、対象者の顔に関する情報及び手に関する情報を出力するまで、撮影制御部16から画像を取得し続け、顔の検出を試み続けてもよい。
 画質判定部15は、顔検出部11から対象者の顔の画像を取得し、手検出部13から対象者の手の画像を取得する。画質判定部15は、取得した対象者の顔の画像と、対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する。
 画質判定部15は、例えば、取得した画像のぼやけ具合や、CNR(Contrast to Noise Ratio)を評価してもよい。そして、画質判定部15は、取得した画像のぼやけ具合や、CNRが所定の閾値より小さいに場合に、取得した画像が、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると判定してもよい。なお、画質判定部15は、取得した画像のぼやけ具合や、CNR以外の評価基準を用いて、取得した画像の画質を判定してもよい。
 また、画質判定部15は、1つの画像から検出された対象者の顔の画像と、対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定してもよい。つまり、画質判定部15は、顔検出部11から取得した対象者の顔の画像と、手検出部13から取得した対象者の手の画像と、を同一の画像から検出してもよい。
 このような構成によると、検出システム102は、取得した顔の画像と手の画像とが関連していることを示すことができる。即ち、検出システム102は、検出した顔の画像と手の画像とが、同一人物のものであることを担保し易くなる。
 また、画質判定部15は、検出された対象者の顔の画像及び手の画像が、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていないと判定した場合、その旨を撮影制御部16に通知してもよい。この場合、撮影制御部16は、対象者を撮影した画像を画像処理してからしてから顔検出部11及び手検出部13に対して供給してもよい。ここでいう画像処理とは、例えば、当該画像の色合いを調整する処理であってもよい。また、画像処理とは、当該画像を変換した信号をローパスフィルタに掛ける処理であってもよい。
 出力部14は、顔検出部11が検出した顔に関する情報と、手検出部13が検出した手に関する情報と、を出力する。より詳細には、出力部14は、対象者の顔の画像及び手の画像が、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると画質判定部15によって判定された場合に、当該顔の画像を対象者の顔に関する情報として認証装置4に対して出力する。そして、出力部14は、当該手の画像を対象者の手に関する情報として認証装置4に対して出力する。
 出力部14は、顔検出部11が検出した顔に関する情報と、手検出部13が検出した手に関する情報と、を出力した場合、これらの情報を出力した旨を、撮影制御部16に対して通知してもよい。また、この場合、出力部14は、これらの情報を出力した旨を、顔検出部11、領域設定部12、及び手検出部13に対して通知してもよい。
(検出システムの処理)
 次に、図面を参照して、第2の実施形態にかかる検出システムの処理、即ち検出方法について詳細に説明する。図5は、第2の実施形態にかかる検出システムの処理を示すフローチャートである。より詳細には、図5は、第2の実施形態にかかる検出装置1の処理を示すフローチャートである。なお、以降の説明においては、適宜図4を参照する。
 まず始めに、顔検出部11が、対象者を撮影した画像を取得する(ステップS201)。より詳細には、顔検出部11が、撮影装置2が撮影した対象者の画像を、撮影制御部16から取得する。
 図6は顔検出部11が取得する画像の例を示す模式図である。顔検出部11は、図6に示すような対象者Sが映った画像Pを取得する。なお、本実施形態にかかる検出装置1が検出する顔は、図6に示す対象者Sの顔Fであり、本実施形態にかかる検出装置1が検出する手は、図6に示す対象者Sの手Hである。
 次に、顔検出部11が、対象者の顔を検出する(ステップS202)。顔検出部11は、ステップS202において、例えば、図7に示すように、対象者Sの顔を含む区画FAを特定し、対象者Sの顔の画像として供給してもよい。
 ステップS202において、顔検出部11が、対象者の顔を検出できていない場合、検出装置1は再びステップS201を実行する。つまり、顔検出部11は、対象者の顔を検出するまで、ステップS201及びステップS202を繰り返し実行する。
 ステップS202において、顔検出部11が、対象者の顔を検出した場合(ステップS203 YES)、検出装置1は、ステップS203に進む。
 次に、領域設定部12が、手検出領域を設定する(ステップS203)。より詳細には、領域設定部12が、対象者の顔を含む領域の周辺に手検出領域を設定する。ここで、対象者の顔を含む領域の周辺とは、対象者を撮影した画像の対象者の顔を含む区画FAの周辺という意味で用いられてもよい。例えば、領域設定部12は、図9に示すように、対象者Sの顔を含む区画FAに隣接するように手検出領域DAを設定してもよい。
 次に、手検出部13が、手検出領域内に存在する手を検出する(ステップS204)。手検出部13は、ステップS205において、例えば、図に示すように、対象者Sの手を含む区画HAを特定し、対象者Sの手の画像として供給してもよい。
 ステップS204において、手検出部13が、対象者の手を検出できていない場合(ステップS204 NO)、検出装置1は再びステップS201を実行する。つまり、検出装置1は、対象者の手を検出するまで、ステップS201~ステップS204を繰り返し実行する。ステップS204において、手検出部13が、対象者の手を検出した場合(ステップS204 YES)、検出装置1は、ステップS205に進む。
 次に、画質判定部15が、検出した顔の画像及び手の画像それぞれが生体認証に適した画質であるか否かを判定する(ステップS205)。
 ステップS205において、検出した顔の画像と手の画像とが生体認証に適した画質でない場合(ステップS205 NO)、検出装置1は再びステップS201を実行する。つまり、検出装置1は、検出した顔の画像と手の画像とが生体認証に適した画質となるまで、ステップS201~ステップS205を繰り返し実行する。ステップS205において、検出した顔の画像と手の画像とが生体認証に適した画質である場合(ステップS205 YES)、検出装置1は、ステップS206に進む。
 最後に、出力部14が、検出した顔の画像及び手の画像をそれぞれ出力し(ステップS206)、検出装置1は一連の処理を終了する。なお、出力部14は、ステップS208を実行したタイミングにおいて、撮影制御部16に対して、ステップS208を実行した旨を通知してもよい。
 以上、説明したように本実施形態にかかる検出システム102は、対象者を撮影した画像から、対象者の顔及び手を検出する。
 この開示にかかる検出システム102は、少なくとも撮影装置2によって撮影対象者を撮影可能であれば実行可能である。このような構成によると、対象者は、顔画像を撮影する撮影装置と、手の画像を撮影する撮影装置と、の2つ以上の装置に意識を向ける必要が無くなる。そのため、検出システム101は、対象者の負担を軽減できる。
 また、本実施形態にかかる検出システム102は、対象者の顔を検出した後に、対象者の顔を含む領域の周辺に手検出領域を設定する。そして、検出システム102は、手検出領域内に存在する手を検出するようにしている。このような構成によると、画像に映り込んだ対象者以外の人物の手を、対象者の手として誤検出することを抑制できる。
<実施形態3>
(検出システムの構成)
 以下、図面を参照して、実施形態3にかかる検出システムについて詳細に説明する。まず始めに、実施形態3にかかる検出システムの構成について説明する。
 実施形態2にかかる検出システム102は、対象者の顔に関する情報及び手に関する情報として、対象者の顔の画像及び対象者の手の画像のそれぞれを出力していた。これに対して、実施形態3にかかる検出システム103は、対象者の顔に関する情報及び手に関する情報として、対象者の顔の特徴量及び対象者の手の特徴量のそれぞれを出力する。
 実施形態3にかかる検出システム103は、実施形態2にかかる検出システム102と同様に、検出装置1と、撮影装置2と、表示装置3と、認証装置4とを有している。つまり、実施形態3にかかる検出システム103は、図3に示した構成と同様の構成を有する。
 図10は実施形態3にかかる検出装置1の構成を示すブロック図である。実施形態3にかかる検出システム103は、画質判定部15に代わって、特徴量抽出部17と、特徴量判定部18とを有する点で、実施形態2にかかる検出システム102と異なる。
 特徴量抽出部17は、対象者の顔の画像及び手の画像からそれぞれの特徴量を抽出する。より詳細には、特徴量抽出部17は、顔検出部11から対象者の顔の画像を取得し、手検出部13から対象者の手の画像を取得する。そして、特徴量抽出部17は、取得した画像から対象者の顔及び手のそれぞれの特徴量を抽出する。特徴量抽出部17は、抽出した特徴量を特徴量判定部18に対して供給する。
 なお、ここでいう特徴量とは、画像データを種々の方法で変換したデータであり、当該データを比較することで対象者を認証可能となるデータを指す。例えば、特徴量は、数値として表現されてもよいし、数値以外の形式で表現されてもよい。つまり、特徴量は、対象者を認証可能な形式のデータであればよい。
 また、特徴量抽出部17は、1つの画像から検出された対象者の顔の画像と、対象者の手の画像とから、対象者の顔及び手のそれぞれの特徴量を抽出してもよい。
 このような構成によると、検出システム103は、取得した顔の特徴量と、手の特徴量とが関連していることを示すことができる。即ち、検出システム103は、検出した顔の特徴量と手の特徴量とが、同一人物のものであることを担保し易くなる。
 特徴量判定部18は、特徴量抽出部17が抽出した特徴量が、生体認証に適した品質であるか否かを判定する。特徴量判定部18は、例えば、抽出した特徴量の標準偏差を評価してもよい。つまり、特徴量判定部18は、複数の特徴量を取得し、それらの標準偏差を算出してもよい。そして、当該標準偏差が所定の閾値以下である場合に、抽出した特徴量が、生体認証に適した品質であると判定してもよい。ただし、特徴量判定部18は、標準偏差以外の評価基準を用いて特徴量の品質を評価してもよい。
 特徴量判定部18は、特徴量抽出部17が抽出した特徴量が、生体認証に適した品質であると判定した場合、当該特徴量を出力部14に対して出力する。この場合、当該特徴量を取得した出力部14は、当該特徴量を対象者の顔に関する情報及び手に関する情報として出力する。
 また、特徴量判定部18は、特徴量抽出部17が抽出した特徴量が、生体認証に適した品質でないと判定した場合、その旨を顔検出部11、領域設定部12、及び手検出部13に対して通知してもよい。この場合、顔検出部11、領域設定部12、及び手検出部13は、新たな画像を取得し、再度、対象者の顔及び手を検出する処理を実行してもよい。
(検出システムの処理)
 次に、図面を参照して、第3の実施形態にかかる検出システムの処理、即ち方法について詳細に説明する。図11は、第3の実施形態にかかる検出システムの処理を示すフローチャートである。なお、以降の説明においては、適宜図10を参照する。
 ただし、図11に記載されたステップS301~ステップS304は、第2の実施形態において説明したステップS201~ステップS204と同様の処理であるため、説明を省略する。つまり、以後は、図12に該当する部分、即ち、図11に記載のステップS304の判定がYESであった場合の、それ以降の第3の実施形態にかかる検出装置1の処理について説明する。
 手検出部13が、対象者の手を検出した場合(ステップS304 YES)、特徴量抽出部17が、検出した顔の画像と手の画像とから特徴量を検出する(ステップS305)。そして、特徴量判定部18が、抽出した特徴量が生体認証に適した品質であるか否かを判定する(ステップS306)。
 抽出した特徴量が生体認証に適した品質でない場合(ステップS306 NO)、検出装置1は再び図11に記載のステップS301を実行する。つまり、検出装置1は、抽出した特徴量が生体認証に適した品質となるまで、ステップS301~ステップS306を繰り返し実行する。
 抽出した特徴量が生体認証に適した品質である場合(ステップS306 YES)、出力部14が、抽出した特徴量を出力し(ステップS307)、検出装置1は一連の処理を終了する。なお、出力部14は、ステップS307を実行したタイミングにおいて、撮影制御部16に対して、ステップS307を実行した旨を通知してもよい。
 以上、説明したように本実施形態にかかる検出システム103は、対象者を撮影した画像から、対象者の顔及び手のそれぞれの特徴量を抽出する。そして、本実施形態にかかる検出システム103は、対象者の顔及び手のそれぞれの特徴量を抽出し、生体認証に適した品質の特徴量を出力するまで、対象者の撮影を継続するようにしている。
 このような構成によると、本実施形態にかかる検出システムは、生体情報の認証制度の向上に寄与できる。よって、本実施形態にかかる検出システムは、対象者の負担を軽減しつつ高い確度により認証可能な生体情報を取得する検出システム、検出方法、及び検出プログラムを提供することができる。
<実施形態4>
(検出システムの構成)
 以下、図面を参照して、実施形態4にかかる検出システムについて詳細に説明する。図13は、実施形態4にかかる検出システムの構成を示すブロック図である。実施形態4にかかる検出システム104は、光照射部5を有する点で、上述の実施形態と異なる。なお、本実施形態にかかる検出装置1は、実施形態2と同様の構成であってもよい。また、本実施形態にかかる検出装置1は、実施形態3と同様の構成であってもよい。
 光照射部5は、少なくとも手検出領域に、所定のパターン画像を含む光を照射する。例えば、光照射部5は、手検出領域のみに光を照射してもよい。また、光照射部5は、対象者の全身に光を照射してもよい。ただし、パターン画像とは、所定の模様が多数表示された画像の事を指す。このような画像を含む光を照射すると、照射された領域は撮影することが難しくなる。
 さらに、光照射部5は、所定のタイミングで照射する光を点滅させる。つまり、光照射部5は、光を照射している状態と、光を照射しない状態を所定のタイミングで切り替える。ただし、所定のタイミングは、撮影装置2または撮影制御部16と共有されている。
 ここで、撮影装置2は、光照射部5が光を照射していないタイミングにおいて対象者を撮影する。そのため、撮影装置2は、光照射部5が照射する光によって撮影を阻害されない。
 このように、撮影装置2または撮影制御部16と光を照射しないタイミングを共有するすると、光照射部5は、撮影装置2による対象者の撮影を抑制することなく、撮影装置2以外の撮影装置による撮影を抑制できる。その結果として、光照射部5は、例えば、悪意ある第3者による盗撮を抑制できる。
 また、光照射部5は、例えば、検出装置1から手検出領域に関する情報を取得してもよい。そして、取得した手検出領域に関する情報に基づいて、光を照射する範囲を決定してもよい。ただし、ここでいう手検出領域に関する情報は、手検出領域の位置に関する情報であってもよい。
 例えば、手検出領域に関する情報は、手検出領域の座標情報であってもよい。取得した手検出領域に関する情報が手検出領域の座標情報である場合、光照射部5は取得した座標情報に該当する領域に、光を照射する。
 このような構成によると、検出システム104は、悪意ある第三者によって、対象者の顔及び手が同時に映った画像を盗撮されることを抑制できる。したがって、本実施形態にかかる検出システム104は、安全性の高い状況下において、対象者の負担を軽減しつつ認証可能な生体情報を取得する検出システム、検出方法、及び検出プログラムを提供することができる。
 <ハードウェア構成の例>
 以下、この開示における検出システム、あるいは検出装置の各機能構成がハードウェアとソフトウェアとの組み合わせで実現される場合について説明する。
 図14は、コンピュータのハードウェア構成を例示するブロック図である。この開示における管理装置は、図に示すハードウェア構成を含むコンピュータ200により上述の機能を実現できる。コンピュータ200は、スマートフォンやタブレット端末などといった可搬型のコンピュータであってもよいし、PCなどの据え置き型のコンピュータであってもよい。コンピュータ200は、各装置を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。コンピュータ200は、所定のプログラムをインストールされることにより、所望の機能を実現できる。
 コンピュータ200は、バス202、プロセッサ204、メモリ206、ストレージデバイス208、入出力インタフェース210(インタフェースはI/F(Interface)とも称される)およびネットワークインタフェース212を有する。バス202は、プロセッサ204、メモリ206、ストレージデバイス208、入出力インタフェース210、およびネットワークインタフェース212が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ204などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ204は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)またはFPGA(field-programmable gate array)などの種々のプロセッサである。メモリ206は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。
 ストレージデバイス208は、ハードディスク、SSD(Solid State Drive)、メモリカード、またはROM(Read Only Memory)などを用いて実現される補助記憶装置である。ストレージデバイス208は、所望の機能を実現するためのプログラムが格納されている。プロセッサ204は、このプログラムをメモリ206に読み出して実行することで、各装置の各機能構成部を実現する。
 入出力インタフェース210は、コンピュータ200と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース210には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース212は、コンピュータ200をネットワークに接続するためのインタフェースである。
 なお、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、RAM、ROM、フラッシュメモリ、SSD又はその他のメモリ技術、CD-ROM、DVD(digital versatile disc)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 以上、この開示を上記実施形態に即して説明したが、この開示は上記実施形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象者を撮影した画像から前記対象者の顔を検出する顔検出部と、
 前記顔検出部が前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定する領域設定部と、
 前記対象者を撮影した画像から前記手検出領域内に存在する手を検出する手検出部と、
 前記顔検出部が検出した前記対象者の顔に関する情報と、前記手検出部が検出した前記対象者の手に関する情報と、を出力する出力部と、を備える、
 検出システム。
 (付記2)
 前記出力部が、前記対象者の顔に関する情報として、前記対象者の顔の画像を出力し、前記対象者の手に関する情報として、前記対象者の手の画像を出力する、
 付記1に記載の検出システム。
 (付記3)
 前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する画質判定部を更に備え、
 前記画質判定部が、前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると判定した場合に、前記出力部が、当該顔の画像を前記対象者の顔に関する情報として出力し、当該手の画像を前記対象者の手に関する情報として出力する、
 付記2に記載の検出システム。
 (付記4)
 前記画質判定部が、1つの画像から検出された前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する、
 付記3に記載の検出システム。
 (付記5)
 前記対象者の顔の画像及び手の画像からそれぞれ特徴量を抽出する特徴量抽出部を更に備え、
 前記出力部が、前記対象者の顔に関する情報として、前記対象者の顔の画像から抽出した特徴量を出力し、前記対象者の手に関する情報として、前記対象者の手の画像から抽出した特徴量を出力する、
 付記1乃至4のいずれか1項に記載の検出システム。
 (付記6)
 前記特徴量抽出部が抽出した特徴量が、生体認証に適した品質であるか否かを判定する特徴量判定部を更に備え、
 前記特徴量判定部が、前記特徴量が生体認証に適した品質であると判定した場合に、前記出力部が、当該特徴量を、前記対象者の顔又は手に関する情報として出力する、
 付記5に記載の検出システム。
 (付記7)
 少なくとも前記手検出領域に、所定のパターン画像を含む光を照射する光照射部を更に備える、
 付記1乃至6のいずれか1項に記載の検出システム。
 (付記8)
 前記手検出領域が設定された場合、前記対象者が所定の姿勢を取ることを促すための参照姿勢画像を表示する表示部を更に備える、
 付記1乃至7のいずれか1項に記載の検出システム。
 (付記9)
 コンピュータが、
 対象者を撮影した画像から前記対象者の顔を検出し、
 前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定し、
 前記手検出領域内に存在する手を検出し、
 検出した顔に関する情報と、検出した手に関する情報と、を出力する、
 検出方法。
 (付記10)
 前記出力部が、前記対象者の顔に関する情報として、前記対象者の顔の画像を出力し、前記対象者の手に関する情報として、前記対象者の手の画像を出力する、
 付記9に記載の検出方法。
 (付記11)
 前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する画質判定部を更に備え、
 前記画質判定部が、前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると判定した場合に、前記出力部が、当該顔の画像を前記対象者の顔に関する情報として出力し、当該手の画像を前記対象者の手に関する情報として出力する、
 付記10に記載の検出方法。
 (付記12)
 前記画質判定部が、1つの画像から検出された前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する、
 付記11に記載の検出方法。
 (付記13)
 前記対象者の顔の画像及び手の画像からそれぞれ特徴量を抽出する特徴量抽出部を更に備え、
 前記出力部が、前記対象者の顔に関する情報として、前記対象者の顔の画像から抽出した特徴量を出力し、前記対象者の手に関する情報として、前記対象者の手の画像から抽出した特徴量を出力する、
 付記9乃至12のいずれか1項に記載の検出方法。
 (付記14)
 前記特徴量抽出部が抽出した特徴量が、生体認証に適した品質であるか否かを判定する特徴量判定部を更に備え、
 前記特徴量判定部が、前記特徴量が生体認証に適した品質であると判定した場合に、前記出力部が、当該特徴量を、前記対象者の顔又は手に関する情報として出力する、
 請求項13に記載の検出方法。
 (付記15)
 少なくとも前記手検出領域に、所定のパターン画像を含む光を照射する光照射部を更に備える、
 付記9乃至14のいずれか1項に記載の検出方法。
 (付記16)
 前記手検出領域が設定された場合、前記対象者が所定の姿勢を取ることを促すための参照姿勢画像を表示する表示部を更に備える、
 付記9乃至15のいずれか1項に記載の検出方法。
 (付記17)
 対象者を撮影した画像から前記対象者の顔を検出し、
 前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定し、
 前記手検出領域内に存在する手を検出し、
 検出した顔に関する情報と、検出した手に関する情報と、を出力する、方法をコンピュータに実行させるプログラムが格納された、
 非一時的なコンピュータ可読媒体。
 この出願は、2022年5月26日に出願された日本出願特願2022-085727を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 検出装置
2 撮影装置
3 表示装置
4 認証装置
5 光照射部
11 顔検出部
12 領域設定部
13 手検出部
14 出力部
15 画質判定部
16 撮影制御部
17 特徴量抽出部
18 特徴量判定部
101~104 検出システム
200 コンピュータ
202 バス
204 プロセッサ
206 メモリ
208 ストレージデバイス
210 入出力インタフェース
212 ネットワークインタフェース

Claims (17)

  1.  対象者を撮影した画像から前記対象者の顔を検出する顔検出手段と、
     前記顔検出手段が前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定する領域設定手段と、
     前記対象者を撮影した画像から前記手検出領域内に存在する手を検出する手検出手段と、
     前記顔検出手段が検出した前記対象者の顔に関する情報と、前記手検出手段が検出した前記対象者の手に関する情報と、を出力する出力手段と、を備える、
     検出システム。
  2.  前記出力手段が、前記対象者の顔に関する情報として、前記対象者の顔の画像を出力し、前記対象者の手に関する情報として、前記対象者の手の画像を出力する、
     請求項1に記載の検出システム。
  3.  前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する画質判定手段を更に備え、
     前記画質判定手段が、前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると判定した場合に、前記出力手段が、当該顔の画像を前記対象者の顔に関する情報として出力し、当該手の画像を前記対象者の手に関する情報として出力する、
     請求項2に記載の検出システム。
  4.  前記画質判定手段が、1つの画像から検出された前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する、
     請求項3に記載の検出システム。
  5.  前記対象者の顔の画像及び手の画像からそれぞれ特徴量を抽出する特徴量抽出手段を更に備え、
     前記出力手段が、前記対象者の顔に関する情報として、前記対象者の顔の画像から抽出した特徴量を出力し、前記対象者の手に関する情報として、前記対象者の手の画像から抽出した特徴量を出力する、
     請求項1乃至4のいずれか1項に記載の検出システム。
  6.  前記特徴量抽出手段が抽出した特徴量が、生体認証に適した品質であるか否かを判定する特徴量判定手段を更に備え、
     前記特徴量判定手段が、前記特徴量が生体認証に適した品質であると判定した場合に、前記出力手段が、当該特徴量を、前記対象者の顔又は手に関する情報として出力する、
     請求項5に記載の検出システム。
  7.  少なくとも前記手検出領域に、所定のパターン画像を含む光を照射する光照射手段を更に備える、
     請求項1乃至6のいずれか1項に記載の検出システム。
  8.  前記手検出領域が設定された場合、前記対象者が所定の姿勢を取ることを促すための参照姿勢画像を表示する表示手段を更に備える、
     請求項1乃至7のいずれか1項に記載の検出システム。
  9.  コンピュータが、
     対象者を撮影した画像から前記対象者の顔を検出し、
     前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定し、
     前記手検出領域内に存在する手を検出し、
     検出した顔に関する情報と、検出した手に関する情報と、を出力する、
     検出方法。
  10.  前記出力手段が、前記対象者の顔に関する情報として、前記対象者の顔の画像を出力し、前記対象者の手に関する情報として、前記対象者の手の画像を出力する、
     請求項9に記載の検出方法。
  11.  前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する画質判定手段を更に備え、
     前記画質判定手段が、前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されていると判定した場合に、前記出力手段が、当該顔の画像を前記対象者の顔に関する情報として出力し、当該手の画像を前記対象者の手に関する情報として出力する、
     請求項10に記載の検出方法。
  12.  前記画質判定手段が、1つの画像から検出された前記対象者の顔の画像と、前記対象者の手の画像とが、生体認証に適した品質の特徴量を抽出可能な画質で撮影されているか否かを判定する、
     請求項11に記載の検出方法。
  13.  前記対象者の顔の画像及び手の画像からそれぞれ特徴量を抽出する特徴量抽出手段を更に備え、
     前記出力手段が、前記対象者の顔に関する情報として、前記対象者の顔の画像から抽出した特徴量を出力し、前記対象者の手に関する情報として、前記対象者の手の画像から抽出した特徴量を出力する、
     請求項9乃至12のいずれか1項に記載の検出方法。
  14.  前記特徴量抽出手段が抽出した特徴量が、生体認証に適した品質であるか否かを判定する特徴量判定手段を更に備え、
     前記特徴量判定手段が、前記特徴量が生体認証に適した品質であると判定した場合に、前記出力手段が、当該特徴量を、前記対象者の顔又は手に関する情報として出力する、
     請求項13に記載の検出方法。
  15.  少なくとも前記手検出領域に、所定のパターン画像を含む光を照射する光照射手段を更に備える、
     請求項9乃至14のいずれか1項に記載の検出方法。
  16.  前記手検出領域が設定された場合、前記対象者が所定の姿勢を取ることを促すための参照姿勢画像を表示する表示手段を更に備える、
     請求項9乃至15のいずれか1項に記載の検出方法。
  17.  対象者を撮影した画像から前記対象者の顔を検出し、
     前記対象者の顔を検出した場合、前記対象者の顔を含む領域の周辺に手検出領域を設定し、
     前記手検出領域内に存在する手を検出し、
     検出した顔に関する情報と、検出した手に関する情報と、を出力する、方法をコンピュータに実行させるプログラムが格納された、
     非一時的なコンピュータ可読媒体。
PCT/JP2023/017486 2022-05-26 2023-05-09 検出システム、検出方法、及び非一時的なコンピュータ可読媒体 WO2023228732A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022085727 2022-05-26
JP2022-085727 2022-05-26

Publications (1)

Publication Number Publication Date
WO2023228732A1 true WO2023228732A1 (ja) 2023-11-30

Family

ID=88919056

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/017486 WO2023228732A1 (ja) 2022-05-26 2023-05-09 検出システム、検出方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023228732A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289744A (ja) * 2005-04-08 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> 印刷物、盗撮防止システムおよび情報送信方法
JP2011086052A (ja) * 2009-10-14 2011-04-28 Fujitsu Ltd 手認識装置
JP2021131737A (ja) * 2020-02-20 2021-09-09 株式会社日立製作所 データ登録装置、生体認証装置、およびデータ登録プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289744A (ja) * 2005-04-08 2006-10-26 Nippon Telegr & Teleph Corp <Ntt> 印刷物、盗撮防止システムおよび情報送信方法
JP2011086052A (ja) * 2009-10-14 2011-04-28 Fujitsu Ltd 手認識装置
JP2021131737A (ja) * 2020-02-20 2021-09-09 株式会社日立製作所 データ登録装置、生体認証装置、およびデータ登録プログラム

Similar Documents

Publication Publication Date Title
JP7040457B2 (ja) 画像処理装置、画像処理方法、顔認証システム及びプログラム
KR102387571B1 (ko) 라이브니스 검사 방법 및 장치
KR102466997B1 (ko) 라이브니스 검사 방법 및 장치
KR102483642B1 (ko) 라이브니스 검사 방법 및 장치
US11023757B2 (en) Method and apparatus with liveness verification
CN108804884B (zh) 身份认证的方法、装置及计算机存储介质
CN107077589B (zh) 基于图像的生物计量中的面部假冒检测
WO2018042996A1 (ja) 生体検知装置
BR122012016165B1 (pt) aparelho, método e mídia para acesso controlado a uma funcionalidade de um dispositivo sem fio
KR20190040962A (ko) 라이브 이미지 캡처 중 스푸핑 공격 검출
JP7191061B2 (ja) ライブネス検査方法及び装置
US20230091865A1 (en) Face image verification method and apparatus, electronic device, and storage medium
CN109034029A (zh) 检测活体的人脸识别方法、可读存储介质和电子设备
JP2020505705A (ja) 特徴画像を習得するための方法およびデバイスならびにユーザー認証方法
KR20150069799A (ko) 얼굴 인증 방법 및 그 장치
CN113642639B (zh) 活体检测方法、装置、设备和存储介质
WO2023228732A1 (ja) 検出システム、検出方法、及び非一時的なコンピュータ可読媒体
JP2015169977A (ja) 本人認証装置、本人認証方法、本人認証プログラム、および自動取引システム
JP2021131737A (ja) データ登録装置、生体認証装置、およびデータ登録プログラム
WO2021125268A1 (ja) 制御装置、制御方法、及びプログラム
KR102570071B1 (ko) 라이브니스 검사 방법 및 장치, 얼굴 인증 방법 및 장치
US20220245979A1 (en) Passage propriety assessment device, passage management system, passage propriety assessment method, and computer program
KR20200083188A (ko) 라이브니스 검출 방법 및 장치, 이를 이용한 객체 인식 방법
US20240046709A1 (en) System and method for liveness verification
CN110909704A (zh) 一种活体检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811607

Country of ref document: EP

Kind code of ref document: A1