WO2021111548A1 - 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム - Google Patents

情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム Download PDF

Info

Publication number
WO2021111548A1
WO2021111548A1 PCT/JP2019/047433 JP2019047433W WO2021111548A1 WO 2021111548 A1 WO2021111548 A1 WO 2021111548A1 JP 2019047433 W JP2019047433 W JP 2019047433W WO 2021111548 A1 WO2021111548 A1 WO 2021111548A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
living body
imaging region
imaging
body portion
Prior art date
Application number
PCT/JP2019/047433
Other languages
English (en)
French (fr)
Inventor
知里 舟山
竜一 赤司
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP19954990.8A priority Critical patent/EP4071701A4/en
Priority to US17/781,105 priority patent/US20220406095A1/en
Priority to JP2021562253A priority patent/JPWO2021111548A1/ja
Priority to PCT/JP2019/047433 priority patent/WO2021111548A1/ja
Publication of WO2021111548A1 publication Critical patent/WO2021111548A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • the present invention relates to a technical field of an information presentation system for presenting information on biometric authentication, an information presentation method, a computer program, and an authentication system.
  • Patent Document 1 discloses a technique for outputting guidance for guiding a user to a recognition effective area.
  • Patent Document 2 discloses a technique for displaying a subject for guiding the subject to an in-focus range.
  • Patent Document 3 discloses a technique for guiding an certifier using an LED.
  • Patent Document 4 discloses a technology for displaying an image on a fog screen.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide an information presentation system, an information presentation method, and a computer program capable of appropriately presenting information on biometric authentication to a subject. To do.
  • One aspect of the information presentation system of the present invention is to set a specific means for identifying the position of the biological portion used for authentication from the information of the subject and an imaging region for imaging the biological portion at the specified position of the biological portion.
  • a setting means for setting according to the situation and a presentation means for presenting information indicating the imaging region at a position overlapping the living body portion are provided.
  • the position of the living body part used for authentication is specified from the information of the subject, and the imaging region for imaging the living body part is set according to the specified position of the living body part. Then, information indicating the imaging region is presented at a position overlapping the living body portion.
  • the position of the living body part used for authentication is specified from the information of the subject, and the imaging region for imaging the living body part is set according to the specified position of the living body part.
  • the computer is operated so as to present information indicating the imaging region at a position overlapping the living body portion.
  • One aspect of the authentication system of the present invention is a specific means for identifying the position of the biological part used for authentication from the information of the subject, and an imaging region for imaging the biological part according to the specified position of the biological part.
  • the setting means to be set the presenting means for presenting information indicating the imaging region at a position overlapping the living body portion, the imaging means for capturing the imaging region and acquiring the image of the living body portion, and the living body portion. It is provided with an authentication means for authenticating the target person based on the image of.
  • each one of the above-mentioned information presentation system, information presentation method, computer program, and authentication system it is possible to appropriately present information on biometric authentication to the target person. This facilitates, for example, normal biometric authentication.
  • FIG. 1 is a block diagram showing a functional configuration of the information presentation device according to the embodiment.
  • the information presentation device 10 is configured as a device for presenting information on biometric authentication to a target person.
  • the information presenting device 10 includes a position specifying unit 101, an area setting unit 102, and an information output unit 103 as processing blocks for realizing the function.
  • the position specifying unit 101 is configured to be able to specify the position of the biological part used for biometric authentication based on the information of the target person (specifically, the image of the target person or the like).
  • the position specifying unit 101 identifies the position (for example, height, lateral position, etc.) of the living body part used for authentication from, for example, an image obtained by capturing the whole body of the subject. For example, when iris recognition is performed by the authentication system 1 described later, the position specifying unit 101 may specify the position of the eyes of the target person.
  • the specific method for specifying the position of the living body part since the existing technique can be appropriately adopted, detailed description here will be omitted.
  • the area setting unit 102 is configured to be able to set an imaging region (in other words, an imaging point) of an image used for biometric authentication based on the position of the biological portion specified by the position specifying unit 101. That is, the area setting unit 102 sets an imaging region according to the position of the specified biological portion so that the biological portion of the subject can be appropriately imaged by the imaging device 40 described later. For example, when the position of the specified living body part is relatively high, the area setting unit 102 sets the imaging region at a position higher than usual, while the position of the specified living body part is relatively high. If it is in a low position, the imaging region is set at a position lower than usual.
  • an imaging region in other words, an imaging point
  • the information output unit 103 is configured to be able to output information related to the imaging area set by the area setting unit 102.
  • the information about the imaging region includes at least information about the position of the imaging region.
  • the information regarding the imaging region may include various information to be transmitted to the target person (for example, instruction contents at the time of biometric authentication).
  • the information output unit 103 outputs information about the imaging region to the display device 30 and the imaging device 40, which will be described later.
  • FIG. 2 is a block diagram showing a hardware configuration of the information presentation system according to the embodiment.
  • the information presentation system 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device 14. I have.
  • the information presentation system 10 may further include an input device 15 and an output device 16.
  • the CPU 11, the RAM 12, the ROM 13, the storage device 14, the input device 15, and the output device 16 are connected via the data bus 17.
  • the CPU 11 reads a computer program.
  • the CPU 11 is configured to read a computer program stored in at least one of the RAM 12, the ROM 13, and the storage device 14.
  • the CPU 11 may read a computer program stored in a computer-readable recording medium using a recording medium reading device (not shown).
  • the CPU 11 may acquire (that is, may read) a computer program from a device (not shown) arranged outside the information presentation system 10 via a network interface.
  • the CPU 11 controls the RAM 12, the storage device 14, the input device 15, and the output device 16 by executing the read computer program.
  • a functional block for presenting information on biometric authentication is realized in the CPU 11.
  • the RAM 12 temporarily stores the computer program executed by the CPU 11.
  • the RAM 12 temporarily stores data temporarily used by the CPU 11 when the CPU 11 is executing a computer program.
  • the RAM 12 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 13 stores a computer program executed by the CPU 11.
  • the ROM 13 may also store fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable ROM).
  • the storage device 14 stores data stored in the information presentation system 10 for a long period of time.
  • the storage device 14 may operate as a temporary storage device of the CPU 11.
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives an input instruction from the user of the information presentation system 10.
  • the input device 15 may include, for example, at least one of a keyboard, a mouse and a touch panel.
  • the output device 16 is a device that outputs information about the information presentation system 10 to the outside.
  • the output device 16 may be a display device (for example, a display) capable of displaying information about the information presentation system 10.
  • FIG. 3 is a block diagram showing the overall configuration of the authentication system according to the embodiment.
  • the authentication system 1 is configured as a system that executes an authentication process (so-called biometric authentication) using an image of a biological portion of a target person.
  • the authentication system 1 includes an information presentation system 10 (see FIG. 1), a detection device 20, a display device 30, an image pickup device 40, and an authentication device 50, which have already been described.
  • the detection device 20 is configured to include, for example, a camera, and is configured to be able to detect information about a target person for biometric authentication. Further, the detection device 20 includes, for example, a camera, and is arranged at a position where a biological portion used for biometric authentication can be imaged. Alternatively, the detection device 20 may be configured as various sensors other than the camera as long as it can identify the position of the living body portion of the target person. The information detected by the detection device 20 is output to the position specifying unit 101 of the information presentation system 10.
  • the display device 30 is configured to be able to present the position of the imaging region to the target person by displaying the information regarding the imaging region output from the information output unit 103. Further, the display device 30 according to the present embodiment is configured to be capable of displaying information on the imaging region at a position overlapping the target person. It is preferable that the display device 30 can display information on a medium through which the target person can pass.
  • the display device 30 includes, for example, a projection device and a fog generator that generates a fog display capable of projecting light from the projection device, and projects information about an imaging region on the fog display. A specific display example by the display device 30 will be described in detail later.
  • the image pickup device 40 is configured to be able to take an image of a target person (particularly, a biological part used for authentication) and acquire an image used for biometric authentication.
  • the image pickup apparatus 40 is configured as, for example, an iris camera that captures the iris of a subject.
  • the imaging region is variable according to the setting contents of the region setting unit 102.
  • the image pickup apparatus 40 is configured to include a plurality of cameras having different imaging regions, and selects a camera to be used for imaging according to the setting contents of the region setting unit 102.
  • the image pickup apparatus 40 changes the image pickup area based on the information regarding the image pickup area output from the information output unit 103.
  • the image captured by the image pickup device 40 is output to the authentication device 50.
  • the authentication device 50 executes biometric authentication of the target person based on the image captured by the image pickup device 40.
  • the authentication device 50 is configured to be capable of performing iris authentication using, for example, an image of the iris of the target person.
  • the authentication process executed by the authentication device 50 may be any one using a part of the living body of the subject, and the type is not particularly limited.
  • the specific processing content of the authentication process executed by the authentication device 50 since the existing technology can be appropriately adopted, detailed description here will be omitted.
  • FIG. 4 is a flowchart showing the operation flow of the authentication system according to the present embodiment.
  • the authentication system 1 detects the position of the eyes from the image of the target person and executes iris authentication will be described.
  • the detection device 20 first acquires an image of the target person who is about to receive the authentication process (step S101). Subsequently, the position specifying unit 101 determines whether or not the face region of the target person can be detected from the image acquired by the detection device 20 (step S102). The "detection of the face area" here is executed to specify the position of the eyes of the subject. As for the method for detecting the face region, existing techniques can be appropriately adopted, and therefore detailed description thereof will be omitted here.
  • step S102 determines whether or not to retry the detection of the face area. Then, when it is determined that the retry is to be performed (step S201: YES), the process is executed again from step S101. On the other hand, when it is determined that the retry is not performed (step S201: NO), the information output unit 103 outputs information regarding guidance to a staff member (for example, a staff member of the equipment provided with the authentication system 1) (step S202). As a result, the display device 30 projects an image that guides the target person to the staff member (step S203). In this case, the biometric authentication by the authentication system 1 is not executed, and the authentication work by the staff is separately performed.
  • a staff member for example, a staff member of the equipment provided with the authentication system 1
  • the position specifying unit 101 detects the face area from the image of the target person and specifies the position of the eyes included in the face area (step). S103).
  • the eye position can be specified, for example, by using the relationship between the face area and the eye position stored in advance.
  • the area setting unit 102 sets the imaging area according to the specified eye position (step S104).
  • the information output unit 103 outputs information about the imaging region to the display device 30 and the imaging device 40, respectively (step S105).
  • the display device 30 that has received the information regarding the imaging region presents the information regarding the imaging region of the imaging device 40 to the subject (step S106).
  • the display device 30 displays information indicating a specific position of an imaging region for capturing an iris image.
  • the subject can know where the imaging region of the imaging device 40 is (in other words, where the authentication image is captured).
  • the subject can be guided toward the imaging region.
  • the imaging device 40 captures an iris image of the subject with a camera corresponding to the set imaging region (step S107).
  • the imaging device 40 captures an iris image for a predetermined time after the display of the imaging region on the display device 30 is started, for example.
  • the image pickup device 40 may take an iris image when it detects that the target person has reached a predetermined position by various sensors or the like.
  • the authentication device 50 executes an authentication process (that is, iris recognition) using the image (step S108).
  • FIG. 5 is an image diagram showing an operation example of the authentication system according to the embodiment.
  • FIG. 6 is an image diagram showing an eye mark as a presentation example of an imaging region.
  • FIG. 7 is an image diagram showing the overlap between the imaging area display and the subject.
  • the display device 30 here includes a projection device 31 and a fog generator 32.
  • the projection device 31 can appropriately display an image on the fog display 33 generated by the fog generator 32.
  • the fog generator 32 is arranged so that the fog display 33 can be generated on the movement path of the person 500 subject to the authentication process (for example, near the entrance gate of the facility).
  • the fog display 33 is passable by the subject 500.
  • the fog generator 32 is provided with a detection device 20 so that an image of a target person 500 approaching the fog display 33 can be captured.
  • an image pickup device 40 is provided at the destination of passing through the fog display 33, and it is possible to capture an image (here, an iris image) of the subject 500 immediately after passing through the fog display 33.
  • the imaging device 40 includes three cameras having different heights of the imaging region.
  • Each of the detection device 20, the projection device 31, and the image pickup device 40 can communicate with the information presentation system 10 by wire or wirelessly.
  • the detection device 20 When the authentication system 1 shown in FIG. 5 is operating, the detection device 20 first captures an image of the target person 500 approaching the fog display 33 (for example, an image including the face of the target person 500). This image is transmitted to the information presentation system 10.
  • the information presentation system 10 detects the face area from the image of the target person 500 and identifies the position of the eyes of the target person 500.
  • the information presentation system 10 determines, for example, the position of the eyes of the subject 500 in three stages of "high”, "normal”, and “low”.
  • the information presenting device 10 sets the imaging region according to the position of the specified eye. Specifically, when the eye position is determined to be “high”, a camera having the highest position as the imaging region is selected, and the camera is set to capture the iris image of the subject 500. .. When the eye position is determined to be "normal”, a camera having the second highest position as the imaging region is selected, and the camera is set to capture the iris image of the subject 500. When the eye position is determined to be "low”, a camera having the lowest position as the imaging region is selected, and the camera is set to capture the iris image of the subject 500.
  • the projection device 31 projects information about the imaging region on the portion of the fog display 33 corresponding to the set imaging region. That is, the projection device 31 projects information about the imaging region at a position corresponding to the imaging region of the selected camera. Specifically, when a camera whose imaging region is the highest position is selected, information about the imaging region is projected to a relatively high first position of the fog display. When a camera with the second highest position as the imaging region is selected, information about the imaging region is projected to a second position relatively near the center of the fog display. When a camera with the lowest position as the imaging region is selected, information about the imaging region is projected to a relatively low third position on the fog display. As a result, the subject 500 can grasp which part of the imaging region is specifically based on the display position (here, the height) with respect to the imaging region.
  • the imaging region can be projected at three stages of the first to third positions, but the projected position may be set as appropriate. That is, the position where the image pickup region is displayed may be determined according to the body shape, height, or eye position of the subject 500 as long as the position can be imaged by the camera.
  • the imaging area is changed by selecting one camera from the three cameras, but the imaging area may be changed by other methods.
  • a process (so-called ROI: Region Of Interest) may be performed in which only a part of the region is extracted from the imageable region of the camera and the image is captured only in that region.
  • the position of the imaging region can be changed up, down, left, and right in 1-pixel units.
  • the information regarding the imaging region is displayed including characters and images.
  • the eye mark is displayed and an instruction to read the position of the eye mark is displayed. If the subject 500 who sees such a display deviates from the imaging area of the imaging device 40, the subject 500 moves by himself / herself to match the position of his / her eyes with the position of the eye mark. Try to. In this way, if the information regarding the imaging region is displayed at a position overlapping the subject 500, the subject 500 can be guided to an appropriate position (that is, a position where the iris image can be normally captured).
  • an iris image suitable for the authentication process can be acquired by taking an image with the imaging device 40 immediately after the subject 500 has passed through the fog display 33.
  • Information about the imaging region is displayed in the vicinity of the focus position of the imaging device 40 (for example, the distance between the imaging device 40 and the fog display 33 is adjusted in advance).
  • the image pickup device 40 and the fog generator 32 are arranged so that the focus position of the image pickup device 40 is the position immediately after the subject 500 has passed through the fog display 33. Therefore, even when the subject 500 captures an image while moving as described above, an appropriate iris image can be acquired.
  • the presentation example of the information regarding the imaging region is not limited to the eye mark as shown in FIGS. 6 and 7.
  • variations of presentation examples of information regarding the imaging region will be described with reference to FIGS. 8 to 14.
  • FIG. 8 is an image diagram showing a rectangular frame as a presentation example of the imaging region. In this way, even when the rectangular frame is shown instead of the eye mark, the subject 500 can grasp where to look.
  • FIG. 9 is an image diagram showing an elliptical frame as a presentation example of the imaging region. In this way, even when the elliptical frame is shown, the subject 500 can grasp where to look, as in the example of FIG.
  • FIG. 10 is an image diagram showing a frame corresponding to the contour of the face as a presentation example of the imaging region.
  • FIG. 11 is an image diagram showing a frame corresponding to the contour of the upper body as a presentation example of the imaging region.
  • the subject 500 can grasp where the upper body should be passed.
  • the eyes of the subject 500 pass through the imaging region.
  • the display position of the frame may be set based on the relationship between the upper body area and the eye position.
  • FIG. 12 is an image diagram showing a frame corresponding to the contour of the whole body as a presentation example of the imaging region.
  • the subject 500 can grasp where to pass his / her body.
  • the eyes of the subject 500 pass through the imaging region.
  • the display position of the frame may be set based on the relationship between the whole body area and the eye position.
  • the contour selected from the template prepared in advance may be used, or the contour estimated from the image of the target person 500 may be used.
  • FIG. 13 is an image diagram showing a range corresponding to the width of the region as a presentation example of the imaging region.
  • FIG. 14 is an image diagram showing a range corresponding to the vertical width of the region as a presentation example of the imaging region.
  • the information presentation system 10 presents information about the imaging region at a position overlapping the target person 500. More specifically, the display is performed so that the position of the biological portion to be imaged for use in biometric authentication and the information regarding the imaging region overlap. As a result, the subject 500 can be guided to an appropriate position, and an image of the biological part used for biometric authentication can be appropriately acquired.
  • Such a technical effect is an authentication process performed while the target person 500 is moving, such as walk-through authentication (for example, an authentication process that cannot be made in time if the target person 500 is in focus according to the movement of the target person 500). ) Is noticeably exhibited. Specifically, since the subject himself / herself grasps the position of the imaging region and moves to an appropriate position by himself / herself, it is possible to acquire an image suitable for the authentication process without adjusting the imaging region on the system side.
  • the fog generator 32 is used as the display device 30 .
  • a device other than the fog generator 32 is adopted. You can also do it.
  • the image pickup area is projected on the fog display 33, but instead of projecting the image pickup area, the width of the fog display 33 generated by the fog generator 32 may be adjusted.
  • the fog generator 32 receives information about the imaging region from the information presentation system 10.
  • the fog generator 32 adjusts the width of the fog display 33 based on the received information about the imaging region.
  • the width of the adjusted fog display 33 may be a width that matches the width of the imaging region, or may be a width that matches the width of the body of the subject 500.
  • the subject 500 can intuitively grasp the width of the imaging region by visually recognizing the fog display 33 whose width has been adjusted.
  • the subject may be notified by display or voice that the width of the fog display 33 corresponds to the width of the imaging region.
  • the subject 500 adjusts its position and passes through the fog display 33 so that the eye region passes through the width-adjusted fog display 33.
  • the width of the fog display 33 can be adjusted even when the fog generator 32 does not receive information regarding the imaging region.
  • the control unit that controls the fog generator 32 receives information about the imaging region from the information presentation system 10, and the control unit controls the fog generator 32 according to the information about the imaging region to reduce the width of the fog display 33. You may adjust.
  • the authentication system 1 may include a gate through which the subject 500 passes if the authentication is successful.
  • the gate is closed so that the subject 500 cannot pass through until the authentication is successful. If the authentication is successful, the gate is opened so that the target person 500 can pass through. Further, the gate may be always open and may be closed when authentication fails.
  • the authentication system 1 may include a camera or a sensor for performing tailgating detection or lost-and-found detection.
  • the information presentation system 10 projects an image or a sentence indicating that the person is tailgating or has something left behind on the fog display 33 based on the detection result.
  • Appendix 1 The information presentation system described in Appendix 1 sets a specific means for identifying the position of the living body part used for authentication from the information of the subject and an imaging region for imaging the living body part according to the specified position of the living body part.
  • the information presentation system is characterized by including a setting means for setting and a presentation means for presenting information indicating the imaging region at a position overlapping the living body portion.
  • Appendix 2 The information presentation system according to Appendix 2 is the information presentation system according to Appendix 1, wherein the presentation means presents information indicating the imaging region at a position where the subject can pass.
  • Appendix 3 The information presentation system according to Appendix 3 is the information presentation system according to Appendix 2, wherein the presentation means presents information indicating the imaging region by projection on a fog display.
  • the information presentation system according to Supplementary note 4 is any one of Supplementary notes 1 to 3, wherein the presentation means presents information indicating the image pickup area in the vicinity of the focus position of the image pickup means for imaging the image pickup area.
  • Appendix 6 The information presentation system according to Appendix 6 is characterized in that the identifying means detects a face region including the subject's face from the image of the subject and identifies the position of the living body portion. It is an information presentation system described in.
  • Appendix 7 The information presentation system according to Appendix 7, wherein the specifying means specifies the position of the eye used for iris recognition as the position of the living body portion, and the information according to any one of Appendix 1 to 6. It is a presentation system.
  • Appendix 8 In the information presentation method described in Appendix 8, the position of the living body part used for authentication is specified from the information of the subject, and the imaging region for imaging the living body part is set according to the position of the specified living body part. It is an information presentation method characterized by presenting information indicating the imaging region at a position overlapping the living body portion.
  • Appendix 9 The computer program described in Appendix 9 identifies the position of the living body part used for authentication from the information of the subject, sets the imaging region for imaging the living body part according to the position of the specified living body part, and describes the above. It is a computer program characterized by operating a computer so as to present information indicating the imaging region at a position overlapping a living body portion.
  • the authentication system sets a specific means for specifying the position of the living body part used for authentication from the information of the target person and an imaging region for imaging the living body part according to the specified position of the living body part.
  • Setting means to be used presenting means for presenting information indicating the imaging region at a position overlapping the living body portion, imaging means for capturing the imaging region and acquiring an image of the living body portion, and an image of the living body portion.
  • the authentication system is provided with an authentication means for authenticating the target person based on the above.
  • the present invention can be appropriately modified within the scope of claims and within a range not contrary to the gist or idea of the invention that can be read from the entire specification, and an information presentation system, an information presentation method, a computer program, and a computer program accompanied by such changes.
  • the authentication system is also included in the technical idea of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

情報提示システム(10)は、対象者(500)の情報から認証に用いる生体部分の位置を特定する特定手段(101)と、生体部分を撮像する撮像領域を、特定された生体部分の位置に応じて設定する設定手段(102)と、生体部分と重なる位置に、撮像領域を示す情報を提示する提示手段(103)と備える。このような情報提示システムによれば、生体認証に関する情報を対象者に適切に提示することができるため、認証処理を正常に実施することが可能となる。

Description

情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム
 本発明は、生体認証に関する情報を提示する情報提示システム、情報提示方法、コンピュータプログラム、及び認証システムの技術分野に関する。
 この種のシステムとして、生体認証の対象者を認証処理が正常に実行できる位置に誘導するものが知られている。例えば特許文献1では、利用者を認識有効エリアに誘導するガイダンスを出力する技術が開示されている。特許文献2では、被写体を合焦範囲に誘導するための表示を行う技術が開示されている。特許文献3では、LEDを用いて認証者を誘導する技術が開示されている。
 その他の関連する技術として、例えば特許文献4では、フォグスクリーンに映像を表示する技術が開示されている。
特開2000-259817号公報 特開2007-209646号公報 国際公開第2009/016846号 国際公開第2007/132500号
 動いている被写体を撮像して認証する場合、被写体が撮像範囲に来てからピントを合わせていては間に合わないため、予め撮影したい領域にピントを合わせておき、その領域を被写体が通過する際に画像を撮像する手法が用いられることがある。しかしながら、被写体が撮像する領域を認識できない場合、撮像領域に被写体を収めることは容易ではなく、認証を正常に行えないおそれがある。上述した各引用文献は、撮像領域に関する情報を正確に伝達するという点で改善の余地がある。
 本発明は、上記問題点に鑑みてなされたものであり、生体認証に関する情報を対象者に適切に提示することが可能な情報提示システム、情報提示方法、及びコンピュータプログラムを提供することを課題とする。
 本発明の情報提示システムの一の態様は、対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段とを備える。
 本発明の情報提示方法の一の態様は、対象者の情報から認証に用いる生体部分の位置を特定し、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する。
 本発明のコンピュータプログラムの一の態様は、対象者の情報から認証に用いる生体部分の位置を特定し、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示するようにコンピュータを動作させる。
 本発明の認証システムの一の態様は、対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段と、前記撮像領域を撮像して前記生体部分の画像を取得する撮像手段と、前記生体部分の画像に基づいて、前記対象者の認証を行う認証手段とを備える。
 上述した情報提示システム、情報提示方法、コンピュータプログラム、及び認証システムのそれぞれの一の態様によれば、生体認証に関する情報を対象者に適切に提示することが可能である。これにより、例えば生体認証を正常に実施することが容易となる。
実施形態に係る情報提示装置の機能的構成を示すブロック図である。 実施形態に係る情報提示システムのハードウェア構成を示すブロック図である。 実施形態に係る認証システムの全体構成を示すブロック図である。 実施形態に係る認証システムの動作の流れを示すフローチャートである。 実施形態に係る認証システムの動作例を示すイメージ図である。 撮像領域の提示例として目のマークを示すイメージ図である。 撮像領域表示と対象者との重なりを示すイメージ図である。 撮像領域の提示例として長方形の枠を示すイメージ図である。 撮像領域の提示例として楕円形の枠を示すイメージ図である。 撮像領域の提示例として顔の輪郭に対応する枠を示すイメージ図である。 撮像領域の提示例として上半身の輪郭に対応する枠を示すイメージ図である。 撮像領域の提示例として全身の輪郭に対応する枠を示すイメージ図である。 撮像領域の提示例として領域の横幅に対応する範囲を示すイメージ図である。 撮像領域の提示例として領域の縦幅に対応する範囲を示すイメージ図である。
 以下、図面を参照しながら、情報提示システム、情報提示方法、コンピュータプログラム、及び認証システムの実施形態について説明する。
 <情報提示システム>
 本実施形態に係る情報提示システムの構成について、図1及び図2を参照して説明する。
 (機能的構成)
 まず、図1を参照しながら、本実施形態に係る情報提示システムの機能的構成について説明する。図1は、実施形態に係る情報提示装置の機能的構成を示すブロック図である。
 図1において、情報提示装置10は、生体認証に関する情報を対象者に提示するための装置として構成されている。情報提示装置10は、その機能を実現するための処理ブロックとして、位置特定部101と、領域設定部102と、情報出力部103とを備えている。
 位置特定部101は、対象者の情報(具体的には、対象者の画像等)に基づいて、生体認証に用いる生体部分の位置を特定可能に構成されている。位置特定部101は、例えば対象者の全身が撮像された画像から、認証に用いる生体部分の位置(例えば、高さや横位置等)を特定する。例えば、後述する認証システム1で虹彩認証が行われる場合、位置特定部101は対象者の目の位置を特定すればよい。なお、生体部分の位置を特定するための具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。
 領域設定部102は、位置特定部101で特定された生体部分の位置に基づいて、生体認証に用いる画像の撮像領域(言い換えれば、撮像ポイント)を設定可能に構成されている。即ち、領域設定部102は、後述する撮像装置40で対象者の生体部分を適切に撮像できるように、特定された生体部分の位置に応じた撮像領域を設定する。領域設定部102は、例えば、特定された生体部分の位置が比較的高い位置である場合には、通常よりも高い位置に撮像領域を設定する一方で、特定された生体部分の位置が比較的低い位置である場合には、通常よりも低い位置に撮像領域を設定する。
 情報出力部103は、領域設定部102で設定された撮像領域に関する情報を出力可能に構成されている。撮像領域に関する情報は、少なくとも撮像領域の位置に関する情報を含んでいる。その他、撮像領域に関する情報は、対象者に対して伝えるべき各種情報(例えば、生体認証に際しての指示内容等)を含んでいていてもよい。情報出力部103は、撮像領域に関する情報を、後述する表示装置30及び撮像装置40に出力する。
 (ハードウェア構成)
 次に、図2を参照しながら、本実施形態に係る情報提示システム10のハードウェア構成について説明する。図2は、実施形態に係る情報提示システムのハードウェア構成を示すブロック図である。
 図2に示すように、本実施形態に係る情報提示システム10は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。情報提示システム10は更に、入力装置15と、出力装置16とを備えていてもよい。CPU11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とは、データバス17を介して接続されている。
 CPU11は、コンピュータプログラムを読み込む。例えば、CPU11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、CPU11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。CPU11は、ネットワークインタフェースを介して、情報提示システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。CPU11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、CPU11が読み込んだコンピュータプログラムを実行すると、CPU11内には、生体認証に関する情報を提示するための機能ブロックが実現される。
 RAM12は、CPU11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、CPU11がコンピュータプログラムを実行している際にCPU11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
 ROM13は、CPU11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
 記憶装置14は、情報提示システム10が長期的に保存するデータを記憶する。記憶装置14は、CPU11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報提示システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
 出力装置16は、情報提示システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報提示システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。
 <認証システム>
 次に、上述した情報提示システム10を含んで構成される認証システムについて、図3から図14を参照して説明する。
 (システム構成)
 まず、図3を参照しながら、本実施形態に係る認証システムの全体構成について説明する。図3は、実施形態に係る認証システムの全体構成を示すブロック図である。
 図1において、本実施形態に係る認証システム1は、対象者の生体部分の画像を用いた認証処理(所謂、生体認証)を実行するシステムとして構成されている。認証システム1は、すでに説明した情報提示システム10(図1参照)と、検出装置20と、表示装置30と、撮像装置40と、認証装置50とを備えている。
 検出装置20は、例えばカメラを含んで構成されており、生体認証を行う対象者に関する情報を検出可能に構成されている。また、検出装置20は、例えばカメラを含んで構成されており、生体認証に用いる生体部分を撮像できる位置に配置されている。或いは、検出装置20は、対象者の生体部分の位置を特定できるものであれば、カメラ以外の各種センサとして構成されていてもよい。検出装置20で検出された情報は、情報提示システム10の位置特定部101に出力される構成となっている。
 表示装置30は、情報出力部103から出力された撮像領域に関する情報を表示することで、対象者に撮像領域の位置を提示可能に構成されている。また、本実施形態に係る表示装置30は特に、対象者に重なる位置に撮像領域に関する情報を表示可能に構成されている。なお、表示装置30は、対象者が通過可能な媒体に情報を表示できることが好ましい。表示装置30は、例えば投影装置と、投影装置からの光が投影可能な霧ディスプレイを発生させる霧発生装置とを含んで構成されており、霧ディスプレイ上に撮像領域に関する情報を投影する。表示装置30による具体的な表示例については、後に詳しく説明する。
 撮像装置40は、対象者(特に、認証に用いる生体部分)を撮像して、生体認証に用いる画像を取得可能に構成されている。撮像装置40は、例えば対象者の虹彩を撮像する虹彩カメラとして構成されている。また、本実施形態に係る撮像装置40は特に、領域設定部102の設定内容に応じて撮像領域が可変とされている。例えば、撮像装置40は、撮像領域が互いに異なる複数のカメラを備えて構成されており、領域設定部102の設定内容に応じて撮像に用いるカメラを選択する。撮像装置40は、情報出力部103から出力される撮像領域に関する情報に基づいて、撮像領域を変更する。撮像装置40で撮像された画像は、認証装置50に出力される構成となっている。
 認証装置50は、撮像装置40で撮像された画像に基づいて、対象者の生体認証を実行する。認証装置50は、例えば対象者の虹彩の画像を用いた虹彩認証を実行可能に構成されている。ただし、認証装置50が実行する認証処理は、対象者の生体の一部を用いるものであればよく、その種類が特に限定されるものではない。なお、認証装置50が実行する認証処理の具体的な処理内容については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。
 (動作の流れ)
 次に、図4を参照しながら、本実施形態に係る認証システム1の動作の流れについて説明する。図4は、本実施形態に係る認証システムの動作の流れを示すフローチャートである。以下では、認証システム1が、対象者の画像から目の位置を検出して、虹彩認証を実行する例を挙げて説明する。
 図4に示すように、本実施形態に係る認証システム1の動作時には、まず検出装置20が、認証処理を受けようとしている対象者の画像を取得する(ステップS101)。続いて、位置特定部101は、検出装置20で取得された画像から、対象者の顔領域を検出可能であるか否かを判定する(ステップS102)。なお、ここでの「顔領域の検出」は、対象者の目の位置を特定するために実行されるものである。顔領域の検出方法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。
 顔領域を検出できないと判定された場合(ステップS102:NO)、位置特定部101は顔領域の検出をリトライするか否か判定する(ステップS201)。そして、リトライすると判定した場合(ステップS201:YES)、再びステップS101から処理を実行する。一方で、リトライしないと判定した場合(ステップS201:NO)、情報出力部103が、係員(例えば、認証システム1が設けられる設備のスタッフ等)への案内に関する情報を出力する(ステップS202)。これにより、表示装置30が、対象者を係員の元へ誘導するような画像を投影する(ステップS203)。この場合、認証システム1による生体認証は実行されず、係員による認証作業等が別途実施されることになる。
 他方、顔領域を検出できると判定された場合(ステップS102:YES)、位置特定部101は、対象者の画像から顔領域を検出し、その顔領域に含まれる目の位置を特定する(ステップS103)。目の位置は、例えば予め記憶させておいた顔領域と目の位置との関係を用いて特定できる。続いて、領域設定部102が、特定された目の位置に応じて撮像領域を設定する(ステップS104)。その後、情報出力部103が、撮像領域に関する情報を表示装置30及び撮像装置40にそれぞれ出力する(ステップS105)。
 撮像領域に関する情報を受け取った表示装置30は、対象者に対して撮像装置40の撮像領域に関する情報を提示する(ステップS106)。例えば表示装置30は、虹彩画像を撮像する撮像領域の具体的な位置を示す情報を表示する。これにより、対象者は、撮像装置40の撮像領域がどこにあるのか(言い換えれば、どこで認証用の画像が撮像されるのか)を知ることができる。これにより、撮像領域に向けて対象者を誘導することができる。
 その後、撮像装置40は、設定された撮像領域に対応するカメラで対象者の虹彩画像を撮像する(ステップS107)。撮像装置40は、例えば表示装置30による撮像領域に関する表示が開始されてから所定時間の間、虹彩画像の撮像を行う。或いは、撮像装置40は、各種センサ等で対象者が所定の位置に到達したことを検出した場合に、虹彩画像を撮像するようにしてもよい。虹彩画像が撮像されると、その画像を用いて認証装置50が認証処理(即ち、虹彩認証)を実行する(ステップS108)。
 (具体的な動作例)
 次に、図5から図7を参照しながら、本実施形態に係る認証システム1の動作例について、具体的に説明する。図5は、実施形態に係る認証システムの動作例を示すイメージ図である。図6は、撮像領域の提示例として目のマークを示すイメージ図である。図7は、撮像領域表示と対象者との重なりを示すイメージ図である。
 図5に示すように、ここでの表示装置30は、投影装置31と、霧発生装置32とを備えて構成されている。投影装置31は、霧発生装置32で発生された霧ディスプレイ33に適宜画像を表示させることが可能である。なお、霧発生装置32は、認証処理の対象者500の移動経路上(例えば、施設の入場ゲート付近等)に霧ディスプレイ33を発生可能に配置されている。霧ディスプレイ33は、対象者500が通過可能である。なお、霧発生装置32には、検出装置20が設けられており、霧ディスプレイ33に近づく対象者500の画像を撮像可能となっている。また、霧ディスプレイ33を通過した先には撮像装置40が設けられており、霧ディスプレイ33を通過した直後の対象者500の画像(ここでは、虹彩画像)を撮像可能となっている。撮像装置40は、撮像領域の高さが異なる3つのカメラを備えている。検出装置20、投影装置31、撮像装置40の各々は、情報提示システム10と有線又は無線で通信可能とされている。
 図5に示す認証システム1の動作時には、まず検出装置20が、霧ディスプレイ33に接近する対象者500の画像(例えば、対象者500の顔を含む画像)を撮像する。この画像は、情報提示システム10に送信される。
 続いて、情報提示システム10は、対象者500の画像から顔領域を検出し、対象者500の目の位置を特定する。情報提示システム10は、例えば対象者500の目の位置を、「高い」、「普通」、「低い」の三段階で判定する。そして、情報提示装置10は、特定された目の位置に応じて撮像領域を設定する。具体的には、目の位置が「高い」と判定された場合には、最も高い位置を撮像領域とするカメラが選択され、そのカメラで対象者500の虹彩画像を撮像するように設定される。目の位置が「普通」と判定された場合には、二番目に高い位置を撮像領域とするカメラが選択され、そのカメラで対象者500の虹彩画像を撮像するように設定される。目の位置が「低い」と判定された場合には、最も低い位置を撮像領域とするカメラが選択され、そのカメラで対象者500の虹彩画像を撮像するように設定される。
 一方、投影装置31は、霧ディスプレイ33における設定された撮像領域に対応する部分に、撮像領域に関する情報を投影する。即ち、投影装置31は、選択されたカメラの撮像領域に対応する位置に、撮像領域に関する情報を投影する。具体的には、最も高い位置を撮像領域とするカメラが選択された場合には、霧ディスプレイの比較的高い第1の位置に撮像領域に関する情報が投影される。二番目に高い位置を撮像領域とするカメラが選択された場合には、霧ディスプレイの比較的中央付近の第2の位置に撮像領域に関する情報が投影される。最も低い位置を撮像領域とするカメラが選択された場合には、霧ディスプレイの比較的低い第3の位置に撮像領域に関する情報が投影される。これにより対象者500は、撮像領域に関する表示の位置(ここでは、高さ)によって、撮像領域が具体的にどの部分であるのかを把握することができる。
 なお、上記は第1~第3の位置の3段階の位置に撮像領域を投影可能としているが、投影される位置は適宜設定されてもよい。すなわち、カメラで撮像可能な位置であれば、対象者500の体型、身長、または目の位置に応じて撮像領域を表示する位置を決定してもよい。
 また、上述した実施形態では、3台のカメラから1台のカメラを選択することで撮像領域を変化させているが、その他の方法で撮像領域を変化させてもよい。例えば、カメラの撮像可能領域から一部の領域だけを抜き出して、その領域だけで撮像するような処理(所謂、ROI:Region Of Interest)を実行してもよい。この場合、撮像領域の位置を1ピクセル単位で上下左右に変更することも可能である。ROIで一部の領域のみを撮像することで、高精細な画像を取得しつつ、処理負荷を低減することができる。よって、虹彩認証に必要な情報量を担保しつつ、リアルタイムな認証処理を実現することが可能である。
 図6に示すように、撮像領域に関する情報は、文字や画像を含んで表示される。図6に示す表示例では、目のマークが表示されると共に、目のマークの位置に目を通すように指示が表示されている。このような表示を見た対象者500は、仮に自分の目の位置が撮像装置40の撮像領域からずれていた場合、自ら移動して、自分の目の位置と目のマークの位置とを合わせようとする。このように、撮像領域に関する情報を対象者500に重なる位置に表示すれば、対象者500を適切な位置(即ち、正常に虹彩画像が撮像できる位置)に誘導することができる。
 図7に示すように、対象者500が誘導された結果、対象者500の目の位置は、撮像装置40の撮像領域に収まる。よって、対象者500が霧ディスプレイ33を通過した直後に撮像装置40による撮像を行うことで、認証処理に適した虹彩画像を取得することができる。なお、撮像領域に関する情報は、撮像装置40のピント位置の近傍に表示される(例えば、撮像装置40と霧ディスプレイ33との間隔が予め調整されている)。好ましくは、撮像装置40のピント位置は、対象者500が霧ディスプレイ33を通過した直後の位置となるように撮像装置40や霧発生装置32は配置される。このため、上述したように対象者500が移動しながら画像を撮像する場合であっても、適切な虹彩画像を取得することができる。
 なお、撮像領域に関する情報の提示例は、図6及び図7に示すような目のマークに限られない。以下では、図8から図14を参照しながら、撮像領域に関する情報の提示例のバリエーションについて説明する。
 図8は、撮像領域の提示例として長方形の枠を示すイメージ図である。このように、目のマークではなく長方形の枠を示した場合であっても、対象者500は、どこに目を通せばよいのかを把握することができる。
 図9は、撮像領域の提示例として楕円形の枠を示すイメージ図である。このように、楕円形の枠を示した場合であっても、図8の例と同様、対象者500は、どこに目を通せばよいのかを把握することができる。
 図10は、撮像領域の提示例として顔の輪郭に対応する枠を示すイメージ図である。このように、顔の輪郭に対応する枠を表示するようにすれば、対象者500は、どこに顔を通せばよいか把握できる。この場合、対象者500が顔を枠内に通すように移動する結果、対象者500の目が撮像領域を通過することになる。なお、枠の表示位置は、顔領域と目の位置との関係に基づいて設定されればよい。
 図11は、撮像領域の提示例として上半身の輪郭に対応する枠を示すイメージ図である。このように、上半身の輪郭に対応する枠を表示するようにすれば、対象者500は、どこに上半身を通せばよいか把握できる。この場合、対象者500が上半身を枠内に通すように移動する結果、対象者500の目が撮像領域を通過することになる。なお、枠の表示位置は、上半身領域と目の位置との関係に基づいて設定されればよい。
 図12は、撮像領域の提示例として全身の輪郭に対応する枠を示すイメージ図である。このように、全身の輪郭に対応する枠を表示するようにすれば、対象者500は、どこに自分の体を通せばよいか把握できる。この場合、対象者500が自分の体を枠内に通すように移動する結果、対象者500の目が撮像領域を通過することになる。なお、枠の表示位置は、全身領域と目の位置との関係に基づいて設定されればよい。
 図10から図12に示すような輪郭を表示する場合、予め用意されたテンプレートから選択した輪郭を利用してもよいし、対象者500の画像から推定された輪郭を利用してもよい。
 図13は、撮像領域の提示例として領域の横幅に対応する範囲を示すイメージ図である。このように表示すれば、目の位置の調整が横方向だけでよい場合に、対象者500による目の位置の調整をスムーズに行える。具体的には、対象者500は横方向の位置を意識するだけでよい(言い換えれば、縦方向の位置は意識せずともよい)ため、調整に要する負担が軽減される。
 図14は、撮像領域の提示例として領域の縦幅に対応する範囲を示すイメージ図である。
このように表示すれば、目の位置の調整が縦方向だけでよい場合に、対象者500による目の位置の調整をスムーズに行える。具体的には、対象者500は縦方向の位置を意識するだけでよい(言い換えれば、横方向の位置は意識せずともよい)ため、調整に要する負担が軽減される。
 (技術的効果)
 次に、本実施形態に係る認証システム1によって得られる技術的効果について説明する。
 図1から図14で説明したように、本実施形態に係る認証システム1では、情報提示システム10によって、対象者500と重なる位置に撮像領域に関する情報が提示される。より具体的には、生体認証に用いるために撮像すべき生体部分の位置と、撮像領域に関する情報とが重なるように表示が行われる。これにより、対象者500を適切な位置へと誘導し、生体認証に用いる生体部分の画像を適切に取得することができる。このような技術的効果は、例えばウォークスルー認証のような、対象者500が移動する状態で行う認証処理(例えば、対象者500の動きに応じてピントを合わせていては間に合わないような認証処理)において顕著に発揮される。具体的には、対象者自身が撮像領域の位置を把握し、自ら適切な位置に移動するため、システム側で撮像領域を調整せずとも、認証処理に適した画像を取得することができる。
 なお、上述した実施形態では、表示装置30として霧発生装置32を用いる例を挙げて説明したが、対象者500と重なる位置に表示を行えるものであれば、霧発生装置32以外の装置を採用することもできる。
 <変形例1>
 上述した実施形態では、霧ディスプレイ33に撮像領域を投影しているが、撮像領域を投影する代わりに、霧発生装置32が発生させる霧ディスプレイ33の幅を調整してもよい。この場合、霧発生装置32が撮像領域に関する情報を情報提示システム10から受け取る。霧発生装置32は、受け取った撮像領域に関する情報に基づき、霧ディスプレイ33の幅を調整する。ここで、調整後の霧ディスプレイ33の幅は、撮像領域の幅に合わせた幅でもよいし、対象者500の体の幅に合わせた幅でもよい。対象者500は、幅が調整された霧ディスプレイ33を視認することで、撮像領域の幅を直感的に把握することができる。或いは、霧ディスプレイ33の幅が撮像領域の幅に対応していることを、対象者に表示又は音声で知らせるようにしてもよい。このようにすれば、対象者500は、目領域が、幅が調整された霧ディスプレイ33を通過するよう、自身の位置を調整して霧ディスプレイ33を通過する。
 なお、霧発生装置32が撮像領域に関する情報を受け取らない場合でも、霧ディスプレイ33の幅を調整することができる。例えば、霧発生装置32を制御する制御部が撮像領域に関する情報を情報提示システム10から受け取り、制御部が撮像領域に関する情報に応じて霧発生装置32を制御することで、霧ディスプレイ33の幅を調整してもよい。
 <変形例2>
 認証システム1は、認証が成功した場合に対象者500が通過するゲートを含んでいてもよい。ゲートは認証が成功するまでは対象者500が通過できないよう閉じた状態である。認証が成功すると、ゲートは対象者500が通過できるよう開状態となる。また、ゲートは常に開状態であり、認証が失敗した場合に閉じるような構成でもよい。
 また、対象者500の目領域の撮影が完了してから、当該対象者500がゲートを通過するまでの間、他の対象者の認証ができないことを示す情報(例えば、通り抜けできないこと示したり、認証処理が行えないことを示したりするマークや文章)を霧ディスプレイ33に投影してもよい。
 <変形例3>
 上述した実施形態に加え、認証システム1は、共連れ検知や忘れ物検知を行うためのカメラやセンサを備えていてもよい。この場合、情報提示システム10は、検知結果に基づき、霧ディスプレイ33に、共連れであることや忘れ物があることを示す画像や文章を投影する。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報提示システムは、対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段とを備えることを特徴とする情報提示システムである。
 (付記2)
 付記2に記載の情報提示システムは、前記提示手段は、前記対象者が通過可能な位置に前記撮像領域を示す情報を提示することを特徴とする付記1に記載の情報提示システムである。
 (付記3)
 付記3に記載の情報提示システムは、前記提示手段は、霧ディスプレイへの投影により前記撮像領域を示す情報を提示することを特徴とする付記2に記載の情報提示システムである。
 (付記4)
 付記4に記載の情報提示システムは、前記提示手段は、前記撮像領域を撮像する撮像手段のピント位置の近傍に前記撮像領域を示す情報を提示することを特徴とする付記1から3のいずれか一項に記載の情報提示システムである。
 (付記5)
 付記5に記載の情報提示システムは、前記特定手段は、前記対象者の画像を用いて前記生体部分の位置を特定することを特徴とする付記1から4のいずれか一項に記載の情報提示システムである。
 (付記6)
 付記6に記載の情報提示システムは、前記特定手段は、前記対象者の画像から前記対象者の顔を含む顔領域を検出して、前記生体部分の位置を特定することを特徴とする付記5に記載の情報提示システムである。
 (付記7)
 付記7に記載の情報提示システムは、前記特定手段は、前記生体部分の位置として、虹彩認証に用いる目の位置を特定することを特徴とする付記1から6のいずれか一項に記載の情報提示システムである。
 (付記8)
 付記8に記載の情報提示方法は、対象者の情報から認証に用いる生体部分の位置を特定し、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示することを特徴とする情報提示方法である。
 (付記9)
 付記9に記載のコンピュータプログラムは、対象者の情報から認証に用いる生体部分の位置を特定し、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示するようにコンピュータを動作させることを特徴とするコンピュータプログラムである。
 (付記10)
 付記10に記載の認証システムは、対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段と、前記撮像領域を撮像して前記生体部分の画像を取得する撮像手段と、前記生体部分の画像に基づいて、前記対象者の認証を行う認証手段とを備えることを特徴とする認証システムである。
 本発明は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報提示システム、情報提示方法、コンピュータプログラム、及び認証システムもまた本発明の技術思想に含まれる。
 1 認証システム
 10 情報提示システム
 20 検出装置
 30 表示装置
 31 投影装置
 32 霧発生装置
 33 霧ディスプレイ
 40 撮像装置
 50 認証装置
 101 位置特定部
 102 領域設定部
 103 情報出力部
 500 対象者

Claims (10)

  1.  対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、
     前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、
     前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段と
     を備えることを特徴とする情報提示システム。
  2.  前記提示手段は、前記対象者が通過可能な位置に前記撮像領域を示す情報を提示することを特徴とする請求項1に記載の情報提示システム。
  3.  前記提示手段は、霧ディスプレイへの投影により前記撮像領域を示す情報を提示することを特徴とする請求項2に記載の情報提示システム。
  4.  前記提示手段は、前記撮像領域を撮像する撮像手段のピント位置の近傍に前記撮像領域を示す情報を提示することを特徴とする請求項1から3のいずれか一項に記載の情報提示システム。
  5.  前記特定手段は、前記対象者の画像を用いて前記生体部分の位置を特定することを特徴とする請求項1から4のいずれか一項に記載の情報提示システム。
  6.  前記特定手段は、前記対象者の画像から前記対象者の顔を含む顔領域を検出して、前記生体部分の位置を特定することを特徴とする請求項5に記載の情報提示システム。
  7.  前記特定手段は、前記生体部分の位置として、虹彩認証に用いる目の位置を特定することを特徴とする請求項1から6のいずれか一項に記載の情報提示システム。
  8.  対象者の情報から認証に用いる生体部分の位置を特定し、
     前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、
     前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する
     ことを特徴とする情報提示方法。
  9.  対象者の情報から認証に用いる生体部分の位置を特定し、
     前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定し、
     前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する
     ようにコンピュータを動作させることを特徴とするコンピュータプログラム。
  10.  対象者の情報から認証に用いる生体部分の位置を特定する特定手段と、
     前記生体部分を撮像する撮像領域を、特定された前記生体部分の位置に応じて設定する設定手段と、
     前記生体部分と重なる位置に、前記撮像領域を示す情報を提示する提示手段と、
     前記撮像領域を撮像して前記生体部分の画像を取得する撮像手段と、
     前記生体部分の画像に基づいて、前記対象者の認証を行う認証手段と
     を備えることを特徴とする認証システム。
PCT/JP2019/047433 2019-12-04 2019-12-04 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム WO2021111548A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19954990.8A EP4071701A4 (en) 2019-12-04 2019-12-04 INFORMATION PRESENTATION SYSTEM, INFORMATION PRESENTATION METHOD, COMPUTER PROGRAM AND AUTHENTICATION SYSTEM
US17/781,105 US20220406095A1 (en) 2019-12-04 2019-12-04 Information presenting system, information presenting method, computer program, and authentication system
JP2021562253A JPWO2021111548A1 (ja) 2019-12-04 2019-12-04
PCT/JP2019/047433 WO2021111548A1 (ja) 2019-12-04 2019-12-04 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/047433 WO2021111548A1 (ja) 2019-12-04 2019-12-04 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム

Publications (1)

Publication Number Publication Date
WO2021111548A1 true WO2021111548A1 (ja) 2021-06-10

Family

ID=76221133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/047433 WO2021111548A1 (ja) 2019-12-04 2019-12-04 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム

Country Status (4)

Country Link
US (1) US20220406095A1 (ja)
EP (1) EP4071701A4 (ja)
JP (1) JPWO2021111548A1 (ja)
WO (1) WO2021111548A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259817A (ja) 1999-03-08 2000-09-22 Oki Electric Ind Co Ltd アイリス認識装置
JP2007209646A (ja) 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd 誘導装置、撮影装置および認証装置ならびに誘導方法
WO2007132500A1 (ja) 2006-05-11 2007-11-22 Mitsubishi Denki Kabushiki Kaisha エレベータの情報表示システム
WO2009016846A1 (ja) 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
CN105824421A (zh) * 2016-03-21 2016-08-03 北京上古视觉科技有限公司 基于全息投影交互方式的多模态生物识别系统及方法
JP2017150408A (ja) * 2016-02-25 2017-08-31 株式会社東芝 蒸気タービン起動支援システム
WO2018003801A1 (ja) * 2016-06-29 2018-01-04 京セラ株式会社 オイリングノズル

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156468A (ja) * 2016-02-29 2017-09-07 株式会社ニコン 結像光学系、光学系、表示装置、電子機器、表示方法およびプログラム
CN105975933A (zh) * 2016-05-05 2016-09-28 上海聚虹光电科技有限公司 基于透明屏幕的虹膜识别系统
US20190243469A1 (en) * 2016-06-28 2019-08-08 Nikon Corporation Display device and control device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259817A (ja) 1999-03-08 2000-09-22 Oki Electric Ind Co Ltd アイリス認識装置
JP2007209646A (ja) 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd 誘導装置、撮影装置および認証装置ならびに誘導方法
WO2007132500A1 (ja) 2006-05-11 2007-11-22 Mitsubishi Denki Kabushiki Kaisha エレベータの情報表示システム
WO2009016846A1 (ja) 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2017150408A (ja) * 2016-02-25 2017-08-31 株式会社東芝 蒸気タービン起動支援システム
CN105824421A (zh) * 2016-03-21 2016-08-03 北京上古视觉科技有限公司 基于全息投影交互方式的多模态生物识别系统及方法
WO2018003801A1 (ja) * 2016-06-29 2018-01-04 京セラ株式会社 オイリングノズル

Also Published As

Publication number Publication date
JPWO2021111548A1 (ja) 2021-06-10
US20220406095A1 (en) 2022-12-22
EP4071701A4 (en) 2022-12-07
EP4071701A1 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
US8073206B2 (en) Face feature collator, face feature collating method, and program
US6690814B1 (en) Image processing apparatus and method
JP7452571B2 (ja) 生体認証装置、生体認証方法および生体認証プログラム
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP4476744B2 (ja) 撮像システム、及びプログラム
US20100157129A1 (en) Apparatus and method for capturing digital image using face recognition function
JP2013058828A (ja) 笑顔判定装置及び方法
KR20060119968A (ko) 형상 인식 장치 및 방법
JP2010117948A (ja) 表情判定装置、その制御方法、撮像装置及びプログラム
US20220139111A1 (en) Image processing apparatus, method, system, and computer readable medium
KR101596363B1 (ko) 얼굴 인식에 의한 출입관리장치 및 방법
US11734957B2 (en) Image processing apparatus, method, system, and computer readable medium
JP2019040472A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2024026287A (ja) 撮像システム、撮像方法及び撮像プログラム
US11983961B2 (en) Image processing apparatus, method, system, and computer readable medium
WO2021111548A1 (ja) 情報提示システム、情報提示方法、コンピュータプログラム、及び認証システム
US20230298386A1 (en) Authentication apparatus, authentication method, and recording medium
EP3929860A1 (en) Lighting control device, method, and system, and computer-readable medium
JP6494455B2 (ja) 映像処理装置、映像処理方法、及びプログラム
JP6873639B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP4057214A1 (en) Iris authentication device and iris authentication method
US11935328B2 (en) Image pick-up apparatus, method, system, and computer readable medium
KR102501665B1 (ko) 입술 움직임 정보 분석 방법 및 장치
US20230214010A1 (en) Information acquisition apparatus, information acquisition method, and storage medium
WO2023084667A1 (ja) 認証装置、エンジン生成装置、認証方法、エンジン生成方法、及び、記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19954990

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021562253

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019954990

Country of ref document: EP

Effective date: 20220704