WO2023166629A1 - 情報処理システム、情報処理方法、及び記録媒体 - Google Patents

情報処理システム、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2023166629A1
WO2023166629A1 PCT/JP2022/008942 JP2022008942W WO2023166629A1 WO 2023166629 A1 WO2023166629 A1 WO 2023166629A1 JP 2022008942 W JP2022008942 W JP 2022008942W WO 2023166629 A1 WO2023166629 A1 WO 2023166629A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information processing
camera
target
processing system
Prior art date
Application number
PCT/JP2022/008942
Other languages
English (en)
French (fr)
Inventor
有加 荻野
貴裕 戸泉
竜一 赤司
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/008942 priority Critical patent/WO2023166629A1/ja
Publication of WO2023166629A1 publication Critical patent/WO2023166629A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements

Definitions

  • This disclosure relates to the technical fields of information processing systems, information processing methods, and recording media.
  • Japanese Patent Application Laid-Open No. 2002-200001 discloses a technique for detecting that a subject has entered a predetermined distance range using a distance measurement sensor, and starting imaging when the subject has entered the predetermined distance range.
  • Patent Document 2 discloses acquiring a stereoscopic image based on images taken from a plurality of different viewpoints.
  • Patent Document 3 discloses that an image is captured when the corneal vertex of the subject's eye coincides with the intersection of the optical axes of the illumination optical system and the imaging optical system.
  • Patent Document 4 discloses displaying an object existing at the intersection of the optical axes of camera A and camera B on a screen.
  • the purpose of this disclosure is to improve the technology disclosed in prior art documents.
  • One aspect of the information processing system disclosed herein is an acquisition unit that acquires a first image and a second image captured so that optical axes intersect at a predetermined point; a position of a target in the first image; determining means for determining whether a difference between the position of the target in the two images is within a predetermined range; and control to capture an iris image of the target when the difference is within the predetermined range. and a control means for
  • At least one computer obtains a first image and a second image captured so that the optical axes intersect at a predetermined point, and the position of the object in the first image and the and the position of the target in the second image is within a predetermined range, and if the difference is within the predetermined range, an iris image of the target is captured. do.
  • One aspect of the recording medium of this disclosure acquires a first image and a second image captured so that the optical axes intersect at a predetermined point in at least one computer, and obtains a position of a target in the first image, determining whether or not a difference between the position of the target in the second image and the position of the target is within a predetermined range, and controlling to capture an iris image of the target when the difference is within the predetermined range.
  • a computer program for executing an information processing method is recorded.
  • FIG. 2 is a block diagram showing the hardware configuration of the information processing system according to the first embodiment
  • FIG. 1 is a block diagram showing a functional configuration of an information processing system according to a first embodiment
  • FIG. 3 is a top view showing optical axes of cameras in the information processing system according to the first embodiment
  • FIG. 4 is a plan view showing an example of a first image and a second image acquired by the information processing system according to the first embodiment
  • FIG. 4 is a flowchart showing the flow of operations of the information processing system according to the first embodiment
  • 9 is a flowchart showing the flow of operations of an information processing system according to the second embodiment
  • FIG. 11 is a plan view showing an example of a first image and a second image acquired by an information processing system according to a third embodiment; It is a top view which shows the trigger position and focus position in the information processing system which concerns on 4th Embodiment.
  • FIG. 14 is a flow chart showing the flow of operations of an information processing system according to the fourth embodiment;
  • FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a fifth embodiment;
  • FIG. 14 is a flow chart showing the flow of operations of an information processing system according to the fifth embodiment;
  • FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a sixth embodiment;
  • FIG. 21 is a top view showing an example arrangement of the first camera, the second camera, and the third camera in the information processing system according to the seventh embodiment
  • FIG. 20 is a top view showing an arrangement example of a first camera, a second camera, and a third camera in an information processing system according to an eighth embodiment
  • FIG. 21 is a front view showing an arrangement example of a fourth camera and mirrors in an information processing system according to a ninth embodiment
  • FIG. 21 is a plan view showing an example of a first image and a second image acquired by an information processing system according to a ninth embodiment
  • FIG. 21 is a top view showing an arrangement example of a fifth camera and mirrors in an information processing system according to a tenth embodiment
  • FIG. 21 is a plan view showing an example of a first image and a second image acquired by an information processing system according to a tenth embodiment
  • FIG. 22 is a block diagram showing a functional configuration of an information processing system according to an eleventh embodiment
  • FIG. FIG. 22 is a flow chart showing the flow of operations of the information processing system according to the eleventh embodiment
  • FIG. FIG. 22 is a flow chart showing the flow of operations of an information processing system according to a twelfth embodiment
  • FIG. FIG. 22 is a flow chart showing the flow of operations of an information processing system according to a thirteenth embodiment
  • FIG. FIG. 16 is a flow chart showing the flow of operations of an information processing system according to a fourteenth embodiment
  • FIG. FIG. 21 is a plan view showing an example of a first image and a second image acquired by an information processing system according to a fourteenth embodiment, and their search areas;
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 5.
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 5.
  • FIG. 1 is a block diagram showing the hardware configuration of an information processing system according to the first embodiment.
  • an information processing system 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device .
  • Information processing system 10 may further include an input device 15 and an output device 16 .
  • the information processing system 10 also includes a camera 18 .
  • the processor 11 , RAM 12 , ROM 13 , storage device 14 , input device 15 , output device 16 and camera 18 are connected via a data bus 17 .
  • the processor 11 reads a computer program.
  • processor 11 is configured to read a computer program stored in at least one of RAM 12, ROM 13 and storage device .
  • the processor 11 may read a computer program stored in a computer-readable recording medium using a recording medium reader (not shown).
  • the processor 11 may acquire (that is, read) a computer program from a device (not shown) arranged outside the information processing system 10 via a network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15 and the output device 16 by executing the read computer program.
  • the processor 11 implements a functional block for executing processing for capturing an image of the object. That is, the processor 11 may function as a controller that executes each control in the information processing system 10 .
  • the processor 11 includes, for example, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Demand-Side Platform), ASIC (Application Specific Integral ted circuit).
  • the processor 11 may be configured with one of these, or may be configured to use a plurality of them in parallel.
  • the RAM 12 temporarily stores computer programs executed by the processor 11.
  • the RAM 12 temporarily stores data temporarily used by the processor 11 while the processor 11 is executing the computer program.
  • the RAM 12 may be, for example, a D-RAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory). Also, instead of the RAM 12, other types of volatile memory may be used.
  • the ROM 13 stores computer programs executed by the processor 11 .
  • the ROM 13 may also store other fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable Read Only Memory) or an EPROM (Erasable Read Only Memory). Also, instead of the ROM 13, other types of non-volatile memory may be used.
  • the storage device 14 stores data that the information processing system 10 saves for a long period of time.
  • Storage device 14 may act as a temporary storage device for processor 11 .
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from the user of the information processing system 10 .
  • Input device 15 may include, for example, at least one of a keyboard, mouse, and touch panel.
  • the input device 15 may be configured as a mobile terminal such as a smart phone or a tablet.
  • the input device 15 may be a device capable of voice input including, for example, a microphone.
  • the output device 16 is a device that outputs information about the information processing system 10 to the outside.
  • the output device 16 may be a display device (eg, display) capable of displaying information regarding the information processing system 10 .
  • the output device 16 may be a speaker or the like capable of outputting information about the information processing system 10 by voice.
  • the output device 16 may be configured as a mobile terminal such as a smart phone or a tablet.
  • the output device 16 may be a device that outputs information in a format other than an image.
  • the output device 16 may be a speaker that outputs information about the information processing system 10 by voice.
  • the camera 18 is a camera installed at a location where an image of the target can be captured.
  • the object here is not limited to humans, and may include animals such as dogs, cats, snakes, and birds, robots, and the like.
  • the camera 18 may take an image of the entire object, or may take an image of part of the object.
  • the camera 18 may be a camera that captures still images or a camera that captures moving images.
  • the camera 18 may be configured as a visible light camera, or may be configured as a near-infrared camera.
  • a plurality of cameras 18 may be provided.
  • the multiple cameras 18 may be of the same type or of different types.
  • the camera 18 may have a function of automatically turning off the power when not capturing an image, for example. In this case, for example, the liquid lens, the motor, or the like having a short life may be preferentially turned off. A specific configuration of the camera 18 will be described in detail in another embodiment described later.
  • FIG. 1 exemplifies the information processing system 10 including a plurality of devices, all or part of these functions may be realized by one device (imaging device).
  • this imaging device is configured with only the processor 11, the RAM 12, the ROM 13, and the imaging unit 18 described above, and the other components (that is, the storage device 14, the input device 15, and the output device 16) are, for example, An external device connected to the imaging device may be provided.
  • the imaging device may implement a part of arithmetic functions by an external device (for example, an external server, cloud, etc.).
  • FIG. 2 is a block diagram showing the functional configuration of the information processing system according to the first embodiment.
  • the information processing system 10 is configured as a system for capturing an image of a target. More specifically, the information processing system 10 is configured to capture an iris image of a target.
  • the use of the iris image captured by the information processing system 10 is not particularly limited, but it may be used for biometric authentication, for example.
  • the information processing system 10 may be configured as part of a system (so-called walk-through authentication system) that performs biometric authentication by imaging a walking target.
  • the information processing system 10 includes an acquisition unit 110, a determination unit 120, and a control unit 130 as components for realizing its functions. ing.
  • Each of the acquisition unit 110, the determination unit 120, and the control unit 130 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the acquisition unit 110 is configured to be able to acquire the first image and the second image.
  • the first image and the second image are images captured such that the optical axes of the optical system for capturing each image intersect at a predetermined point.
  • the first image and the second image may be captured by the camera 18 (see FIG. 1) described above.
  • the first image and the second image may be captured by two cameras 18 whose optical axes intersect each other.
  • the first image and the second image may be captured by one camera 18 via a mirror or the like.
  • a specific arrangement example of the camera 18 that captures the first image and the second image will be described later in detail.
  • the determination unit 120 is configured to be able to execute determination processing using the first image and the second image acquired by the acquisition unit 110 . Specifically, the determination unit 120 is configured to determine whether or not the difference between the position of the target in the first image and the position of the target in the second image is within a predetermined range. Note that the "difference" here may be, for example, the distance between the first coordinates indicating the position of the target in the first image and the coordinates indicating the position of the target in the second image (that is, the Euclidean distance).
  • the determination unit 120 determines, for example, the first coordinates indicating the position of the target in the first image and the second coordinates indicating the position of the target in the second image. Alternatively, the determination unit 120 determines whether the degree of overlap between the first detection region in the first image and the second detection region in the second image is within a predetermined range.
  • the "predetermined range” here means that there is no large difference between the position of the object in the first image and the position of the object in the second image (in other words, , the difference is within a preset threshold), and an appropriate value may be set in advance.
  • the predetermined range may be set by a person.
  • the values may be optimized through repeated learning, and the determination unit 120 may perform normalization (that is, matching scales) of the first image and the second image when calculating the difference.
  • the determination unit 120 may acquire the scale ratio between the first image and the second image in advance, and perform the normalization process based on the scale ratio.
  • a process of normalizing the first and second images may be performed using internal parameters (eg, focus, pixel size information, etc.) of the camera 18 capturing the images and the second image.
  • the control unit 130 is configured to be able to control the imaging of the target iris image based on the determination result of the determination unit 120 . Specifically, when the determination unit determines that the difference between the position of the target in the first image and the position of the target in the second image is within a predetermined range, the control unit 130 controls the iris image of the target. may be controlled to image the camera 18.
  • the camera 18 controlled here that is, the camera 18 that captures the iris image
  • FIG. 3 is a top view showing optical axes of cameras in the information processing system according to the first embodiment.
  • FIG. 4 is a plan view showing an example of a first image and a second image acquired by the information processing system according to the first embodiment;
  • the first camera 181 is configured to capture the first image and the second camera 182 is configured to capture the second image.
  • the first camera 181 and the second camera 182 are arranged so that their optical axes intersect each other at a predetermined point.
  • the predetermined point where the optical axes intersect will be referred to as a "trigger point" as appropriate.
  • the position of the target in the first image and the position of the target in the second image are A relatively large difference is generated between the positions.
  • the target is captured near the left end of the image, while in the second image, the target is captured near the right end of the image.
  • the difference between the target position in the first image and the target position in the second image is large (that is, not within the predetermined range), it can be determined that the target exists at a position distant from the trigger point.
  • the difference between the position of the target in the first image and the position of the target in the second image is a relatively small value.
  • the object appears near the center of the image.
  • FIG. 5 is a flow chart showing the operation flow of the information processing system according to the first embodiment.
  • the acquisition unit 110 acquires the first image and the second image (step S101). Although it is preferable that the first image and the second image are typically captured at the same time, some error may be allowed. Alternatively, if the difference in imaging timing between the first image and the second image is known, the predetermined range may be set in consideration of the difference.
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102).
  • the target position may be detected, for example, as the position of a preset site.
  • the determination unit 120 may detect the positions of the eyes, nose, mouth, entire face, hands, feet, etc. of the object as the positions of the object.
  • the determination unit 120 may detect the right eye position of the first image and the right eye position of the second image, respectively. , the left eye position of the first image and the left eye position of the second image, respectively.
  • the determination unit 120 may detect the center coordinates of the right eye in the first image and the center coordinates of the right eye in the second image, or may detect the center coordinates of the left eye in the first image and the center coordinates of the second image. and the center coordinates of the left eye may be detected, respectively.
  • the determination unit 120 may detect the center coordinates (center point) of the right and left eyes in the first image and the center coordinates of the right and left eyes in the second image. The above is an example of detecting the eyes, but in the case of detecting other parts, the position of the object may also be detected based on various parts.
  • the determination unit 120 may detect the nose position of the first image and the nose position of the second image, respectively.
  • the determining unit 120 may determine the center coordinates of the nose in the first image (for example, the center coordinates between the top and bottom ends of the nose, or the center coordinates between the right and left ends of the nose) and the nose in the second image. , and may be detected respectively.
  • the determination unit 120 detects the position of the entire face in the first image and the position of the entire face in the second image.
  • the determination unit 120 determines the center coordinates of the entire face in the first image (for example, the center coordinates between the upper and lower ends of the entire face, or the center coordinates between the right and left ends of the entire face) and the second image. and the center coordinates of the entire face in the image may be detected.
  • the determination unit 120 may detect a plurality of positions of each part described above, and set the central position of the plurality of positions as the target position.
  • the determination unit 120 may detect the position of the right eye, the position of the left eye, and the position of the nose, and set the central position of the positions of the right eye, the left eye, and the nose as the target position. Note that if the target is not detected from at least one of the first image and the second image, subsequent processing may be omitted, and the processing may be restarted from step S101.
  • the determination unit 120 determines whether the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). A determination result by the determination unit 120 is output to the control unit 130 . If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process is restarted from step S101.
  • control unit 130 controls to capture the iris image of the target. (step S104). Only one iris image may be captured, or a plurality of images may be captured. An iris image may be captured as each frame of a moving image.
  • trigger determination is performed based on the first image and the second image captured so that the optical axes intersect.
  • An iris image is taken according to the result.
  • trigger determination is performed using the first image and the second image, so there is no need to separately provide a sensor or the like for detecting the position of the target.
  • a distance sensor, a proximity sensor, or the like it is conceivable to use a distance sensor, a proximity sensor, or the like to perform trigger determination, but in this embodiment, the distance sensor, the proximity sensor, and the like are unnecessary.
  • FIG. 6 is a flow chart showing the operation flow of the information processing system according to the second embodiment.
  • the same reference numerals are assigned to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102). Then, the determination unit 120 determines whether or not the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). A determination result by the determination unit 120 is output to the control unit 130 . If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process is restarted from step S101.
  • the control unit 130 uses the first image and the second image to , to specify the eye position of the object (step S201).
  • the method of identifying the eye positions of the target is not particularly limited, but for example, an area (face area) where the target's face exists may be detected, and the eye positions may be estimated from the detected face area.
  • control unit 130 performs control so that an iris image of the target is captured based on the specified eye position (step S202).
  • the control unit 130 may perform control such that the camera 18 is moved to a position where the specified eye position can be imaged and image capturing is started.
  • the control unit 130 may select a camera 18 capable of capturing an image of a specified eye position from among a plurality of cameras 18 having different heights, and perform control to start capturing an image.
  • the control unit 130 may rotate the mirror of the camera 18 to change the imaging range so that the specified eye position can be imaged, and perform control to start imaging.
  • a mirror is installed within the image pickup range of the camera 18 (that is, the camera 18 picks up an image of the target via the mirror), and the mirror is driven to rotate according to the eye position of the target
  • imaging can be started.
  • an iris image can be acquired by rotationally driving a mirror according to the eye position of the object.
  • the movement of the camera 18, the selection of the camera 18, and the driving of the mirrors described above may be performed based on a position other than the eye position (that is, the position of a part different from the eye).
  • the camera 18 may be moved, the camera 18 may be selected, or the mirror may be rotated based on the nose position or face position of the subject.
  • a face image can be acquired by using the face position or the nose position located near the center of the face as a reference.
  • an iris image is captured based on the specified eye positions.
  • the iris image of the object can be captured more appropriately. Specifically, it is possible to perform imaging after the iris of the object is contained within the imaging range.
  • FIG. 7 is a plan view showing an example of the first image and the second image acquired by the information processing system according to the third embodiment.
  • the positions of the right eye and left eye of the target are detected as the positions of the target in the first image and the second image.
  • the location of the subject may be detected as coordinates indicating the location of the subject's right eye and coordinates indicating the location of the subject's left eye.
  • the position of the right eye may be the center point of the right eye area, the position of the area indicating the right eye area, the center point of the iris area of the right eye, or the iris area of the right eye. It may be the position of the indicated area or the central point in the pupil region of the right eye.
  • the position of the left eye may be the center point of the left eye area, the position of the area indicating the left eye area, the center point of the iris area of the left eye, or the left eye area. It may be the position of the area indicating the iris region, or the central point in the pupillary region of the left eye.
  • the trigger determination may be made using both the subject's right and left eye positions. For example, the difference between the position of the subject's right eye in the first image and the position of the subject's right eye in the second image, and the difference between the position of the subject's left eye in the first image and the position of the subject's left eye in the second image.
  • control may be performed to capture an iris image.
  • control may be performed such that an iris image is captured when one of the differences between the right eye and the left eye falls within a predetermined range.
  • the positions of the right eye and left eye are detected as the target position.
  • the trigger determination is performed based on the position of the target's eye (in other words, the position of the iris).
  • the object of transmission may be a human or a machine).
  • imaging control based on the positions of the eyes can be performed as in the above-described second embodiment.
  • FIG. 8 An information processing system 10 according to the fourth embodiment will be described with reference to FIGS. 8 and 9.
  • FIG. 8 It should be noted that the fourth embodiment may differ from the above-described first to third embodiments only in a part of configuration and operation, and other parts may be the same as those of the first to third embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 8 is a top view showing the trigger position and focus position in the information processing system according to the fourth embodiment.
  • the information processing system assumes a situation in which a target approaches a camera that captures an image of the target's iris.
  • the trigger position in this example, the first camera that captures the first image
  • the focus position that is, the in-focus position
  • the optical axis of the second camera 182 that captures the second image is set.
  • a plurality of iris images are captured in succession. Capturing iris images is continuously performed at least until the subject passes the trigger point and reaches the focus position.
  • the iris images captured at the focus position are included in the plurality of captured iris images.
  • capturing the iris image may be performed even after reaching the focus position.
  • the capturing of iris images may be terminated after a predetermined number of images are captured after the object is brought into focus.
  • the imaging range may be adjusted to match the position of the eye of the subject.
  • the iris image of the subject may be captured by estimating the height of the subject and matching the height of the eye position estimated from the height.
  • the position (depth information) of the target can be specified using the first image and the second image, so the height of the target can be estimated with high accuracy.
  • the height of the object may be estimated (calculated) using depth information, the size of the object in the image, and the imaging angle of the camera. In this case, the height of the object can be properly estimated even if there is no reference object that serves as a reference for length in the image.
  • FIG. 9 is a flow chart showing the operation flow of the information processing system according to the fourth embodiment.
  • the same reference numerals are assigned to the same processes as those shown in FIG.
  • the acquisition unit 110 first acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102). Then, the determination unit 120 determines whether or not the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). A determination result by the determination unit 120 is output to the control unit 130 . If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process is restarted from step S101.
  • step S103 if the difference between the target position in the first image and the target position in the second image is within the predetermined range (step S103: YES), the control unit 130 continuously captures iris images (step S401). . After that, the control unit 130 determines whether or not to end continuous imaging (step S402). The control unit 130 may determine to end the continuous imaging when the object passes the focus position (see FIG. 8), for example. Alternatively, the control unit 130 may determine to end imaging when the difference between the position of the target in the first image and the position of the target in the second image is no longer within a predetermined range.
  • step S402 When it is not determined to end imaging (step S402: NO), continuous imaging of iris images is continued. On the other hand, if it is determined to end the imaging (step S402: YES), the continuous imaging of the iris images is terminated and the series of operations is terminated.
  • the trigger position (that is, the position where the optical axes intersect) is set behind the focus position of the camera that captures the iris. , iris images are taken continuously when the object reaches the trigger position. In this way, the iris of an object approaching the camera can be appropriately imaged at the focus position.
  • FIG. 10 An information processing system 10 according to the fifth embodiment will be described with reference to FIGS. 10 and 11.
  • FIG. The fifth embodiment may differ from the above-described fourth embodiment only in a part of configuration and operation, and the other parts may be the same as those of the first to fourth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 10 is a block diagram showing the functional configuration of an information processing system according to the fifth embodiment.
  • the same reference numerals are given to the same components as those shown in FIG.
  • the information processing system 10 includes an acquisition unit 110, a determination unit 120, a control unit 130, a selection unit 140, and and an authentication unit 150 . That is, the information processing system 10 according to the fifth embodiment further includes a selection unit 140 and an authentication unit 150 in addition to the configuration of the first embodiment (see FIG. 2). Note that each of the selection unit 140 and the authentication unit 150 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the selection unit 140 is configured to be able to select at least one high-quality iris image from among a plurality of iris images captured continuously after trigger determination.
  • the quality of the iris image may be determined, for example, by calculating a quality score (that is, a score indicating image quality).
  • the selection unit 140 may select one image with the highest quality score from a plurality of iris images.
  • the selection unit 140 may select a predetermined number of images in descending order of quality score.
  • the selection unit 140 may select images whose quality scores exceed a predetermined value.
  • the authentication unit 150 is configured to be able to execute biometric authentication processing (that is, iris authentication) based on the iris image of the target captured as a result of control by the control unit 130 .
  • biometric authentication processing that is, iris authentication
  • an existing technique can be appropriately adopted, so a detailed description thereof will be omitted here.
  • the authentication unit 150 may be configured to be able to execute various processes according to the result of iris authentication.
  • the authentication unit 150 may be configured to be able to unlock the gate when the iris authentication is successful.
  • FIG. 11 is a flow chart showing the operation flow of the information processing system according to the fifth embodiment.
  • the same reference numerals are assigned to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102). Then, the determination unit 120 determines whether or not the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). A determination result by the determination unit 120 is output to the control unit 130 . If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process is restarted from step S101.
  • step S103 YES
  • the control unit 130 continuously captures iris images (step S401). . After that, the control unit 130 determines whether or not to end continuous imaging (step S402). If it is not determined to end the imaging (step S402: NO), continuous iris images are continued.
  • step S402 determines whether it is determined to end the imaging. If it is determined to end the imaging (step S402: YES), the continuous imaging of the iris images is terminated, and the selection unit 140 selects at least the highest quality iris images from among the plurality of iris images that have been captured so far. One image is selected (step S501). Then, using the iris image selected by the selection unit 140, the authentication unit performs iris authentication (step S502).
  • a high-quality image is selected from a plurality of iris images, and authentication processing is performed using the selected image. be done. In this way, the authentication process can be performed using a high-quality iris image, so highly accurate biometric authentication can be achieved.
  • FIG. 12 is a block diagram showing the functional configuration of an information processing system according to the sixth embodiment.
  • symbol is attached
  • the information processing system 10 includes a first camera 183, a second camera 182, and a third camera 183 as the cameras 18.
  • the first camera 181 is provided as a camera that captures a first image.
  • the second camera 182 is provided as a camera that captures a second image.
  • the first image and the second image captured by the first camera 181 and the second camera 182 are configured to be acquired by the acquisition unit 110 .
  • the first camera 181 and the second camera 182 are arranged so that their optical axes intersect, as shown in FIG.
  • the third camera 183 is provided as a near-infrared camera that captures an iris image. Therefore, the third camera 183 can be controlled by the controller 130 .
  • a specific arrangement example of the first camera 181, the second camera 182, and the third camera will be described in detail in another embodiment described later.
  • the above-described first camera 181 and second camera 182 may be calibrated in advance. In this case, it is possible to obtain a highly accurate target position (depth information) using stereo vision. Since the first camera 181 and the second camera 182 are arranged so that their optical axes intersect, the stereo search range is limited to the center of the angle of view, and corresponding point information (for example, Information on eye coordinates, face part coordinates, etc.) can be used to acquire highly accurate depth information.
  • point information for example, Information on eye coordinates, face part coordinates, etc.
  • the first image is captured by the first camera 181
  • the second image is captured by the second camera 182
  • the iris image is captured by the third camera 183.
  • the first image, the second image, and the third image can be captured appropriately using a plurality of cameras.
  • the position of the object can be determined with higher accuracy than when the first image and the second image are captured by a single camera.
  • FIG. 13 is a top view showing an arrangement example of the first camera, the second camera, and the third camera in the information processing system according to the seventh embodiment.
  • symbol is attached
  • a third camera 183 is arranged in front of an object approaching the camera.
  • the “front” here is a position where the target's face can be imaged from the front (that is, a position directly facing the target).
  • the first camera 181 and the second camera 182 are arranged on the left and right sides of the third camera, respectively.
  • the first camera 181 is arranged on the right side of the third camera 183
  • the second camera 182 is arranged on the left side of the third camera 183.
  • 182 may be arranged, and the first camera 181 may be arranged to the left of the third camera 183 .
  • the third camera 183 is arranged in front of the object, and the first camera 181 and the second camera 182 are arranged on the left and right sides of the third camera 183, respectively. placed. In this way, an iris image can be captured at an appropriate angle from the front of the subject. Also, the first image and the second image can be captured appropriately so that the optical axes intersect.
  • FIG. 14 is a top view showing an arrangement example of the first camera, the second camera, and the third camera in the information processing system according to the eighth embodiment.
  • the same reference numerals are given to the same components as those shown in FIG. 14
  • each of the first camera 181, the second camera 182, and the third camera 183 is arranged at a position where the object can be imaged obliquely.
  • the "oblique” here means an angle deviated from the front of the object.
  • FIG. 14 shows an example in which the first camera 181 and the second camera 182 are arranged on the right side of the object, and the third camera 183 is arranged on the left side of the object. It is not limited to this arrangement.
  • the first camera 181, the second camera 182, and the third camera 183 may all be arranged on the right side of the object.
  • the first camera 181 may be arranged on the right side as viewed from the target, and the second camera 182 may be arranged on the left side as viewed from the target.
  • each of the first camera 181, the second camera 182, and the third camera 183 captures an oblique image of the target at an angle that is deviated from the front. are arranged as follows. In this way, the first image, the second image, and the iris image of the object can be captured without hindering the movement of the object approaching the camera.
  • FIG. 15 and 16 An information processing system 10 according to the ninth embodiment will be described with reference to FIGS. 15 and 16.
  • FIG. The ninth embodiment may differ from the above-described first to eighth embodiments only in a part of configuration and operation, and other parts may be the same as those of the first to eighth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 15 is a front view showing an arrangement example of the fourth camera and mirrors in the information processing system according to the ninth embodiment.
  • a fourth camera 184 is provided as a camera that captures the first image and the second image.
  • the fourth camera 184 is arranged to face straight up, and a mirror 200 is arranged above the camera. Therefore, the fourth camera 184 includes the mirror 200 in its imaging range.
  • a fourth camera 184 captures an object (that is, the first image and the second image) through this mirror 200 .
  • the mirror 200 has a first surface 201 and a second surface 202 with different angles.
  • the first surface is a surface provided for capturing a first image
  • the second surface 202 is a surface provided for capturing a second image. Therefore, the first plane 201 and the second plane 202 form an angle such that the optical axis of the fourth camera 184 intersects at the trigger point.
  • the entire mirror 200 is arranged at an angle of, for example, 45 degrees with respect to the horizontal direction. By angling the mirror 200 in this manner, the fourth camera 184 can capture an image of the front (that is, the front side of the paper surface) through the mirror 200 .
  • first surface 201 and the second surface 202 of the mirror 200 do not have to be clearly separated regions as shown in FIG. , and the other portion may be used as the second surface 202 .
  • first surface 201 and the second surface 202 of the mirror may be configured to be provided by separate mirrors.
  • a first mirror having a first surface 201 and a second mirror having a second surface 202 may be provided separately so as to form different angles with each other.
  • FIG. 16 is a plan view showing an example of the first image and the second image acquired by the information processing system according to the ninth embodiment.
  • the first image and the second image are acquired as one image.
  • the acquired images include a first image captured via the first surface 201 of the mirror 200 and a second image captured via the second surface 202 .
  • the object is arranged so that the optical axes when capturing each image intersect at the trigger point. It can be determined that the point has been reached.
  • the first image and the second image are transmitted through the first surface 201 and the second surface 202 of the mirror 200. imaged. In this way, it is possible to capture both the first image and the second image with one camera (that is, the fourth camera 184). Therefore, it is possible to reduce costs compared to a configuration in which a plurality of cameras captures the first image and the second image.
  • the mirror 200 has two surfaces, but the mirror may have three or more surfaces.
  • mirror 200 may comprise a third surface in addition to first surface 201 and second surface 202 .
  • Such a configuration may be realized, for example, by bending one mirror at two locations, or may be realized by three mirrors.
  • Each of the three planes may be provided as, for example, a plane for imaging the object from the right, a plane for imaging from the front, and a plane for imaging from the left.
  • a third image captured through the third plane may be used to determine that the subject has reached the trigger point.
  • the determination unit 120 determines the difference between the target position in the first image, the target position in the second image, and the target position in the third image. is within a predetermined range. Then, when the difference between them is within a predetermined range, the iris image of the target may be picked up. Further, of the three surfaces, the surface for capturing an image from the front may be used for face authentication. Alternatively, face authentication may be performed using face images reflected from a surface for imaging the object from the right side, a surface for imaging the object from the front, and a surface for imaging the object from the left side. .
  • the weight of the face image obtained from the plane for imaging the target from the front (that is, the degree of influence on face authentication) is changed from the other planes (that is, the plane for imaging the target from the right and left sides). You may make it larger than the acquired face image. This is because it is more likely that a face image with high reliability (for example, a frontal face image) can be obtained when the target is imaged from the front rather than when the target is imaged from the right or left side. .
  • FIG. 17 and 18 An information processing system 10 according to the tenth embodiment will be described with reference to FIGS. 17 and 18.
  • FIG. The tenth embodiment may differ from the above-described first to ninth embodiments only in a part of configuration and operation, and may be the same as the first to ninth embodiments in other respects. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 17 is a top view showing an arrangement example of the fifth camera and mirrors in the information processing system according to the tenth embodiment.
  • a fifth camera 185 is provided as a camera that captures the first image and the second image.
  • a mirror 250 is provided in the imaging range of the fifth camera 185 .
  • the fifth camera 185 and the mirror 250 are arranged so that the optical axis extending directly from the fifth camera 185 toward the trigger position intersects with the optical axis extending from the fifth camera 185 via the mirror 250 toward the trigger position. ing.
  • FIG. 18 is a plan view showing an example of the first image and the second image acquired by the information processing system according to the tenth embodiment.
  • the first image and the second image are obtained as one image.
  • the second image captured via the mirror 250 is included in the first image obtained by directly capturing the target.
  • the object is arranged so that the optical axes when capturing each image intersect at the trigger point. It can be determined that the point has been reached.
  • the target is reflected near the center of the first image (that is, near the center of the entire acquired image), and near the center of the second image (that is, near the center of the mirror 250 portion) The target is captured. Therefore, in such a case, it can be determined that the target exists at the trigger point.
  • the target is directly imaged by the fifth camera 185 and also imaged via the mirror 250 .
  • the first image and the second image can be captured with one camera (that is, the fifth camera 185). Therefore, it is possible to reduce costs compared to a configuration in which a plurality of cameras captures the first image and the second image.
  • By increasing the number of mirrors or by bending the mirrors to increase the number of surfaces more images can be acquired with one camera. For example, when a first mirror and a second mirror are installed in the imaging range of the fifth camera 185, a second image is acquired through the first mirror, and a third image is acquired through the second mirror. can be obtained. In this case, by further using the third image in addition to the first and second images, it is possible to control the imaging timing with higher accuracy.
  • FIG. 19 An information processing system 10 according to the eleventh embodiment will be described with reference to FIGS. 19 and 20.
  • FIG. The eleventh embodiment may differ from the first to tenth embodiments described above only partially in configuration and operation, and may be the same as the first to tenth embodiments in other respects. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 19 is a block diagram showing the functional configuration of an information processing system according to the eleventh embodiment.
  • the same symbols are attached to the same components as those shown in FIG. 19
  • the information processing system 10 according to the eleventh embodiment includes an acquisition unit 110, a determination unit 120, a control unit 130, an identification unit 160, and is configured with That is, the information processing system 10 according to the eleventh embodiment further includes an identification unit 160 in addition to the configuration of the first embodiment (see FIG. 2).
  • the specifying unit 160 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the specifying unit 160 is configured to be able to specify a target for trigger determination (in other words, a target for capturing an iris image). As a result of the identification by the identification unit 160 , the determination unit 120 performs trigger determination using the positional difference between the first image and the second image of the target identified by the identification unit 160 .
  • the specifying method of the specifying unit 160 is not particularly limited, and may be any method that can ensure that the target in the first image and the target in the second image are the same person.
  • the identification unit 160 may identify the target using face authentication, for example. In this case, face authentication may be performed using the first image and the second image, or may be performed using an image captured separately.
  • FIG. 20 is a flow chart showing the operation flow of the information processing system according to the eleventh embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 and the identification unit 160 .
  • the identifying unit 160 identifies a target for trigger determination (step S1101).
  • the determining unit 120 detects the position of the target specified by the specifying unit 160 from each of the first image and the second image acquired by the acquiring unit 110 (step S1102).
  • step S1101 and the processing of step S1102 may be executed in succession. That is, step S1101 may be executed after executing step S1102. In this case, if the determining unit 120 determines that the target position is within the predetermined range, the specifying unit 160 may specify the target.
  • the determination unit 120 determines whether the difference between the position of the identified target in the first image and the position of the identified target in the second image is within a predetermined range (step S1103). A determination result by the determination unit 120 is output to the control unit 130 . If the difference between the position of the identified target in the first image and the position of the identified target in the second image is not within the predetermined range (step S1103: NO), the process restarts from step S101.
  • control unit 130 displays the iris image of the target. Control is performed so as to take an image (step S104).
  • the target appearing in the first image and the target appearing in the second image are the same person (that is, the specified target)
  • a trigger determination is made for that object. Therefore, for example, when a first target is captured in the first image and a second target is captured in the second image, the position of the first target in the first image and the position of the second target in the second image are The difference from the position of the second target will not be used for trigger determination.
  • trigger determination is performed using the first image and the second image after the target is specified. In this way, erroneous trigger determination based on different target positions can be prevented.
  • FIG. 21 is a flow chart showing the operation flow of the information processing system according to the twelfth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 determines whether or not multiple objects are captured in the first image and the second image (step S1201). If a plurality of objects are captured in the first image and the second image (step S1201: YES), the determination unit 120 selects one object from the plurality of objects (step S1202). The determination unit 120 may select, for example, the object closest to the camera (for example, the object that is most captured). Note that the following processing is executed for the target selected in step S1202. If multiple objects are not captured in the first image and the second image (step S1201: NO), the process of step S1202 may be omitted.
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102). Then, the determination unit 120 determines whether or not the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). A determination result by the determination unit 120 is output to the control unit 130 .
  • step S103 If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process restarts from step S101. On the other hand, if the difference between the position of the target in the first image and the position of the target in the second image is within the predetermined range (step S103: YES), control unit 130 controls to capture the iris image of the target. (Step S104).
  • the information processing system 10 when a plurality of objects appear in the first image and the second image, one object selected from among the objects is A trigger determination is made. In this way, even when there are a plurality of objects, it is possible to capture iris images of the objects at appropriate timing.
  • FIG. 10 An information processing system 10 according to the thirteenth embodiment will be described with reference to FIG. It should be noted that the thirteenth embodiment may differ from the first to twelfth embodiments described above only in a part of the operation, and other parts may be the same as those of the first to twelfth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 22 is a flow chart showing the operation flow of the information processing system according to the thirteenth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object from each of the first image and the second image acquired by the acquisition unit 110 (step S102). Then, the determination unit 120 determines whether or not the difference between the target position in the first image and the target position in the second image is within a predetermined range (step S103). If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process is restarted from step S101.
  • the determination unit 120 determines that there is a companion who passes the target at the same time. It is determined whether or not to do so (step S1301). Examples of companions include a person walking alongside the target, a baby held by the target, and the like.
  • the determination unit 120 may determine the presence of the companion using the first image and the second image, or may determine the presence of the companion using other images.
  • control unit 130 controls to capture an iris image of the subject (step S104).
  • control unit 130 captures an iris image of the target and an iris image of the companion in parallel with different cameras (step S1302). Note that even if there are a plurality of companions, the iris images can be taken in parallel by the number of cameras. If the number of cameras is insufficient, only the selected companion may be imaged, as in the twelfth embodiment (see FIG. 21) described above.
  • the iris image of each subject is captured by a different camera. By doing so, it is possible to capture the iris images of the targets at appropriate timing even when there are a plurality of targets.
  • FIG. The fourteenth embodiment may differ from the above-described first to thirteenth embodiments only in a part of the operation, and other parts may be the same as those of the first to thirteenth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 23 is a flow chart showing the operation flow of the information processing system according to the fourteenth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the acquisition unit 110 acquires the first image and the second image (step S101).
  • the first image and the second image acquired by the acquisition unit 110 are output to the determination unit 120 .
  • the determination unit 120 detects the position of the object in the first image (step S1401). Then, the determination unit 120 determines a search area in the second image from the position of the target in the first image (step S1402).
  • the search area is that determined on the second image as the area to search for the presence of the object. A method for determining the search area will be specifically described later.
  • the determination unit 120 searches for an object in the search area in the second image (step S1403). If the existence of the object can be detected in the search area (step S1404), the determination unit 120 detects the position of the object detected in the search area as the position of the object in the second image (step S1405). Note that if the existence of the target cannot be detected in the search area, the process may be restarted from step S101.
  • the determination unit 120 determines whether the difference between the position of the target in the first image and the position of the target in the second image is within a predetermined range. is determined (step S103). A determination result by the determination unit 120 is output to the control unit 130 .
  • step S103 If the difference between the target position in the first image and the target position in the second image is not within the predetermined range (step S103: NO), the process restarts from step S101. On the other hand, if the difference between the position of the target in the first image and the position of the target in the second image is within the predetermined range (step S103: YES), control unit 130 controls to capture the iris image of the target. (Step S104).
  • FIG. 24 is a plan view showing an example of the first image and the second image acquired by the information processing system according to the fourteenth embodiment, and their search areas.
  • a search area is determined as an area corresponding to the area in which the object is detected in the first image.
  • the target is detected near the left end of the first image.
  • the area near the left end of the second image is determined as the search area, but since the object is not included therein, the object is not detected from the second image.
  • the region near the center of the second image is determined as the search region. Since the target is included in the search area, the target is detected from the second image.
  • the area in which the target exists in the first image is set as the target search area in the second image. In this way, it is not necessary to search the entire image when detecting the position of the object in the second image. As a result, the process of detecting the position of the object in the second image can be performed at high speed with low load.
  • a processing method is also implemented in which a program for operating the configuration of each embodiment described above is recorded on a recording medium, the program recorded on the recording medium is read as code, and executed by a computer. Included in the category of form. That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
  • a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, and ROM can be used as recording media.
  • the program recorded on the recording medium alone executes the process, but also the one that operates on the OS and executes the process in cooperation with other software and functions of the expansion board. included in the category of Furthermore, the program itself may be stored on the server, and part or all of the program may be downloaded from the server to the user terminal.
  • the information processing system includes acquisition means for acquiring a first image and a second image captured so that optical axes intersect at a predetermined point, a position of a target in the first image, and the second image. determining means for determining whether or not the difference between the position of the target and the position of the target is within a predetermined range; and control for controlling to capture an iris image of the target when the difference is within the predetermined range
  • An information processing system comprising means.
  • control means specifies eye positions of the target from the first image and the second image, and performs control so that the iris image is captured based on the specified eye positions.
  • the information processing system according to appendix 3 is the information processing system according to appendix 1 or 2, wherein the positions of the target in the first image and the second image are the positions of the right eye and the left eye of the target. .
  • Appendix 4 In the information processing system according to appendix 4, the predetermined position is set on the back side of the focus position as viewed from a camera that captures the iris image, and the control means controls the difference so that the difference is within the predetermined range. 4. The information processing system according to any one of Appendices 1 to 3, wherein control is performed so that the iris images of the target approaching the camera for capturing the iris images are continuously captured.
  • the information processing system according to appendix 5 uses selection means for selecting at least one iris image of high quality from among a plurality of iris images captured in succession, and the selected iris image. 4.
  • the obtaining means obtains the first image captured by a first camera, the second image captured by a second camera installed at an angle different from that of the first camera, and 6.
  • Appendix 7 In the information processing system according to appendix 7, the third camera is arranged in front of the target, and the first camera and the second camera are arranged on the left and right sides of the third camera.
  • each of the first camera, the second camera, and the third camera is arranged at a position that obliquely images the target at an angle deviated from the front. 7.
  • the obtaining means obtains the first image captured by the fourth camera through the first surface of the mirror and the second surface of the mirror by the fourth camera. 6. The information processing system according to any one of Appendices 1 to 5, wherein the second image captured through the camera is acquired.
  • Appendix 10 In the information processing system according to appendix 10, the acquisition means acquires the first image directly captured by a fifth camera and the second image captured by the fifth camera via a mirror. 6. The information processing system according to any one of Appendices 1 to 5.
  • appendix 11 The information processing system according to appendix 11 further includes specifying means for specifying the target, and the determining means determines the position of the specified target in the first image and the position of the specified target in the second image. 11. The information processing system according to any one of appendices 1 to 10, wherein it is determined whether or not the difference between , and is within the predetermined range.
  • control means selects one person from the plurality of objects when the plurality of objects are captured in the first image and the second image. 12.
  • Appendix 13 In the information processing system according to appendix 13, when the plurality of objects are captured in the first image and the second image, the control means displays the iris images of the plurality of objects for each of the objects. 12. The information processing system according to any one of appendices 1 to 11, wherein control is performed so that different cameras are used to capture images.
  • At least one computer acquires a first image and a second image captured so that the optical axes intersect at a predetermined point, and the position of the target in the first image and the determining whether or not the difference between the position of the target in the second image and the position of the target is within a predetermined range, and controlling to capture an iris image of the target when the difference is within the predetermined range; It is an information processing method.
  • At least one computer acquires a first image and a second image captured so that the optical axes intersect at a predetermined point, and the position of the target in the first image and the first image. determining whether or not the difference between the positions of the target in the two images is within a predetermined range, and controlling to capture an iris image of the target when the difference is within the predetermined range.
  • the information processing apparatus includes an acquisition unit that acquires a first image and a second image captured so that optical axes intersect at a predetermined point, a position of a target in the first image, and the second image. determining means for determining whether or not the difference between the position of the target and the position of the target is within a predetermined range; and control for controlling to capture an iris image of the target when the difference is within the predetermined range
  • An information processing apparatus comprising means.
  • the computer program according to attachment 18 acquires, in at least one computer, a first image and a second image captured so that the optical axes intersect at a predetermined point, the position of the target in the first image, and the position of the target in the first image. determining whether or not the difference between the positions of the target in the two images is within a predetermined range, and controlling to capture an iris image of the target when the difference is within the predetermined range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理システム(10)は、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得する取得手段(110)と、第1画像における対象の位置と、第2画像における対象の位置と、の差分が所定範囲内であるか否かを判定する判定手段(120)と、差分が所定の範囲内である場合に、対象の虹彩画像を撮像するよう制御する制御手段(130)と、を備える。このような情報処理システムによれば、対象の虹彩画像を適切なタイミングで撮像できる。

Description

情報処理システム、情報処理方法、及び記録媒体
 この開示は、情報処理システム、情報処理方法、及び記録媒体の技術分野に関する。
 この種のシステムとして、被写体の位置を検知して虹彩画像の撮像を開始するものが知られている。例えば特許文献1では、測距センサを用いて被写体が所定の距離範囲内に入ったことを検知し、被写体が所定の距離範囲内に入った場合に撮像を開始する技術が開示されている。
 その他の関連する技術として、特許文献2では、複数の異なる視点から撮影された画像に基づいて立体画像を取得することが開示されている。特許文献3では、照明光学系と撮影光学系との光軸の交点に、被検眼の角膜頂点が一致した際に画像を撮影することが開示されている。特許文献4では、カメラA及びカメラBの光軸の交点に存在する対象をスクリーン上に表示することが開示されている。
特開2006-338236号公報 特開2010-212881号公報 特開2005-065813号公報 特開平07-298308号公報
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の情報処理システムの一の態様は、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得する取得手段と、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定する判定手段と、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する制御手段と、を備える。
 この開示の情報処理方法の一の態様は、少なくとも1つのコンピュータによって、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、情報処理方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。 第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第1実施形態に係る情報処理システムにおけるカメラの光軸を示す上面図である。 第1実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。 第1実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第2実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第3実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。 第4実施形態に係る情報処理システムにおけるトリガ位置及びピント位置を示す上面図である。 第4実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第5実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第7実施形態に係る情報処理システムにおける第1カメラ、第2カメラ、及び第3カメラの配置例を示す上面図である。 第8実施形態に係る情報処理システムにおける第1カメラ、第2カメラ、及び第3カメラの配置例を示す上面図である。 第9実施形態に係る情報処理システムにおける第4カメラとミラーとの配置例を示す正面図である。 第9実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。 第10実施形態に係る情報処理システムにおける第5カメラとミラーとの配置例を示す上面図である。 第10実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。 第11実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第11実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第12実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第13実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第14実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 第14実施形態に係る情報処理システムで取得される第1画像及び第2画像と、その探索領域との一例を示す平面図である。
 以下、図面を参照しながら、情報処理システム、情報処理方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る情報処理システムについて、図1から図5を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る情報処理システムのハードウェア構成について説明する。図1は、第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る情報処理システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。情報処理システム10は更に、入力装置15と、出力装置16と、を備えていてもよい。また、情報処理システム10は、カメラ18を備えている。上述したプロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16と、カメラ18とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、情報処理システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、対象の画像を撮像するための処理を実行する機能ブロックが実現される。即ち、プロセッサ11は、情報処理システム10における各制御を実行するコントローラとして機能してよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)として構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic Random Access Memory)や、SRAM(Static Random Access Memory)であってよい。また、RAM12に代えて、他の種類の揮発性メモリが用いられてもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable Read Only Memory)や、EPROM(Erasable Read Only Memory)であってよい。また、ROM13に代えて、他の種類の不揮発性 メモリが用いられてもよい。
 記憶装置14は、情報処理システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報処理システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。入力装置15は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。入力装置15は、例えばマイクを含む音声入力が可能な装置であってもよい。
 出力装置16は、情報処理システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報処理システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、情報処理システム10に関する情報を音声出力可能なスピーカ等であってもよい。出力装置16は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。また、出力装置16は、画像以外の形式で情報を出力する装置であってもよい。例えば、出力装置16は、情報処理システム10に関する情報を音声で出力するスピーカであってもよい。
 カメラ18は、対象の画像を撮像可能な箇所に設置されたカメラである。なお、ここでの対象は、人間だけに限られず、犬、猫、蛇、鳥等の動物、ロボット等を含むものであってよい。カメラ18は、対象全体の画像を撮像するものであってもよいし、対象の一部を撮像するものであってもよい。カメラ18は、静止画を撮像するカメラであってもよいし、動画を撮像するカメラであってもよい。カメラ18は、可視光カメラとして構成されてもよいし、近赤外線カメラとして構成されてよい。カメラ18は、複数台設けられていてもよい。複数台のカメラ18は、同一種類類であってもよいし、別種類であってもよい。カメラ18は、例えば画像を撮像しない場合には、自動的に電源オフとなる機能を備えていてもよい。この場合、例えば液体レンズやモータ等の寿命が短いものを優先して電源オフにするようにしてもよい。カメラ18の具体的な構成については、後述する他の実施形態において詳しく説明する。
 なお、図1では、複数の装置を含んで構成される情報処理システム10の例を挙げたが、これらの全部又は一部の機能を、1つの装置(撮像装置)で実現してもよい。この撮像装置は、例えば、上述したプロセッサ11、RAM12、ROM13、及び撮像部18のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16)については、例えば撮像装置に接続される外部の装置が備えるようにしてもよい。また、撮像装置は、一部の演算機能を外部の装置(例えば、外部サーバやクラウド等)によって実現するものであってもよい。
 (機能的構成)
 次に、図2を参照しながら、第1実施形態に係る情報処理システム10の機能的構成について説明する。図2は、第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。
 第1実施形態に係る情報処理システム10は、対象の画像を撮像するシステムとして構成されている。より具体的には、情報処理システム10は、対象の虹彩画像を撮像するものとして構成されている。情報処理システム10で撮像された虹彩画像の用途は特に限定されないが、例えば生体認証に用いられてもよい。例えば、情報処理システム10は、歩行する対象を撮像して生体認証を行うシステム(所謂、ウォークスルー認証システム)の一部として構成されてもよい。
 図2に示すように、第1実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、取得部110と、判定部120と、制御部130と、を備えて構成されている。取得部110、判定部120、及び制御部130の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 取得部110は、第1画像及び第2画像を取得可能に構成されている。第1画像及び第2画像は、所定地点で各画像を撮像する光学系の光軸が交わるように撮像された画像である。第1画像及び第2画像は、上述したカメラ18(図1参照)によって撮像されたものであってよい。例えば、第1画像及び第2画像は、互いに光軸が交わる2台のカメラ18によって撮像されてよい。或いは、第1画像及び第2画像は、ミラー等を介して1台のカメラ18によって撮像されてもよい。なお、第1画像及び第2画像を撮像するカメラ18の具体的な配置例については、後に詳しく説明する。
 判定部120は、取得部110で取得された第1画像及び第2画像を用いた判定処理を実行可能に構成されている。具体的には、判定部120は、第1画像における対象の位置と、第2画像における対象の位置と、の差分が所定範囲内であるか否かを判定可能に構成されている。なお、ここでの「差分」は、例えば第1画像における対象の位置を示す第1座標と、第2画像における対象の位置を示す座標同士の距離(即ち、ユークリッド距離)であってもよいし、第1画像における対象の位置を示す第1検出領域と、第2画像における対象の位置を示す第2検出領域との重なり度合(例えば、(第1検出領域∩第2検出領域)/(第1検出領域∪第2検出領域)であってもよい。よって、判定部120は、例えば、第1画像における対象の位置を示す第1座標と、第2画像における対象の位置を示す第2座標との距離が所定範囲内であるか否かを判定してもよい。或いは、判定部120は、第1画像における第1検出領域と、第2画像における第2検出領域との重なり度合が所定範囲内であるか否かを判定してもよい。ここでの「所定範囲」は、第1画像における対象の位置と、第2画像における対象の位置との間に大きな差がない(言い換えれば、差分が予め設定された閾値以内である)ことを判定するために設定される閾値であり、予め適切な値を設定しておけばよい。所定範囲は、人が設定してもよいし、繰り返し学習により値を適切化してもよい。判定部120は、差分を算出する際に、第1画像及び第2画像を正規化する(即ち、スケールを合わせる)処理を実行するようにしてもよい。例えば、判定部120は、予め第1画像と第2画像とのスケール比を取得しておき、そのスケール比に基づいて正規化処理を実行すればよい。或いは、判定部120は、第1画像及び第2画像を撮像するカメラ18の内部パラメータ(例えば、焦点、ピクセルサイズ情報など)を用いて、第1画像及び第2画像を正規化する処理を実行してもよい。
 制御部130は、判定部120による判定結果に基づいて、対象の虹彩画像に関する撮像を制御可能に構成されている。具体的には、制御部130は、判定部において第1画像における対象の位置と、第2画像における対象の位置と、の差分が所定範囲内であると判定された場合に、対象の虹彩画像を撮像するようにカメラ18を制御してよい。ここで制御されるカメラ18(即ち、虹彩画像を撮像するカメラ18)は、第1画像及び第2画像を撮像するカメラ18とは異なるものであってよい。
 (トリガ判定)
 次に、図3及び図4を参照しながら、上述した判定部120による第1画像及び第2画像を用いる判定処理(以下、適宜「トリガ判定」と称する)について具体的に説明する。図3は、第1実施形態に係る情報処理システムにおけるカメラの光軸を示す上面図である。図4は、第1実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。
 図3において、第1カメラ181が第1画像を撮像し、第2カメラ182が第2画像を撮像するように構成されているとする。この場合、第1カメラ181と第2カメラ182とは、それぞれの光軸が所定地点で互いに交わるように配置されている。以下では、光軸が交わる所定地点のことを、適宜「トリガ地点」と称する。
 図4(a)に示すように、第1カメラ181及び第2カメラ182から見て対象がトリガ地点より遠方に存在している場合、第1画像における対象の位置と、第2画像における対象の位置との間には比較的大きな差分が生ずる。例えば、第1画像では対象が画像左端付近に写り込んでいる一方で、第2画像では対象が画像右端付近に写り込んでいる。このように、第1画像における対象の位置と、第2画像における対象の位置との差分が大きい(即ち、所定範囲でない)場合には、対象がトリガ地点から離れた位置に存在すると判定できる。
 他方、図4(b)に示すように、対象がトリガ地点に存在している場合、第1画像における対象の位置と、第2画像における対象の位置と差分は比較的小さな値となる。例えば、第1画像及び第2画像の両方で、対象は画像中央付近に写り込んでいる。このように、第1画像における対象の位置と、第2画像における対象の位置との差分が小さい(即ち、所定範囲である)場合には、対象がトリガ地点に存在すると判定できる。このため、例えばトリガ地点を、虹彩画像を撮像するカメラ18の合焦位置付近に設定しておけば、適切なタイミングで対象の虹彩画像を撮像することができる。
 (動作の流れ)
 次に、図5を参照しながら、第1実施形態に係る情報処理システム10の動作の流れについて説明する。図5は、第1実施形態に係る情報処理システムの動作の流れを示すフローチャートである。
 図5に示すように、第1実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。なお、第1画像及び第2画像は、典型的には同時に撮像されたものであることが好ましいが、多少の誤差が許容されてもよい。或いは、第1画像及び第2画像の撮像タイミングの差が分かっていれば、その差を考慮して所定範囲を設定するようにしてもよい。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。対象の位置は、例えば予め設定された部位の位置として検出されてよい。例えば、判定部120は、対象の目、鼻、口、顔全体、手、足等の位置を、対象の位置として検出してよい。対象の目の位置を対象の位置として検出する場合を1つの例として挙げると、判定部120は、第1画像の右目位置と、第2画像の右目位置と、をそれぞれ検出してもよいし、第1画像の左目位置と、第2画像の左目位置と、をそれぞれ検出してもよい。或いは、判定部120は、第1画像の右目の中心座標と、第2画像の右目の中心座標と、をそれぞれ検出してもよいし、第1画像の左目の中心座標と、第2画像の左目の中心座標と、をそれぞれ検出してもよい。或いは、判定部120は、第1画像における右目と左目の中心座標(中央地点)と、第2画像における右目と左目の中心座標と、をそれぞれ検出してよい。上記は目を検出する例であるが、その他の部位を検出する場合も、同様に様々な箇所を基準として対象の位置を検出してよい。対象の鼻の位置を対象の位置として検出する場合を1つの例として挙げると、判定部120は、第1画像の鼻位置と、第2画像の鼻位置と、をそれぞれ検出してよい。或いは、判定部120は、第1画像の鼻の中心座標(例えば、鼻の上端部と下端部との中心座標や、鼻の右端部と左端部との中心座標)と、第2画像の鼻の中心座標と、をそれぞれ検出してよい。対象の顔の位置を対象の位置として検出する場合を1つの例として挙げると、判定部120は、第1画像の顔全体の位置と、第2画像の顔全体の位置と、をそれぞれ検出してよい。或いは、判定部120は、第1画像の顔全体の中心座標(例えば、顔全体の上端部と下端部との中心座標や、顔全体の右端部と左端部との中心座標)と、第2画像の顔全体の中心座標と、をそれぞれ検出してよい。或いは、判定部120は、上述した各部位の位置を複数検出し、それら複数の位置の中心位置を対象の位置としてもよい。例えば、判定部120は、右目の位置、左目の位置、鼻の位置をそれぞれ検出して、右目の位置、左目の位置、鼻の位置の中心位置を対象の位置としてよい。なお、第1画像及び第2画像の少なくとも一方から対象が検出されない場合は、以降の処理は省略され、ステップS101から処理が再開されてよい。
 続いて、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。なお、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。
 一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130は、対象の虹彩画像を撮像するように制御する(ステップS104)。虹彩画像は、1枚だけ撮像されてもよいし、複数枚撮像されてもよい。虹彩画像は、動画の各フレームとして撮像されてもよい。
 (技術的効果)
 次に、第1実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図1から図5で説明したように、第1実施形態に係る情報処理システム10では、光軸が交わるように撮像された第1画像及び第2画像に基づいてトリガ判定が行われ、その判定結果に応じて虹彩画像が撮像される。このようにすれば、対象の位置を特定して、適切なタイミングで虹彩画像を撮像することができる。このような効果は、例えば合焦範囲が比較的狭い虹彩カメラを用いる場合に顕著に発揮される。また、本実施形態では、第1画像及び第2画像を用いてトリガ判定を行うため、例えば対象の位置を検出するセンサ等を別途設けずに済む。例えば、距離センサや近接センサ等を使用してトリガ判定を行うことも考えられるが、本実施形態では、これら距離センサや近接センサ等が不要となる。
 <第2実施形態>
 第2実施形態に係る情報処理システム10について、図6を参照して説明する。なお、第2実施形態は、上述した第1実施形態と一部の動作が異なるのみであり、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (動作の流れ)
 まず、図6を参照しながら、第2実施形態に係る情報処理システム10の動作の流れについて説明する。図6は、第2実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図6では、図5で示した処理と同様の処理に同一の符号を付している。
 図6に示すように、第1実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。そして、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。なお、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。
 一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130は、第1画像及び第2画像を用いて、対象の目位置を特定する(ステップS201)。対象の目位置の特定方法は特に限定されないが、例えば対象の顔が存在する領域(顔領域)を検出し、検出した顔領域から目位置を推定してもよい。
 続いて、制御部130は、特定した目位置に基づいて対象の虹彩画像を撮像するように制御する(ステップS202)。例えば、制御部130は、特定した目位置を撮像できる位置にカメラ18を移動させて撮像を開始するような制御を行ってよい。或いは、制御部130は、高さの異なる複数のカメラ18の中から、特定した目位置を撮像できるカメラ18を選択して撮像を開始するような制御を行ってよい。或いは、制御部130は、カメラ18が有するミラーを回転させることにより、特定した目位置を撮像できるように撮像範囲を変化させて撮像を開始するような制御を行ってもよい。例えば、カメラ18の撮像範囲内にミラーを設置しておき(即ち、カメラ18がミラーを介して対象を撮像するようにし)、そのミラーを対象の目位置に応じて回転駆動させれば、カメラ18の撮像範囲を変更した上で撮影を開始できる。例えば、対象の目位置に応じてミラーを回転駆動させることで、虹彩画像を取得できる。なお、上述したカメラ18の移動、カメラ18の選択、ミラーの駆動については、目位置以外の位置(即ち、目とは異なる部位の位置)を基準にして実行されてもよい。例えば、対象の鼻位置や顔位置に基づいてカメラ18が移動されたり、カメラ18が選択されたり、ミラーが回転駆動されたりしてもよい。例えば、顔位置、又は顔の中心付近に位置する鼻位置を基準にすることで、顔画像を取得することができる。
 (技術的効果)
 次に、第2実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図4で説明したように、第2実施形態に係る情報処理システム10では、特定した目位置に基づいて虹彩画像が撮像されることになる。このようにすれば、対象の虹彩画像をより適切に撮像することができる。具体的には、対象の虹彩を撮像範囲に収めた上で撮像を行うことが可能となる。
 <第3実施形態>
 第3実施形態に係る情報処理システム10について、図7を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と一部の動作が異なるのみであり、その他の部分については第1及び第2実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (対象位置の検出)
 まず、図7を参照しながら、第3実施形態に係る情報処理システム10における対象位置(即ち、第1画像及び第2画像の各々における対象の位置)の検出方法について説明する。図7は、第3実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。
 図7に示すように、第3実施形態に係る情報処理システム10では、第1画像及び第2画像における対象の位置として、対象の右目及び左目の位置が検出される。例えば、対象の位置は、対象の右目の位置を示す座標、及び対象の左目の位置を示す座標として検出されてよい。右目の位置は、右目領域における中心地点であってもよいし、右目領域を示すエリアの位置であってもよいし、右目の虹彩領域における中心地点であってもよいし、右目の虹彩領域を示すエリアの位置であってもよいし、右目の瞳孔領域における中心地点であってもよい。同様に、左目の位置は、左目領域における中心地点であってもよいし、左目領域を示すエリアの位置であってもよいし、左目の虹彩領域における中心地点であってもよいし、左目の虹彩領域を示すエリアの位置であってもよいし、左目の瞳孔領域における中心地点であってもよい。この場合、トリガ判定は、対象の右目の位置及び左目の位置の両方を用いて行われてよい。例えば、第1画像における対象の右目の位置と、第2画像における対象の右目の位置との差分、そして、第1画像における対象の左目の位置と、第2画像における対象の左目の位置との差分が算出され、右目及び左目の差分の両方が所定範囲となった場合に、虹彩画像を撮像するような制御が行われてよい。或いは、右目及び左目の差分の一方が所定範囲となった場合に、虹彩画像を撮像するような制御が行われてもよい。
 (技術的効果)
 次に、第3実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図7で説明したように、第3実施形態に係る情報処理システム10では、対象の位置として右目及び左目の位置が検出される。このようにすれば、対象の目の位置(言い換えれば、虹彩の位置)を基準にしてトリガ判定が行われることになるため、虹彩画像を撮像するのに適切なタイミングを伝達することができる(なお、伝達する対象は、人間であっても機械であってもよい)。また、検出した対象の位置を用いれば、上述した第2実施形態のように、目の位置に基づく撮像制御も行える。
 <第4実施形態>
 第4実施形態に係る情報処理システム10について、図8及び図9を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第3実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (トリガ位置の設定)
 まず、図8を参照しながら、第4実施形態に係る情報処理システム10におけるトリガ位置について説明する。図8は、第4実施形態に係る情報処理システムにおけるトリガ位置及びピント位置を示す上面図である。
 図8に示すように、第4実施形態に係る情報処理システムは、対象の虹彩を撮像するカメラに向かって対象が近づいてくるような状況を想定している。そして、第4実施形態では特に、対象の虹彩を撮像するカメラから見て、ピント位置(即ち、合焦位置)よりも奥側にトリガ位置(この例では、第1画像を撮像する第1カメラ181の光軸と、第2画像を撮像する第2カメラ182の光軸とが交わる点)が設定される。また、第4実施形態では、対象がトリガ位置に到達したと判定されると連続して複数枚の虹彩画像が撮像される。虹彩画像の撮像は、少なくとも対象がトリガ地点を超えてピント位置に到達するまで連続して実行される。よって、撮像される複数枚の虹彩画像には、ピント位置で撮像された虹彩画像が含まれることになる。また、虹彩画像の撮像は、ピント位置に到達した後も実行されてよい。例えば、虹彩画像の撮像は、対象がピントに到達してから所定枚数撮像された後に終了するようにしてもよい。なお、虹彩画像を連続して撮像する際には、撮像範囲を対象の目位置に合わせて撮像を行うようにしてよい。例えば、対象の虹彩画像は、対象の身長を推定して、その身長から推定される目位置の高さに合わせて撮像されてよい。本実施形態では、すでに説明したように、第1画像及び第2画像を用いて対象の位置(奥行情報)を特定できるため、対象の身長を精度よく推定することができる。具体的には、対象の身長は、奥行情報と、画像における対象の大きさと、カメラの撮像角度と、を用いて推定(計算)されてよい。この場合、画像内に長さの基準となる基準対象物が存在せずとも、対象の身長を適切に推定できる。
 (動作の流れ)
 次に、図9を参照しながら、第4実施形態に係る情報処理システム10による動作の流れについて説明する。図9は、第4実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図9では、図5で示した処理と同様の処理に同一の符号を付している。
 図9に示すように、第4実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。そして、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。なお、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。
 一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130は、虹彩画像を連続撮像する(ステップS401)。その後、制御部130は、連続撮像を終了するか否かを判定する(ステップS402)。制御部130は、例えば対象がピント位置(図8参照)を通過した場合に、連続撮像を終了すると判定してよい。或いは、制御部130は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でなくなったタイミングで撮像を終了すると判定してもよい。
 撮像を終了すると判定されない場合(ステップS402:NO)、虹彩画像の連続撮像が継続される。他方、撮像を終了すると判定された場合(ステップS402:YES)、虹彩画像の連続撮像が終了され一連の動作は終了することになる。
 (技術的効果)
 次に、第4実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図8及び図9で説明したように、第4実施形態に係る情報処理システム10では、トリガ位置(即ち、光軸が交わる位置)が、虹彩を撮像するカメラのピント位置より奥側に設定され、対象がトリガ位置に到達すると虹彩画像が連続して撮像される。このようにすれば、カメラに近づいてくる対象の虹彩をピント位置で適切に撮像することができる。
 <第5実施形態>
 第5実施形態に係る情報処理システム10について、図10及び図11を参照して説明する。なお、第5実施形態は、上述した第4実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図10を参照しながら、第5実施形態に係る情報処理システム10の機能的構成について説明する。図10は、第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図10では、図2で示した構成要素と同様のものに同一の符号を付している。
 図10に示すように、第5実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、取得部110と、判定部120と、制御部130と、選択部140と、認証部150と、を備えて構成されている。即ち、第5実施形態に係る情報処理システム10は、第1実施形態の構成(図2参照)に加えて、選択部140と、認証部150と、を更に備えている。なお、選択部140及び認証部150各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 選択部140は、トリガ判定の後、連続して撮像された複数枚の虹彩画像の中から、品質の高い少なくとも1枚を選択可能に構成されている。なお、虹彩画像の品質は、例えば品質スコア(即ち、画像の品質を示すスコア)を算出して判断されてよい。例えば、選択部140は、複数枚の虹彩画像から、最も品質スコアの高い1枚の画像を選択してもよい。或いは、選択部140は、品質スコアの高い順に所定枚数の画像を選択してもよい。或いは、選択部140は、品質スコアが所定値を超えた画像を選択してもよい。
 認証部150は、制御部130による制御の結果として撮像された対象の虹彩画像に基づいて、生体認証処理(即ち、虹彩認証)を実行可能に構成されている。なお、虹彩認証の具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。認証部150は、虹彩認証の結果に応じて各種処理を実行可能に構成されてもよい。例えば、認証部150は、虹彩認証が成功した場合にゲートを解錠する処理を実行可能に構成されてもよい。
 (動作の流れ)
 次に、図11を参照しながら、第5実施形態に係る情報処理システム10による動作の流れについて説明する。図11は、第5実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図11では、図9で示した処理と同様の処理に同一の符号を付している。
 図11に示すように、第5実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。そして、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。なお、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。
 一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130は、虹彩画像を連続撮像する(ステップS401)。その後、制御部130は、連続撮像を終了するか否かを判定する(ステップS402)。撮像を終了すると判定されない場合(ステップS402:NO)、虹彩画像の連続画像が継続される。
 他方で、撮像を終了すると判定された場合(ステップS402:YES)、虹彩画像の連続撮像は終了され、選択部140が、それまでに撮像された複数枚の虹彩画像の中から品質の高い少なくとも1枚の画像を選択する(ステップS501)。そして、選択部140で選択された虹彩画像を用いて、認証部が虹彩認証を実行する(ステップS502)。
 (技術的効果)
 次に、第5実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図10及び図11で説明したように、第5実施形態に係る情報処理システム10では、複数枚の虹彩画像の中から品質の高い画像が選択され、選択された画像を用いた認証処理が実行される。このようにすれば、品質高い虹彩画像を用いて認証処理を行うことができるため、精度の高い生体認証を実現することができる。
 <第6実施形態>
 第6実施形態に係る情報処理システム10について、図12を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と一部の構成が異なるのみであり、その他の部分については第1から第5実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (カメラ構成)
 まず、図12を参照しながら、第6実施形態に係る情報処理システム10のカメラ構成について説明する。図12は、第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図12では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図12に示すように、第6実施形態に係る情報処理システム10は、カメラ18として、第1カメラ183と、第2カメラ182と、第3カメラ183と、を備えている。第1カメラ181は、第1画像を撮像するカメラとして設けられている。第2カメラ182は、第2画像を撮像するカメラとして設けられている。第1カメラ181及び第2カメラ182で撮像された第1画像及び第2画像は、取得部110によって取得される構成となっている。第1カメラ181及び第2カメラ182は、図3で示したように、光軸が交わるように配置されている。また、第3カメラ183は、虹彩画像を撮像する近赤外カメラとして設けられている。このため、第3カメラ183は、制御部130によって制御可能とされている。第1カメラ181、第2カメラ182、及び第3カメラの具体的な配置例については、後述する他の実施形態において詳しく説明する。
 上述した第1カメラ181及び第2カメラ182は、予め校正(キャリブレーション)されていてもよい。この場合、ステレオビジョンを用いて高精度の対象の位置(奥行情報)を取得することが可能となる。第1カメラ181及び第2カメラ182は、光軸が交わるように配置されているため、ステレオ探索範囲を画角中央に限定し、トリガ付近に存在すると判定された対象の対応点情報(例えば、目座標や顔パーツ座標等に関する情報)を用いれば、高精度の奥行情報を取得することができる。
 (技術的効果)
 次に、第6実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図12で説明したように、第6実施形態に係る情報処理システム10では、第1画像が第1カメラ181、第2画像が第2カメラ182、虹彩画像が第3カメラ183によって撮像される。このようにすれば、複数のカメラを用いて、第1画像、第2画像及び第3画像を適切に撮像できる。また、第1画像及び第2画像を共通する1台のカメラで撮像する場合と比べて、より高い精度で対象の位置を判定することができる。
 <第7実施形態>
 第7実施形態に係る情報処理システム10について、図13を参照して説明する。なお、第7実施形態は、上述した第6実施形態における具体的なカメラの配置例を説明するものであり、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (カメラ配置)
 まず、図13を参照しながら、第7実施形態に係る情報処理システム10のカメラ配置について説明する。図13は、第7実施形態に係る情報処理システムにおける第1カメラ、第2カメラ、及び第3カメラの配置例を示す上面図である。なお、図13では、図12で示した構成要素と同様のものに同一の符号を付している。
 図13に示すように、第7実施形態に係る情報処理システム10は、カメラに向かって近づいてくる対象の正面に第3カメラ183が配置されている。なお、ここでの「正面」とは、対象の顔を正面から撮像可能な位置(即ち、対象と正対する位置)である。また、第1カメラ181及び第2カメラ182は、それぞれ第3カメラの左右に配置されている。なお、ここでは、第3カメラ183の右側に第1カメラ181が配置されており、第3カメラ183の左側に第2カメラ182が配置されているが、第3カメラ183の右側に第2カメラ182が配置され、第3カメラ183の左側に第1カメラ181が配置されてもよい。
 (技術的効果)
 次に、第7実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図13で説明したように、第7実施形態に係る情報処理システム10では、対象の正面に第3カメラ183が配置され、第3カメラ183の左右に第1カメラ181及び第2カメラ182がそれぞれ配置される。このようにすれば、対象の正面から適切な角度で虹彩画像を撮像することができる。また、第1画像及び第2画像についても光軸が交わるように適切に撮像することができる。
 <第8実施形態>
 第8実施形態に係る情報処理システム10について、図14を参照して説明する。なお、第8実施形態は、上述した第7実施形態と同様に、第6実施形態における具体的なカメラの配置例を説明するものであり、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (カメラ配置)
 まず、図14を参照しながら、第8実施形態に係る情報処理システム10のカメラ配置について説明する。図14は、第8実施形態に係る情報処理システムにおける第1カメラ、第2カメラ、及び第3カメラの配置例を示す上面図である。なお、図14では、図13で示した構成要素と同様のものに同一の符号を付している。
 図14に示すように、第8実施形態に係る情報処理システム10は、第1カメラ181、第2カメラ182、及び第3カメラ183の各々が斜めから対象を撮像可能な位置に配置されている。なお、ここでの「斜め」とは、対象の正面からずれた角度を意味している。
 図14では、第1カメラ181及び第2カメラ182が対象から見て右側に配置され、第3カメラ183が対象から見て左側に配置される例を挙げたが、本実施形態のカメラ構成がこの配置に限定されるものではない。例えば、第1カメラ181、第2カメラ182、及び第3カメラ183のすべてが対象から見て右側に配置されてもよい。また、第1カメラ181が対象から見て右側に配置され、第2カメラ182が対象から見て左側に配置されてもよい。
 (技術的効果)
 次に、第8実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図14で説明したように、第8実施形態に係る情報処理システム10では、第1カメラ181、第2カメラ182、及び第3カメラ183の各々が対象を正面からずれた角度で斜めから撮像するように配置される。このようにすれば、カメラに近づく対象の移動を妨げることなく、第1画像、第2画像、及び対象の虹彩画像を撮像することができる。
 <第9実施形態>
 第9実施形態に係る情報処理システム10について、図15及び図16を参照して説明する。なお、第9実施形態は、上述した第1から第8実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第8実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (カメラ構成)
 まず、図15を参照しながら、第9実施形態に係る情報処理システム10のカメラ構成について説明する。図15は、第9実施形態に係る情報処理システムにおける第4カメラとミラーとの配置例を示す正面図である。
 図15に示すように、第9実施形態に係る情報処理システム10では、第1画像及び第2画像を撮像するカメラとして、第4カメラ184が設けられている。第4カメラ184は、真上を向くように配置されており、カメラの上にはミラー200が配置されている。よって、第4カメラ184は、ミラー200を撮像範囲に含んでいる。第4カメラ184は、このミラー200を介して対象(即ち、第1画像及び第2画像)を撮像する。
 ミラー200は、角度の異なる第1の面201と第2の面202とを有している。第1の面は第1の画像を撮像するために設けられた面であり、第2の面202は第2の画像を撮像するために設けられた面である。このため、第1の面201と、第2の面202とは、第4カメラ184の光軸がトリガ地点で交わるような角度となっている。また、ミラー200全体は、例えば水平方向に対して45度の角度で配置されている。このようにミラー200に角度をつけることで、第4カメラ184はミラー200を介して正面(即ち、紙面手前側)を撮像可能とされている。
 なお、ミラー200における第1の面201及び第2の面202は、図15で示したように明確に区切られた領域でなくともよく、例えば屈曲したミラー200の一部を第1の面201とし、他部を第2の面202として用いてもよい。また、ミラーにおける第1の面201及び第2の面202は、それぞれ別のミラーが有するように構成されてもよい。例えば、第1の面201を有する第1のミラーと、第2の面202を有する第2のミラーとが、互いに異なる角度となるように別々に設けられてもよい。
 (第1画像及び第2画像)
 次に、図16を参照しながら、第9実施形態に係る情報処理システム10で取得される第1画像及び第2画像について具体的に説明する。図16は、第9実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。
 図16に示すように、第9実施形態に係る情報処理システム10では、第1画像及び第2画像が、1枚の画像として取得される。具体的には、取得画像には、ミラー200の第1の面201を介して撮像される第1画像と、第2の面202を介して撮像される第2画像と、が含まれる。このように第1画像と第2画像とが1枚の画像として取得される場合であっても、それぞれを撮像する際の光軸がトリガ地点で交わるように配置されることで、対象がトリガ地点に到達したことを判定することができる。
 (技術的効果)
 次に、第9実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図15及び図16で説明したように、第9実施形態に係る情報処理システム10では、ミラー200が有する第1の面201及び第2の面202を介して、第1画像及び第2画像が撮像される。このようにすれば、1台のカメラ(即ち、第4カメラ184)で第1画像及び第2画像の両方を撮像することができる。よって、複数のカメラで第1画像及び第2画像を撮像する構成と比較すると、コストを低減することが可能である。
 なお、上述した例では、ミラー200が2つの面を有する例を挙げて説明したが、ミラーは3つ以上の面を備えていてもよい。例えば、ミラー200は、第1の面201及び第2の面202に加えて、第3の面を備えていてもよい。このような構成は、例えば1つのミラーを2箇所で折り曲げて実現されてもよいし、3つのミラーによって実現されてもよい。3つの面の各々は、例えば対象を右側から撮像するための面、正面から撮像するための面、左側から撮像するための面として設けられてよい。この場合、第1の画像及び第2の画像に加えて、第3の面を介して撮像される第3の画像を用いて、対象がトリガ地点に到達したことを判定してよい。なお、第1画像、第2画像、及び第3画像を用いる場合、判定部120が、第1画像における対象位置と、第2画像における対象位置と、第3画像における対象の位置と、の差分が所定範囲内であるか否かを判定してよい。そして、それらの差分が所定範囲内である場合に、対象の虹彩画像を撮像するようにしてよい。また、3つの面のうち、正面から撮像するための面を用いて顔認証を行うようにしてもよい。或いは、対象を右側から撮像するための面、対象を正面から撮像するための面、及び対象を左側から撮像する面から反射されたそれぞれの顔画像を用いて顔認証を行うようにしてもよい。この場合、対象を正面から撮像するための面から取得された顔画像の重み(即ち、顔認証に対する影響度)を、その他の面(即ち、対象を右側、左側から撮像するための面)から取得された顔画像よりも大きくするようにしてもよい。これは、右側や左側から対象を撮像するよりも、正面から対象を撮像した場合の方が、信頼度の高い顔画像(例えば、正面向きの顔画像)を取得できる可能性が高いからである。
 <第10実施形態>
 第10実施形態に係る情報処理システム10について、図17及び図18を参照して説明する。なお、第10実施形態は、上述した第1から第9実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第9実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (カメラ構成)
 まず、図17を参照しながら、第10実施形態に係る情報処理システム10のカメラ構成について説明する。図17は、第10実施形態に係る情報処理システムにおける第5カメラとミラーとの配置例を示す上面図である。
 図17に示すように、第10実施形態に係る情報処理システム10では、第1画像及び第2画像を撮像するカメラとして、第5カメラ185が設けられている。また、第5カメラ185の撮像範囲にはミラー250が設けられている。第5カメラ185及びミラー250は、第5カメラ185からトリガ位置に向けて直接伸びる光軸と、第5カメラ185からミラー250を介してトリガ位置に向けて伸びる光軸とが交わるように配置されている。
 (第1画像及び第2画像)
 次に、図18を参照しながら、第10実施形態に係る情報処理システム10で取得される第1画像及び第2画像について具体的に説明する。図18は、第10実施形態に係る情報処理システムで取得される第1画像及び第2画像の一例を示す平面図である。
 図18に示すように、第10実施形態に係る情報処理システム10では、第1画像及び第2画像が、1枚の画像として取得される。具体的には、対象を直接撮像することで取得される第1画像の中に、ミラー250を介して撮像される第2画像が含まれる。このように第1画像と第2画像とが1枚の画像として取得される場合であっても、それぞれを撮像する際の光軸がトリガ地点で交わるように配置されることで、対象がトリガ地点に到達したことを判定することができる。例えば、図18に示す例では、第1画像の中央付近(即ち、取得画像全体の中央付近)に対象が写り込んでおり、第2画像の中央付近(即ち、ミラー250部分の中央付近)に対象が写り込んでいる。よって、このような場合には、対象がトリガ地点に存在していると判定できる。
 (技術的効果)
 次に、第10実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図17及び図18で説明したように、第10実施形態に係る情報処理システム10では、対象が第5カメラ185によって直接撮像されると共に、ミラー250を介しても撮像される。このようにすれば、1台のカメラ(即ち、第5カメラ185)で第1画像及び第2画像を撮像することができる。よって、複数のカメラで第1画像及び第2画像を撮像する構成と比較すると、コストを低減することが可能である。なお、ミラーの数を増やしたり、ミラーを折り曲げて面の数を増やしたりすることで、1台のカメラでより多くの画像を取得できるようにしてもよい。例えば、第1のミラー及び第2のミラーが第5カメラ185の撮像範囲に設置されている場合、第1のミラーを介して第2画像を取得し、第2のミラーを介して第3画像を取得することができる。この場合、第1画像及び第2画像に加えて、第3画像を更に用いることで、より精度よく撮影タイミングを制御することができる。
 <第11実施形態>
 第11実施形態に係る情報処理システム10について、図19及び図20を参照して説明する。なお、第11実施形態は、上述した第1から第10実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第10実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図19を参照しながら、第11実施形態に係る情報処理システム10の機能的構成について説明する。図19は、第11実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図19では、図2で示した構成要素と同様のものに同一の符号を付している。
 図19に示すように、第11実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、取得部110と、判定部120と、制御部130と、特定部160と、を備えて構成されている。即ち、第11実施形態に係る情報処理システム10は、第1実施形態の構成(図2参照)に加えて、特定部160を更に備えている。なお、特定部160は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 特定部160は、トリガ判定を行う対象(言い換えれば、虹彩画像を撮像する対象)を特定可能に構成されている。特定部160による特定の結果、判定部120では、特定部160で特定された対象の第1画像及び第2画像における位置の差分を用いてトリガ判定が行われることになる。特定部160の特定方法は特に限定されるものではなく、第1画像における対象と、第2画像における対象とが同一人物であることを担保できるものであればよい。特定部160は、例えば顔認証を用いて対象を特定してよい。この場合、顔認証は、第1画像及び第2画像を用いて行われてもよいし、別途撮像された画像を用いて行われてもよい。
 (動作の流れ)
 次に、図20を参照しながら、第11実施形態に係る情報処理システム10による動作の流れについて説明する。図20は、第11実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図20では、図5で示した処理と同様の処理に同一の符号を付している。
 図20に示すように、第11実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120及び特定部160に出力される。
 続いて、特定部160がトリガ判定を行う対象を特定する(ステップS1101)。その後、判定部120が、取得部110で取得された第1画像及び第2画像の各々から、特定部160で特定された対象の位置を検出する(ステップS1102)。なお、ステップS1101と、ステップS1102の処理とは、相前後して実行されてもよい。即ち、ステップS1102を実行した後に、ステップS1101を実行してもよい。この場合、判定部120において対象の位置が所定範囲内であると判定された場合に、特定部160が対象を特定するようにすればよい。
 続いて、判定部120は、第1画像における特定された対象の位置と、第2画像における特定された対象の位置との差分が所定範囲内であるか否かを判定する(ステップS1103)。判定部120による判定結果は、制御部130に出力される。なお、第1画像における特定された対象の位置と、第2画像における特定された対象の位置との差分が所定範囲内でない場合(ステップS1103:NO)、ステップS101から処理が再開される。
 一方、第1画像における特定された対象の位置と、第2画像における特定された対象の位置との差分が所定範囲内である場合(ステップS1103:YES)、制御部130が対象の虹彩画像を撮像するように制御する(ステップS104)。
 なお、第11実施形態に係る情報処理システム10では、第1画像に写り込んでいる対象と、第2画像に写り込んでいる対象とが同一人物(即ち、特定された対象)場合にのみ、その対象についてのトリガ判定が行われる。このため、例えば第1画像に第1の対象が写り込んでおり、第2画像に第2の対象が写り込んでいる場合、第1の画像における第1の対象の位置と、第2画像における第2の対象の位置との差分がトリガ判定に用いられてしまうことはない。
 (技術的効果)
 次に、第11実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図19及び図20で説明したように、第11実施形態に係る情報処理システム10では、対象が特定された上で第1画像及び第2画像を用いたトリガ判定が行われる。このようにすれば、異なる対象の位置に基づく誤ったトリガ判定が行われてしまうことを防止できる。
 <第12実施形態>
 第12実施形態に係る情報処理システム10について、図21を参照して説明する。なお、第12実施形態は、上述した第1から第11実施形態と一部の動作が異なるのみであり、その他の部分については第1から第11実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (動作の流れ)
 まず、図21を参照しながら、第12実施形態に係る情報処理システム10による動作の流れについて説明する。図21は、第12実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図21では、図5で示した処理と同様の処理に同一の符号を付している。
 図21に示すように、第12実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、第1画像及び第2画像に対象が複数写り込んでいるか否かを判定する(ステップS1201)。第1画像及び第2画像に対象が複数写り込んでいる場合(ステップS1201:YES)、判定部120は、複数の対象から1人の対象を選択する(ステップS1202)。判定部120は、例えば最もカメラに近い対象(例えば、最も大きく写り込んでいる対象)を選択するようにしてもよい。なお、以下の処理は、ステップS1202で選択された対象について実行される。第1画像及び第2画像に対象が複数写り込んでいない場合(ステップS1201:NO)、ステップS1202の処理は省略されてよい。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。そして、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。
 第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130が対象の虹彩画像を撮像するように制御する(ステップS104)。
 (技術的効果)
 次に、第12実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図21で説明したように、第12実施形態に係る情報処理システム10では、複数の対象が第1画像及び第2画像に写り込んでいる場合に、その中から選択された1人の対象についてトリガ判定が行われる。このようにすれば、複数の対象が存在する場合でも、適切なタイミングで対象の虹彩画像を撮像することが可能である。
 <第13実施形態>
 第13実施形態に係る情報処理システム10について、図22を参照して説明する。なお、第13実施形態は、上述した第1から第12実施形態と一部の動作が異なるのみであり、その他の部分については第1から第12実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (動作の流れ)
 まず、図22を参照しながら、第13実施形態に係る情報処理システム10による動作の流れについて説明する。図22は、第13実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図22では、図5で示した処理と同様の処理に同一の符号を付している。
 図22に示すように、第13実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、取得部110で取得された第1画像及び第2画像の各々から対象の位置を検出する(ステップS102)。そして、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。なお、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。
 一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、判定部120は更に、対象と同時に通過する同行者が存在するか否かを判定する(ステップS1301)。同行者の一例としては、対象と並んで歩いている人物や、対象が抱いている赤ちゃん等が挙げられる。判定部120は、第1画像及び第2画像を用いて同行者の存在を判定してもよいし、その他の画像を用いて同行者の存在を判定してもよい。
 対象に同行者が存在しない場合(ステップS1301:NO)、制御部130が対象の虹彩画像を撮像するように制御する(ステップS104)。一方で、対象に同行者が存在する場合(ステップS1301:YES)、制御部130は、対象の虹彩画像と同行者の虹彩画像とを異なるカメラで並行して撮像する(ステップS1302)。なお、同行者が複数存在する場合であっても、カメラの数だけ虹彩画像を並行して撮像することができる。なお、カメラの数が不足する場合は、上述した第12実施形態(図21参照)のように、選択した同行者のみを撮像するようにしてもよい。
 (技術的効果)
 次に、第13実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図22で説明したように、第13実施形態に係る情報処理システム10では、複数の対象が第1画像及び第2画像に写り込んでいる場合(特に、複数の対象者が同時にピント位置を追加するような場合)に、各対象の虹彩画像が異なるカメラで撮像される。このようにすれば、複数の対象が存在する場合でも適切なタイミングで対象の虹彩画像を撮像することが可能である。
 <第14実施形態>
 第14実施形態に係る情報処理システム10について、図23及び図24を参照して説明する。なお、第14実施形態は、上述した第1から第13実施形態と一部の動作が異なるのみであり、その他の部分については第1から第13実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (動作の流れ)
 まず、図23を参照しながら、第14実施形態に係る情報処理システム10による動作の流れについて説明する。図23は、第14実施形態に係る情報処理システムの動作の流れを示すフローチャートである。なお、図23では、図5で示した処理と同様の処理に同一の符号を付している。
 図23に示すように、第14実施形態に係る情報処理システム10による動作が開始されると、まず取得部110が第1画像及び第2画像を取得する(ステップS101)。取得部110で取得された第1画像及び第2画像は、判定部120に出力される。
 続いて、判定部120が、第1画像における対象の位置を検出する(ステップS1401)。そして、判定部120は、第1画像にける対象の位置から、第2画像における探索領域を決定する(ステップS1402)。探索領域は、対象の存在を探索する領域として第2画像上で決定されるものである。探索領域の決定方法については、後に具体的に説明する。
 続いて、判定部120が、第2画像における探索領域で対象を探索する(ステップS1403)。探索領域で対象の存在を検出できた場合(ステップS1404)、判定部120は、探索領域で検出された対象の位置を、第2画像における対象の位置として検出する(ステップS1405)。なお、探索領域で対象の存在を検出できない場合、ステップS101から処理が再開されてよい。
 第1画像及び第2画像における対象の位置が検出されると、判定部120は、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内であるか否かを判定する(ステップS103)。判定部120による判定結果は、制御部130に出力される。
 第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内でない場合(ステップS103:NO)、ステップS101から処理が再開される。一方、第1画像における対象の位置と、第2画像における対象の位置との差分が所定範囲内である場合(ステップS103:YES)、制御部130が対象の虹彩画像を撮像するように制御する(ステップS104)。
 (探索領域)
 次に、図24を参照して、上述した第2画像で設定される探索領域について具体的に説明する。図24は、第14実施形態に係る情報処理システムで取得される第1画像及び第2画像と、その探索領域との一例を示す平面図である。
 図24に示すように、第14実施形態に係る情報処理システム10では、第1画像において対象を検出した領域に対応する領域として探索領域が決定される。例えば、図24(a)に示す例では、第1画像の左端付近で対象が検出されている。この場合、第2画像の左端付近の領域が探索領域として決定されるが、その中には対象が含まれていないため、第2画像から対象は検出されないことになる。一方、図24(b)に示す例では、第1画像の中央付近で対象が検出されているため、第2画像の中央付近の領域が探索領域として決定される。そして、その探索領域の中に対象が含まれているため、第2画像から対象が検出されることになる。
 (技術的効果)
 次に、第14実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図23及び図24で説明したように、第14実施形態に係る情報処理システム10では、第1画像における対象が存在する領域が、第2画像における対象の探索領域に設定される。このようにすれば、第2画像における対象の位置を検出する際に、画像全体を探索せずに済む。その結果、第2画像における対象の位置を検出する処理を高速且つ低い負荷で実行することが可能となる。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報処理システムは、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得する取得手段と、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定する判定手段と、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する制御手段と、を備える情報処理システムである。
 (付記2)
 付記2に記載の情報処理システムは、前記制御手段は、前記第1画像及び前記第2画像から前記対象の目位置を特定し、前記特定した目位置に基づいて前記虹彩画像を撮像するよう制御する、付記1に記載の情報処理システムである。
 (付記3)
 付記3に記載の情報処理システムは、前記第1の画像及び前記第2画像における前記対象の位置は、前記対象の右目及び左目の位置である、付記1又は2に記載の情報処理システムである。
 (付記4)
 付記4に記載の情報処理システムは、前記所定位置は、前記虹彩画像を撮像するカメラから見てピント位置より奥側に設定されており、前記制御手段は、前記差分が前記所定範囲内となってから、前記虹彩画像を撮像するカメラに近づいてくる前記対象の虹彩画像を連続して撮像するよう制御する、付記1から3のいずれか一項に記載の情報処理システムである。
 (付記5)
 付記5に記載の情報処理システムは、連続して撮像された複数の前記虹彩画像の中から、品質の高い少なくとも1枚の前記虹彩画像を選択する選択手段と、選択された前記虹彩画像を用いて虹彩認証を実行する認証手段と、を更に備える付記4に記載の情報処理システムである。
 (付記6)
 付記6に記載の情報処理システムは、前記取得手段は、第1カメラで撮像した前記第1画像と、前記第1カメラと異なる角度で設置された第2カメラで撮像した前記第2画像と、を取得し、前記制御手段は、前記第1カメラ及び前記第2カメラとは異なる第3カメラで前記虹彩画像を撮像するよう制御する、付記1から5のいずれか一項に記載の情報処理システムである。
 (付記7)
 付記7に記載の情報処理システムは、前記第3カメラは、前記対象の正面に配置されており、前記第1カメラ及び前記第2カメラは、前記第3カメラの左右にそれぞれ配置されている、付記6に記載の情報処理システムである。
 (付記8)
 付記8に記載の情報処理システムは、前記第1カメラ、前記第2カメラ、及び前記第3カメラの各々は、前記対象を正面からずれた角度で斜めに撮像する位置に配置されている、付記6に記載の情報処理システムである。
 (付記9)
 付記9に記載の情報処理システムは、前記取得手段は、第4カメラでミラーにおける第1の面を介して撮像した前記第1の画像と、前記第4カメラで前記ミラーにおける第2の面を介して撮像した前記第2の画像と、を取得する、付記1から5のいずれか一項に記載の情報処理システムである。
 (付記10)
 付記10に記載の情報処理システムは、前記取得手段は、第5カメラで直接撮像した前記第1の画像と、前記第5カメラでミラーを介して撮像した前記第2画像と、を取得する、付記1から5のいずれか一項に記載の情報処理システムである。
 (付記11)
 付記11に記載の情報処理システムは、前記対象を特定する特定手段を更に備え、前記判定手段は、前記第1画像における特定した対象の位置と、前記第2画像における前記特定した対象の位置と、の差分が前記所定範囲内であるか否かを判定する、付記1から10のいずれか一項に記載の情報処理システムである。
 (付記12)
 付記12に記載の情報処理システムは、前記制御手段は、前記第1画像及び前記第2画像に複数の前記対象が写り込んでいる場合に、複数の前記対象から1人を選択して、選択した前記対象の前記虹彩画像を撮像するよう制御する、付記1から11のいずれか一項に記載の情報処理システムである。
 (付記13)
 付記13に記載の情報処理システムは、前記制御手段は、前記第1画像及び前記第2画像に複数の前記対象が写り込んでいる場合に、複数の前記対象の前記虹彩画像を、前記対象ごとに異なるカメラで撮像するよう制御する、付記1から11のいずれか一項に記載の情報処理システムである。
 (付記14)
 付記14に記載の情報処理システムは、前記判定手段は、前記第1画像における対象が写り込んだ第1領域を検出した後、前記第2画像における前記第1領域に対応する第2領域に前記対象が存在しているか否かを探索する、付記1から13のいずれか一項に記載の情報処理システムである。
 (付記15)
 付記15に記載の情報処理方法は、少なくとも1つのコンピュータによって、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、情報処理方法である。
 (付記16)
 付記16に記載の記録媒体は、少なくとも1つのコンピュータに、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、情報処理方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記17)
 付記17に記載の情報処理装置は、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得する取得手段と、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定する判定手段と、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する制御手段と、を備える情報処理装置である。
 (付記18)
 付記18に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、情報処理方法を実行させるコンピュータプログラムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理システム、情報処理方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 10 情報処理システム
 11 プロセッサ
 18 カメラ
 110 取得部
 120 判定部
 130 制御部
 140 選択部
 150 認証部
 160 特定部
 181 第1カメラ
 182 第2カメラ
 183 第3カメラ
 184 第4カメラ
 185 第5カメラ
 200 ミラー
 201 第1の面
 202 第2の面
 250 ミラー

Claims (16)

  1.  所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得する取得手段と、
     前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定する判定手段と、
     前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する制御手段と、
     を備える情報処理システム。
  2.  前記制御手段は、前記第1画像及び前記第2画像から前記対象の目位置を特定し、前記特定した目位置に基づいて前記虹彩画像を撮像するよう制御する、
     請求項1に記載の情報処理システム。
  3.  前記第1の画像及び前記第2画像における前記対象の位置は、前記対象の右目及び左目の位置である、
     請求項1又は2に記載の情報処理システム。
  4.  前記所定位置は、前記虹彩画像を撮像するカメラから見てピント位置より奥側に設定されており、
     前記制御手段は、前記差分が前記所定範囲内となってから、前記虹彩画像を撮像するカメラに近づいてくる前記対象の虹彩画像を連続して撮像するよう制御する、
     請求項1から3のいずれか一項に記載の情報処理システム。
  5.  連続して撮像された複数の前記虹彩画像の中から、品質の高い少なくとも1枚の前記虹彩画像を選択する選択手段と、
     選択された前記虹彩画像を用いて虹彩認証を実行する認証手段と、
     を更に備える請求項4に記載の情報処理システム。
  6.  前記取得手段は、第1カメラで撮像した前記第1画像と、前記第1カメラと異なる角度で設置された第2カメラで撮像した前記第2画像と、を取得し、
     前記制御手段は、前記第1カメラ及び前記第2カメラとは異なる第3カメラで前記虹彩画像を撮像するよう制御する、
     請求項1から5のいずれか一項に記載の情報処理システム。
  7.  前記第3カメラは、前記対象の正面に配置されており、
     前記第1カメラ及び前記第2カメラは、前記第3カメラの左右にそれぞれ配置されている、
     請求項6に記載の情報処理システム。
  8.  前記第1カメラ、前記第2カメラ、及び前記第3カメラの各々は、前記対象を正面からずれた角度で斜めに撮像する位置に配置されている、
     請求項6に記載の情報処理システム。
  9.  前記取得手段は、第4カメラでミラーにおける第1の面を介して撮像した前記第1の画像と、前記第4カメラで前記ミラーにおける第2の面を介して撮像した前記第2の画像と、を取得する、
     請求項1から5のいずれか一項に記載の情報処理システム。
  10.  前記取得手段は、第5カメラで直接撮像した前記第1の画像と、前記第5カメラでミラーを介して撮像した前記第2画像と、を取得する、
     請求項1から5のいずれか一項に記載の情報処理システム。
  11.  前記対象を特定する特定手段を更に備え、
     前記判定手段は、前記第1画像における特定した対象の位置と、前記第2画像における前記特定した対象の位置と、の差分が前記所定範囲内であるか否かを判定する、
     請求項1から10のいずれか一項に記載の情報処理システム。
  12.  前記制御手段は、前記第1画像及び前記第2画像に複数の前記対象が写り込んでいる場合に、複数の前記対象から1人を選択して、選択した前記対象の前記虹彩画像を撮像するよう制御する、
     請求項1から11のいずれか一項に記載の情報処理システム。
  13.  前記制御手段は、前記第1画像及び前記第2画像に複数の前記対象が写り込んでいる場合に、複数の前記対象の前記虹彩画像を、前記対象ごとに異なるカメラで撮像するよう制御する、
     請求項1から11のいずれか一項に記載の情報処理システム。
  14.  前記判定手段は、前記第1画像における対象が写り込んだ第1領域を検出した後、前記第2画像における前記第1領域に対応する第2領域に前記対象が存在しているか否かを探索する、
     請求項1から13のいずれか一項に記載の情報処理システム。
  15.  少なくとも1つのコンピュータによって、
     所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、
     前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、
     前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、
     情報処理方法。
  16.  少なくとも1つのコンピュータに、
     所定地点で光軸が交わるように撮像された第1画像及び第2画像を取得し、
     前記第1画像における対象の位置と、前記第2画像における前記対象の位置と、の差分が所定範囲内であるか否かを判定し、
     前記差分が前記所定の範囲内である場合に、前記対象の虹彩画像を撮像するよう制御する、
     情報処理方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2022/008942 2022-03-02 2022-03-02 情報処理システム、情報処理方法、及び記録媒体 WO2023166629A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008942 WO2023166629A1 (ja) 2022-03-02 2022-03-02 情報処理システム、情報処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008942 WO2023166629A1 (ja) 2022-03-02 2022-03-02 情報処理システム、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023166629A1 true WO2023166629A1 (ja) 2023-09-07

Family

ID=87883245

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008942 WO2023166629A1 (ja) 2022-03-02 2022-03-02 情報処理システム、情報処理方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023166629A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210847A (ja) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd 画像処理方法
JP2004038531A (ja) * 2002-07-03 2004-02-05 Matsushita Electric Ind Co Ltd 物体の位置検出方法および物体の位置検出装置
JP2004046451A (ja) * 2002-07-10 2004-02-12 Matsushita Electric Ind Co Ltd 目画像撮像装置および個体認証装置
JP2007213369A (ja) * 2006-02-10 2007-08-23 Matsushita Electric Ind Co Ltd 生体認証装置および生体認証方法
JP2008310480A (ja) * 2007-06-13 2008-12-25 Panasonic Corp 虹彩撮影装置および虹彩認証装置
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2017062756A (ja) * 2015-09-24 2017-03-30 日本電産リード株式会社 虹彩認証装置
JP2017142772A (ja) * 2016-02-05 2017-08-17 富士通株式会社 虹彩認証装置及び虹彩認証プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210847A (ja) * 1995-02-06 1996-08-20 Ikegami Tsushinki Co Ltd 画像処理方法
JP2004038531A (ja) * 2002-07-03 2004-02-05 Matsushita Electric Ind Co Ltd 物体の位置検出方法および物体の位置検出装置
JP2004046451A (ja) * 2002-07-10 2004-02-12 Matsushita Electric Ind Co Ltd 目画像撮像装置および個体認証装置
JP2007213369A (ja) * 2006-02-10 2007-08-23 Matsushita Electric Ind Co Ltd 生体認証装置および生体認証方法
JP2008310480A (ja) * 2007-06-13 2008-12-25 Panasonic Corp 虹彩撮影装置および虹彩認証装置
WO2009016846A1 (ja) * 2007-08-02 2009-02-05 Panasonic Corporation 虹彩認証装置および虹彩認証システム
JP2017062756A (ja) * 2015-09-24 2017-03-30 日本電産リード株式会社 虹彩認証装置
JP2017142772A (ja) * 2016-02-05 2017-08-17 富士通株式会社 虹彩認証装置及び虹彩認証プログラム

Similar Documents

Publication Publication Date Title
CN111989537B (zh) 用于在无约束环境中检测人类视线和手势的系统和方法
JP5137833B2 (ja) 視線方向検出装置および視線方向検出方法
WO2019179442A1 (zh) 智能设备的交互目标确定方法和装置
US9489574B2 (en) Apparatus and method for enhancing user recognition
WO2019179441A1 (zh) 智能设备的焦点跟随方法、装置、智能设备及存储介质
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
US20160011658A1 (en) Systems and methods of eye tracking calibration
TWI531929B (zh) 基於影像來識別觸控表面的目標接觸區域之技術
EP3382510A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP5001930B2 (ja) 動作認識装置及び方法
CN111919222B (zh) 识别图像中的对象的装置和方法
JP2022059044A (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
CN106681326B (zh) 座椅、控制座椅运动的方法和用于座椅的运动控制系统
TWI557601B (zh) 瞳孔追蹤系統及其方法、電腦程式產品、及電腦可讀取紀錄媒體
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
KR20210099780A (ko) 전자 장치 및 그 제어 방법
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
KR101919138B1 (ko) 원거리 멀티 생체 인식 방법 및 장치
US10299982B2 (en) Systems and methods for blind and visually impaired person environment navigation assistance
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
WO2023166629A1 (ja) 情報処理システム、情報処理方法、及び記録媒体
WO2023228730A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラムが格納された非一時的なコンピュータ可読媒体
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929774

Country of ref document: EP

Kind code of ref document: A1