WO2020255244A1 - 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体 - Google Patents

撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体 Download PDF

Info

Publication number
WO2020255244A1
WO2020255244A1 PCT/JP2019/024068 JP2019024068W WO2020255244A1 WO 2020255244 A1 WO2020255244 A1 WO 2020255244A1 JP 2019024068 W JP2019024068 W JP 2019024068W WO 2020255244 A1 WO2020255244 A1 WO 2020255244A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
point
image
iris
state
Prior art date
Application number
PCT/JP2019/024068
Other languages
English (en)
French (fr)
Inventor
有加 荻野
慶一 蝶野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/619,769 priority Critical patent/US11997377B2/en
Priority to EP19933805.4A priority patent/EP3989532A4/en
Priority to PCT/JP2019/024068 priority patent/WO2020255244A1/ja
Priority to JP2021528091A priority patent/JP7226549B2/ja
Priority to CN201980097552.XA priority patent/CN113966607B/zh
Publication of WO2020255244A1 publication Critical patent/WO2020255244A1/ja
Priority to JP2022192948A priority patent/JP2023029941A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to the technical fields of an imaging system, an imaging method, a control device, a computer program, and a recording medium capable of imaging an imaging target.
  • Patent Document 1 describes a walk-through type iris recognition system that enables iris recognition even when the subject does not stand still.
  • Patent Document 1 includes a wide-angle camera and a plurality of iris cameras, and an iris recognition system that selects an iris camera to be used for authentication from a plurality of iris cameras by processing images of the wide-angle cameras. Is described.
  • the iris authentication system described in Patent Document 1 has a technical problem that it may not be possible to properly image a moving target person using an iris camera.
  • an iris authentication system with a wide-angle camera and multiple iris cameras selects the iris camera to be used for authentication before the moving subject reaches the in-focus position of the iris camera (further). Need to set the parameters of the selected iris camera as needed). Therefore, the iris recognition system is an iris camera that should be used for authentication based on the image of the wide-angle camera by imaging the subject with a wide-angle camera before the moving subject reaches the in-focus position of the iris camera. It is desirable to select.
  • Patent Document 1 does not consider this point at all.
  • An object of the present invention is to provide an imaging system, an imaging method, a control device, a computer program, and a recording medium capable of solving the above-mentioned technical problems.
  • the first aspect of the imaging system for solving the problem is that the first imaging device that images the imaging object located at the first point and the image pickup target are located on the back side of the first point in the moving direction of the imaging object. Based on the second image pickup device whose focusing position is set at the second point and the image captured by the first image pickup device, the second image pickup is performed so as to image the image pickup target located at the second point. It is provided with a control device for controlling the device.
  • the second aspect of the imaging system for solving the problem is that the state can be switched between the first state and the second state, and in the first state, the imaging target located at the first point is captured.
  • An image pickup device in which an image is taken and a focusing position is set at a second point located farther in the moving direction of the image pickup target than the first point, and the first state.
  • An imaging system including a control device that controls the imaging device in the second state so as to image the imaging target located at the second point based on the image captured by the imaging device.
  • the first aspect of the imaging method for solving the problem is an acquisition step of acquiring an image captured by a first imaging device that images an imaging target located at a first point, and an image acquired in the acquisition step. Based on this, the focusing position is set at the second point so as to image the image pickup target located at the second point located on the back side in the moving direction of the image pickup target from the first point. 2 It includes a control process for controlling the imaging device.
  • the second aspect of the imaging method for solving the problem is that the state can be switched between the first state and the second state, and in the first state, the imaging target located at the first point is captured.
  • the image pickup device that images an image pickup target located at a second point located behind the first point in the moving direction of the image pickup target is in the first state.
  • Control to switch the image pickup device from the first state to the second state by controlling the image pickup device based on the acquisition step of acquiring the image captured by the image pickup device and the image acquired in the acquisition step. It has a process.
  • the first aspect of the control device for solving the problem is based on an acquisition means for acquiring an image captured by a first imaging device that captures an image pickup target located at a first point and an image acquired by the acquisition means.
  • the focus position is set at the second point so as to image the image pickup target located at the second point located on the back side in the moving direction of the image pickup target from the first point. 2
  • the control means for controlling the image pickup apparatus is provided.
  • the second aspect of the control device for solving the problem is that the state can be switched between the first state and the second state, and in the first state, the image pickup target located at the first point is captured.
  • the image pickup device in the first state is obtained from an image pickup apparatus that takes an image and images an image pickup target located at a second point located behind the first point in the moving direction of the image pickup target in the second state.
  • a control means for switching the image pickup device from the first state to the second state by controlling the acquisition means for acquiring the image captured by the image pickup device and the image pickup device based on the image acquired by the acquisition means. And.
  • One aspect of the computer program for solving the problem is to have the computer execute the first or second aspect of the above-mentioned imaging method.
  • One aspect of the recording medium for solving the problem is a recording medium on which one aspect of the computer program described above is recorded.
  • a moving imaging target can be appropriately imaged.
  • FIG. 1 is a block diagram showing an overall configuration of the iris authentication system of the present embodiment.
  • FIG. 2 is a schematic view showing the positional relationship between the entire camera and the iris camera and the person to be authenticated.
  • FIG. 3 is a block diagram showing a hardware configuration of the iris recognition device of the present embodiment.
  • FIG. 4 is a block diagram showing a functional block realized in the CPU included in the iris authentication device of the present embodiment.
  • FIG. 5 is a flowchart showing the flow of the operation of the iris authentication system of the present embodiment (that is, the iris authentication operation).
  • FIG. 6 is a plan view showing an example of the entire image.
  • FIG. 7 is a plan view showing an example of the entire image.
  • FIG. 6 is a plan view showing an example of the entire image.
  • FIG. 8 is a plan view showing the relationship between the entire image and the plurality of iris images.
  • FIG. 9 is a block diagram showing the overall configuration of the iris recognition system of the first modification.
  • FIG. 10 is a flowchart showing the flow of the operation (that is, the iris authentication operation) of the iris authentication system of the first modification.
  • FIG. 11 is a block diagram showing a modified example of the functional block realized in the CPU included in the iris recognition device.
  • the iris recognition system 1 executes an iris recognition operation that authenticates the authentication target person T based on the iris pattern of the authentication target person T (for example, a human), which is an example of the image pickup target.
  • a human for example, a human
  • Such an iris recognition system 1 may be adopted as a part of, for example, a system for automating immigration procedures at an airport (so-called ABC (Automated Border Control)).
  • the iris recognition system 1 may be a walk-through type iris recognition system that authenticates the moving authentication target person T.
  • the description will proceed using an example in which the iris authentication system 1 is a walk-through type iris authentication system.
  • the iris recognition system 1 is not limited to the iris recognition system exemplified in this paragraph, and the iris recognition system 1 is used as an arbitrary iris recognition system capable of authenticating the authentication target person T. May be good.
  • the iris recognition system 1 is a specific example of the "imaging system" in the appendix described later.
  • FIG. 1 is a block diagram showing an overall configuration of the iris authentication system 1 of the present embodiment.
  • the iris recognition system 1 is a specific example of the overall camera 2 which is a specific example of the “first imaging device” described later, and a specific example of the “second imaging device” which will be described later. It is provided with a plurality of iris cameras 3 and an iris recognition device 6 which is a specific example of the “control device” described later.
  • the iris recognition system 1 further includes a motion sensor 4 which is a specific example of the "first detection device” described later, and a motion sensor 5 which is a specific example of the "second detection device” described later. May be provided.
  • FIG. 1 shows an example in which the iris authentication system 1 includes n (where n is an integer of 2 or more) iris cameras 3.
  • n iris cameras 3 will be referred to as iris camera 3-1, iris camera 3-2, ..., And iris camera 3-n, respectively, as necessary.
  • the number of iris cameras 3 may be appropriately set according to the characteristics of each iris camera 3 (for example, at least one such as the viewing range of each iris camera 3 and the resolution of each iris camera 3).
  • FIG. 2 is a schematic view showing the positional relationship between the entire camera 2 and the plurality of iris cameras 3 and the authentication target person T.
  • the overall camera 2 images the authentication target person T in a field of view wider than the field of view of each iris camera 3. That is, the field of view of the entire camera 2 is wider than the field of view of each iris camera 3.
  • the field of view of the entire camera 2 is set to an appropriate range so that the entire camera 2 can take an image of the authentication target person T regardless of the height of the authentication target person T. That is, the field of view of the entire camera 2 is set to an appropriate range so that the entire camera 2 can image the relatively tall authentication target person T and also the relatively short authentication target person T. ing.
  • the field of view of the entire camera 2 is such that the overall camera 2 uses the target portion TP (iris in the present embodiment) used for authentication among the authentication target persons T regardless of the height of the authentication target person T. It is set in an appropriate range so that it can image (eyes including).
  • the "camera field of view range” in the present embodiment means a range including a scene that can be captured by the camera, and may be referred to as an imaging range.
  • the size of such a field of view typically increases as the angle of view (in other words, the viewing angle) of the camera increases. Therefore, typically, the optical system (for example, a lens) of the entire camera 2 has a wider angle than the optical system of each iris camera 3. That is, the angle of view of the entire camera 2 is wider than the angle of view of each iris camera 3. Further, the angle of view of the camera typically increases as the focal length of the optical system (for example, a lens) included in the camera becomes shorter. Therefore, typically, the focal length of the optical system of the entire camera 2 is shorter than the focal length of the optical system of each iris camera 3.
  • the overall camera 2 captures the authentication target person T located at the trigger point P1. That is, the field of view of the entire camera 2 is set to an appropriate field of view so that the entire camera 2 can image the authentication target person T located at the trigger point P1.
  • the trigger point P1 is a point located on the movement path of the authentication target person T. Further, the trigger point P1 is a point located on the front side of the reference point P0 when viewed from the authentication target person T moving toward the trigger point P1. That is, the trigger point P1 is a point located on the front side (that is, the rear side) in the moving direction of the authentication target person T from the reference point P0.
  • the trigger point P1 is a point separated from the reference point P0 by a distance D1 along the moving direction of the authentication target person T.
  • the reference point P0 may be, for example, a point where each iris camera 3 is installed.
  • the reference point P0 may be, for example, the destination of the moving authentication target person T.
  • the destination may be, for example, a point through which the certification target person T passes after certification (for example, a point where an airport gate is installed).
  • the authentication target person T is moving from the left side to the right side of the paper. Therefore, in the example shown in FIG. 2, the trigger point P1 is a point separated from the reference point P0 by a distance D1 toward the left side of the paper.
  • the authentication target person T may move along a linear path in which the moving direction is always the same, or along a path in which the moving direction changes in the middle (for example, a curved path or a bent path). You may move.
  • the overall camera 2 is arranged so that the focusing position of the overall camera 2 is located at the trigger point P1.
  • the "focus position" in the present embodiment is a certain area extending before and after the best focus position (for example, an area that can be regarded as being in focus and corresponds to the depth of field). Shall mean.
  • the overall camera 2 is arranged so that the focusing position of the overall camera 2 is a region including the trigger point P1 (that is, the trigger point P1 is located in the region corresponding to the focusing position). Is preferable.
  • the trigger point P1 is set at the in-focus position of the entire camera 2.
  • the whole camera 2 has a resolution enough to identify the face of the authentication target person T located at the trigger point P1 from the whole image 200 which is an image captured by the whole camera 2.
  • the overall camera 2 has a resolution such that the target portion TP (that is, the eye) of the authentication target person T located at the trigger point P1 can be identified from the overall image 200 where in the overall image 200. have.
  • each iris camera 3 captures the authentication target person T located at the focus point P2. That is, the field of view of each iris camera 3 is set to an appropriate field of view so that each iris camera 3 can image the authentication target person T located at the focus point P2.
  • the focus point P2 is a point located on the movement path of the authentication target person T, similarly to the trigger point P1. Further, the focus point P2 is a point located on the front side of the reference point P0 when viewed from the authentication target person T moving toward the focus point P2, similarly to the trigger point P1. That is, the focus point P2 is a point located on the front side (that is, the rear side) in the moving direction of the authentication target person T from the reference point P0.
  • the focus point P2 is a point separated from the reference point P0 by a distance D2 along the moving direction of the authentication target person T.
  • the authentication target person T is moving from the left side to the right side of the paper. Therefore, in the example shown in FIG. 2, the focus point P2 is a point separated from the reference point P0 toward the left side of the paper by a distance D2.
  • the distance D2 between the focus point P2 and the reference point P0 is shorter than the distance D1 between the trigger point P1 and the reference point P0. Therefore, the focus point P2 is located on the back side (that is, the front side) in the moving direction of the authentication target person T from the trigger point P1. In other words, the trigger point P1 is located on the front side (that is, the rear side) in the moving direction of the authentication target person T from the focus point P2. Therefore, the moving authentication target person T passes through the focus point P2 after passing through the trigger point P1. In other words, the moving authentication target person T passes through the trigger point P1 before passing through the focus point P2.
  • the distances D1 and D2 may be set to any value as long as the relationship that the distance D2 is shorter than the distance D1 is satisfied. As an example, the distances D1 and D2 may be set to 3 m and 2 m, respectively.
  • Each iris camera 3 is arranged so that the focusing position of each iris camera 3 is located at the focus point P2. Specifically, each iris camera 3 is arranged so that the in-focus position of each iris camera 3 is an area including the focus point P2 (that is, the focus point P2 is located in the area corresponding to the in-focus position). It can be said that it will be done. Conversely, the focus point P2 is set at the in-focus position of each iris camera 3. As described above, the angle of view of the entire camera 2 is wider than the angle of view of each iris camera 3 (that is, the focal length of the optical system of the entire camera 2 is shorter than the focal length of the optical system of each iris camera 3). Therefore, the area corresponding to the in-focus position of the entire camera 2 is wider than the area corresponding to the in-focus position of each iris camera 3.
  • the plurality of iris cameras 3 are arranged so that the viewing ranges of the plurality of iris cameras 3 partially overlap in the vertical direction (or a desired direction different from the vertical direction) at the focus point P2.
  • the plurality of iris cameras 3 are the lower end of the field of view of the iris camera 3-k (where k is an integer satisfying 1 ⁇ k ⁇ n) and the iris camera 3-m at the focus point P2.
  • the same scene is partially reflected in the two images captured by the two iris cameras 3 whose field of view partially overlap.
  • the same scene is reflected in the lower end of the image captured by the iris camera 3-k and the upper end of the image captured by the iris camera 3-m.
  • the plurality of iris cameras 3 are arranged so that the combined visual field range obtained by synthesizing the visual field ranges of the plurality of iris cameras 3 has a predetermined horizontal length in the horizontal direction and a predetermined vertical length in the vertical direction. ..
  • the predetermined horizontal length may be a length (for example, 0.2 m) that can include the target site TP of the authentication target person T located at the focus point P2 in the synthetic visual field range.
  • the predetermined vertical length is a length that can include the target site TP of the authentication target person T located at the focus point P2 in the synthetic visual field range regardless of the height of the authentication target person T (for example, 0.4 m). ) May be.
  • Each iris camera 3 has a resolution capable of identifying the target portion TP of the authentication target person T located at the focus point P2 from the iris image 300 which is an image captured by each iris camera 3.
  • each iris camera 3 has a resolution sufficient to identify the iris pattern of the authentication target T located at the focus point P2 from the iris image 300, which is an image captured by each iris camera 3. There is.
  • the field of view of the entire camera 2 partially overlaps with at least one of the field of view of the plurality of iris cameras 3.
  • both the authentication target person T (particularly the target site TP) located at the trigger point P1 and the authentication target person T (particularly the target site TP) located at the focus point P2 are included in the field of view of the entire camera 2.
  • both the authentication target person T (particularly the target site TP) located at the trigger point P1 and the authentication target person T (particularly the target site TP) located at the focus point P2 are included in the field of view of each iris camera 3. It may be.
  • the field of view of the entire camera 2 does not have to overlap with the field of view of each of the plurality of iris cameras 3.
  • the authentication target person T (particularly the target part TP) located at the trigger point P1 is included in the field of view of the entire camera 2, while the authentication target person T (particularly the target part TP) located at the focus point P2 is included. It does not have to be included in the field of view of the entire camera 2.
  • the authentication target person T (particularly the target site TP) located at the focus point P2 is included in the field of view of each iris camera 3, while the authentication target person T (particularly the target site TP) located at the trigger point P1. Does not have to be included in the field of view of each iris camera 3.
  • the motion sensor 4 is a detection device for detecting whether or not the authentication target person T is located at the trigger point P1.
  • the detection result of the motion sensor 4 is output to the iris authentication device 6.
  • the detection result of the motion sensor 4 is used as a condition for determining whether or not the entire camera 2 captures the authentication target person T located at the trigger point P1.
  • the motion sensor 5 is a detection device for detecting whether or not the authentication target person T is located at the focus point P2.
  • the detection result of the motion sensor 5 is output to the iris authentication device 6.
  • the detection result of the motion sensor 5 is used as a condition for determining whether or not the iris camera 3 images the authentication target person T located at the focus point P2.
  • the iris authentication device 6 controls the overall operation of the iris authentication system 1.
  • the iris recognition device 6 executes the iris recognition operation.
  • the iris recognition operation for example, one iris camera 3 for photographing the authentication target person T located at the focus point P2 is selected from the plurality of iris cameras 3 based on the whole image 200 captured by the whole camera 2. This is an operation including a process of performing the process and a process of authenticating the authentication target person T based on the iris image 300 captured by the selected one iris camera 3.
  • the configuration of the iris authentication device 6 that executes such an iris authentication operation will be described in more detail.
  • FIG. 3 is a block diagram showing a hardware configuration of the iris recognition device 6 of the present embodiment.
  • the iris recognition device 6 includes a CPU (Central Processing Unit) 61, a RAM (Random Access Memory) 62, a ROM (Read Only Memory) 63, a storage device 64, an input device 65, and the like. It includes an output device 66.
  • the CPU 61, the RAM 62, the ROM 63, the storage device 64, the input device 65, and the output device 66 are connected via the data bus 67.
  • the iris recognition device 6 does not have to include at least one of a RAM 62, a ROM 63, a storage device 64, an input device 65, an output device 66, and a data bus 67.
  • the CPU 61 reads a computer program.
  • the CPU 61 may read a computer program stored in at least one of the RAM 62, the ROM 63, and the storage device 64.
  • the CPU 61 may read a computer program stored in a computer-readable recording medium using a recording medium reading device (not shown).
  • the CPU 61 may acquire (that is, may read) a computer program from a device (not shown) arranged outside the iris recognition device 6 via a network interface.
  • the CPU 61 controls the RAM 62, the storage device 64, the input device 65, and the output device 66 by executing the read computer program.
  • a logical functional block for executing the iris authentication operation is realized in the CPU 61. That is, the CPU 61 can function as a controller for realizing a logical functional block for executing the iris authentication operation.
  • FIG. 4 shows an example of a logical functional block realized in the CPU 61 to perform the iris authentication operation.
  • an image acquisition unit 611 which is a specific example of the "acquisition means” in the appendix described later, and an appendix described later.
  • the coordinate estimation unit 613 which is a specific example of the "control means” in the appendix described later, and a specific example of the "control means” in the appendix described later.
  • a certain camera setting unit 614, an image pickup control unit 615, which is a specific example of the "control means” described later, and an authentication unit 616 are realized.
  • the operations of the image acquisition unit 611, the area detection unit 612, the coordinate estimation unit 613, the camera setting unit 614, the image pickup control unit 615, and the authentication unit 616 will be described in detail later with reference to FIG. The detailed description here will be omitted.
  • the RAM 62 temporarily stores the computer program executed by the CPU 61.
  • the RAM 62 temporarily stores data temporarily used by the CPU 61 when the CPU 61 is executing a computer program.
  • the RAM 62 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 63 stores a computer program executed by the CPU 61.
  • the ROM 63 may also store fixed data.
  • the ROM 63 may be, for example, a P-ROM (Programmable ROM).
  • the storage device 64 stores data stored by the iris recognition device 6 for a long period of time.
  • the storage device 64 may operate as a temporary storage device of the CPU 61.
  • the storage device 64 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 65 is a device that receives an input instruction from the user of the iris authentication device 6.
  • the input device 65 may include, for example, at least one of a keyboard, a mouse and a touch panel.
  • the output device 66 is a device that outputs information about the iris authentication device 6 to the outside.
  • the output device 66 may be a display device capable of displaying information about the iris recognition device 6.
  • FIG. 5 is a flowchart showing the flow of the operation (that is, the iris authentication operation) of the iris authentication system 1 of the present embodiment.
  • the image pickup control unit 615 determines whether or not the authentication target person T is located at the trigger point P1 based on the detection result of the motion sensor 4 (step S11). As a result of the determination in step S11, if it is determined that the authentication target person T is not located at the trigger point P1 (step S11: No), the process of step S11 is repeated. On the other hand, if it is determined that the authentication target person T is located at the trigger point P1 as a result of the determination in step S11 (step S11: Yes), the image pickup control unit 615 is located at the trigger point P1.
  • the entire camera 2 is controlled so as to capture the authentication target person T (step S12). As a result, the whole camera 2 takes an image of the authentication target person T located at the trigger point P1 (step S12).
  • the entire image 200 captured by the overall camera 2 is acquired by the image acquisition unit 611 (step S12).
  • the area detection unit 612 performs image processing on the entire image 200 acquired in step S12, and detects the image portion of the entire image 200 in which the target portion TP is reflected as the target area TA. (Step S21).
  • the region detection unit 612 has a rectangular shape (or a rectangular shape) in which the target portion TP is reflected in the entire image 200. The image portion (of other shapes) is detected as the target region TA. Further, the area detection unit 612 calculates the position coordinates C in the entire image 200 of the detected target area TA (step S21).
  • the position coordinate C may include the coordinates of a desired portion (for example, a corner portion) of the target region TA.
  • the position coordinate C is typically a two-dimensional coordinate (or a two-dimensional vector).
  • position coordinate C (overall: P1)".
  • the coordinate estimation unit 613 assumed that the entire camera 2 imaged the same authentication target person T located at the focus point P2 based on the position coordinates C (overall: P1) of the target region TA calculated in step S21.
  • the position coordinates C of the target region TA in the entire image 200 acquired in the case are estimated (step S22). More specifically, the coordinate estimation unit 613 within the entire image 200, which is assumed to be acquired when it is assumed that the entire camera 2 captures the authentication target person T who has moved from the trigger point P1 to the focus point P2.
  • the position coordinates C of the target region TA of the above are estimated (step S22).
  • step S22 the position coordinates C of the target region TA in the entire image 200, which is assumed to be acquired in this case, are estimated (step S22).
  • position coordinate C all: P2
  • the whole image 200 actually acquired by the whole camera 2 taking an image of the authentication target person T located at the trigger point P1 is referred to as "the whole image 200 (P1)".
  • the entire image 200 that is assumed to be acquired when it is assumed that the entire camera 2 captures the authentication target person T that has moved from the trigger point P1 to the focus point P2 is referred to as "overall image 200 (P2)".
  • the two are distinguished by the name.
  • the authentication target in the whole image 200 (P1) is likely to be different from at least one of the size and position of the person T to be authenticated in the overall image 200 (P2).
  • the coordinate estimation unit 613 is the first correspondence showing the correspondence (typically, the positional relationship) between the object reflected in the whole image 200 (P1) and the same object reflected in the whole image 200 (P2).
  • the position coordinate C (whole: P2) may be estimated from the position coordinate C (whole: P1) using the information.
  • Such first correspondence information typically includes the position coordinates of the object reflected in the overall image 200 (P1) in the overall image 200 (P1) and the focus point P2 from the trigger point P1 to the object.
  • Correspondence with the position coordinates in the whole image 200 (P2) of the same object reflected in the whole image 200 (P2) which is supposed to be acquired when moving toward the authentication target person T in the same way. Show the relationship.
  • the first correspondence information is substantially information that reflects the movement mode of the authentication target person T (for example, the movement direction of the authentication target person T). That is, the first correspondence information substantially includes information regarding the movement mode of the authentication target person T (for example, the movement direction of the authentication target person T).
  • the first correspondence information is the same as the whole image 200 acquired by the whole camera 2 actually capturing the object located at the trigger point P1 and the authentication target person T from the trigger point P1 to the focus point P2. It may be calculated in advance (for example, before the iris recognition operation is executed) based on the whole image 200 acquired by the whole camera 2 actually capturing the same moved object. Specifically, the first correspondence information is calculated based on the position coordinates in the whole image 200 of the object located at the trigger point P1 and the position coordinates in the whole image 200 of the object located at the focus point P2. It may have been done.
  • the first correspondence information includes an overall image 200 that is assumed to be acquired when the entire camera 2 captures an object located at the trigger point P1, and the authentication target person T from the trigger point P1 toward the focus point P2.
  • the entire image 200 which is assumed to be acquired when the entire camera 2 captures the moving object in the same manner as above, is calculated by simulation or the like, and even if it is calculated in advance based on the result of the simulation. Good.
  • At the time of simulation at least one of the position of the whole camera 2, the camera parameter of the whole camera 2, the position of the trigger point P1 and the position of the focus point P2 may be taken into consideration.
  • the first correspondence information may be calculated by any other method.
  • a first transformation matrix H1 may be, for example, a matrix representing a projective transformation that projects an object located at the trigger point P1 onto a virtual surface located at the focus point P2.
  • step S23 when the coordinate estimation unit 613 assumes that the same authentication target person T located at the focus point P2 is imaged by the plurality of iris cameras 3 based on the position coordinates C (overall: P2) estimated in step S22.
  • the position coordinates C of the target region TA in the plurality of iris images 300 acquired respectively are estimated (step S23). More specifically, the coordinate estimation unit 613 is assumed to be acquired by the plurality of iris cameras 3 assuming that the authentication target person T that has moved from the trigger point P1 to the focus point P2 is imaged.
  • the position coordinates C of the target region TA in the iris image 300 are estimated (step S23).
  • the coordinate estimation unit 613 said that the plurality of iris cameras 3 imaged the authentication target person T located at the focus point P2 while the authentication target person T located at the trigger point P1 moved to the focus point P2.
  • the position coordinates C of the target region TA in the plurality of iris images 300 which are assumed to be acquired in each case, are estimated (step S23).
  • the position coordinate C estimated in step S23 is referred to as "position coordinate C (iris: P2)".
  • the iris image 300 which is assumed to be acquired when it is assumed that each iris camera 3 captures the authentication target person T who has moved from the trigger point P1 to the focus point P2. It is called “iris image 300 (P2)".
  • the target region TA reflected in the overall image 200 (P2) is the plurality of iris images 300 (P2). It is not always reflected in all of. That is, the plurality of iris images 300 (P2) may include both the iris image 300 (P2) in which the target region TA is reflected and the iris image 300 (P2) in which the target region TA is not reflected. is there. In the example shown in FIG.
  • the target region TA is reflected in the iris image 300 (P2) -1 which is supposed to be captured by the iris camera 3-1 while the iris cameras 3-2 to 3-n are captured, respectively.
  • the iris images 300 (P2) -2 to 300 (P2) -n, which are supposed to be captured, are not reflected. Therefore, in step S23, the coordinate estimation unit 613 specifies the iris image 300 (P2) in which the target region TA is assumed to be reflected based on the position coordinates C (overall: P2), and the specified iris image.
  • the position coordinate C (iris: P2) of the target region TA within 300 (P2) is estimated.
  • the coordinate estimation unit 613 determines the correspondence (typically, the positional relationship) between the object reflected in the entire image 200 (P2) and the same object reflected in each of the plurality of iris images 300 (P2).
  • the position coordinate C (iris: P2) may be estimated from the position coordinate C (overall: P2) using the second correspondence information shown.
  • Such second correspondence information is typically the position coordinates in the whole image 200 (P2) of the object reflected in the whole image 200 (P2) and each of the plurality of iris images 300 (P2).
  • the correspondence with the position coordinates in the iris image 300 (P2) of the same object reflected in is shown.
  • the second correspondence information is the entire image 200 acquired by the entire camera 2 actually capturing the object located at the focus point P2, and the plurality of iris cameras 3 actually capturing the same object located at the focus point P2. It may be calculated in advance (that is, before the iris recognition operation is executed) based on the plurality of iris images 300 acquired by each of the above. Specifically, even if the second correspondence information is calculated based on the position coordinates of the object at the focus point P2 in the entire image 200 and the position coordinates of the object at the focus point P2 in the iris image 300. Good.
  • the corresponding information includes the entire image 200, which is assumed to be acquired when the entire camera 2 captures the object located at the focus point P2, and the plurality of iris cameras 3 capture the same object located at the focus point P2.
  • a plurality of iris images 300 which are expected to be acquired in each case, may be calculated by simulation or the like, and may be calculated in advance based on the result of the simulation.
  • At the time of simulation at least one of the position of the whole camera 2, the camera parameter of the whole camera 2, the position of the plurality of iris cameras 3, the camera parameters of the plurality of iris cameras 3, the position of the trigger point P1 and the position of the focus point P2.
  • the second correspondence information may be calculated by any other method.
  • the camera setting unit 614 is for imaging the authentication target person T located at the focus point P2 from among the plurality of iris cameras 3 based on the position coordinates C (iris: P2) estimated in step S23.
  • One iris camera 3 is selected (step S31). Specifically, as described above, the coordinate estimation unit 613 identifies the iris image 300 (P2) in which the target region TA is reflected, based on the position coordinates C (overall: P2). Therefore, the camera setting unit 614 captures the authentication target person T located at the focus point P2 with the iris camera 3 corresponding to the iris image 300 (P2) in which the target region TA is reflected among the plurality of iris cameras 3. Select as one iris camera 3 for. In the example shown in FIG. 8, the camera setting unit 614 is one iris camera for photographing the authentication target person T located at the focus point P2 with the iris camera 3-1 corresponding to the iris image 300 (P2) -1. Select as 3.
  • the camera setting unit 614 defines an image portion actually acquired (that is, read out) in order to perform iris recognition among the iris images 300 captured by the one iris camera 3 selected in step S31.
  • the gaze area (ROI: Region of Interest) IA is set (step S32). Specifically, as shown in FIG. 8, the camera setting unit 614 has a rectangular shape (for example, in which the target portion TP of the iris image 300 captured by the selected iris camera 3 is assumed to be captured. Alternatively, a region (of any other shape) is set in the gaze region IA. That is, as shown in FIG.
  • the camera setting unit 614 coincides with the target region TA including the target region TA in the iris image 300 captured by the selected one iris camera 3, or becomes the target region TA.
  • a rectangular (or other shaped) region that is supposed to be included is set as the gaze region IA.
  • the position coordinates C (overall: P2) estimated in step S23 indicate the position coordinates of the target region TA in the iris image 300 (P2). Since the target region TA includes the target region TP, the camera setting unit 614 can appropriately set the gaze region IA based on the position coordinates C (iris: P2). In the example shown in FIG. 8, the camera setting unit 614 sets a part of the iris image 300 (P2) -1 in the gaze area IA.
  • the iris recognition system 1 When the gaze area IA is set, the iris recognition system 1 operates in the gaze area mode.
  • the image acquisition unit 611 acquires the entire iris image 300 captured by the iris camera 3, and instead of acquiring the entire iris image 300, the image portion of the iris image 300 in the gaze area IA (that is, of the image data of the iris image 300). To get a part of). That is, the image acquisition unit 611 does not have to acquire the image portion (that is, the remaining part of the image data of the iris image 300) in the region other than the gaze region IA of the iris image 300.
  • the frame rate at which the image acquisition unit 611 acquires the iris image 300 from the iris camera 3 is substantially improved as compared with the case where the entire iris image 300 is acquired.
  • the frame rate is doubled as compared with the case of acquiring the entire iris image 300. Therefore, even if the frame rate of the iris camera 3 itself is less than the frame rate required for iris recognition, the image acquisition unit 611 can acquire the iris image 300 at the frame rate required for iris recognition. it can.
  • the image pickup control unit 615 determines whether or not the authentication target person T is located at the focus point P2 based on the detection result of the motion sensor 5 (step S41). That is, the image pickup control unit 615 determines whether or not the authentication target person T determined to be located at the trigger point P1 in step S11 has moved to the focus point P2 based on the detection result of the motion sensor 5. Determine (step S41). As a result of the determination in step S41, if it is determined that the authentication target person T is not located at the focus point P2 (step S41: No), the process of step S41 is repeated.
  • step S41 determines that the authentication target person T is located at the focus point P2 as a result of the determination in step S41 (step S41: Yes)
  • the image pickup control unit 615 is located at the focus point P2.
  • the one iris camera 3 selected in step S31 is controlled so as to image the authentication target person T (step S42).
  • the selected one iris camera 3 images the authentication target person T located at the focus point P2 (step S42).
  • the iris image 300 (particularly, the image portion in the gaze area IA of the iris image 300) captured by the selected iris camera 3 is acquired by the image acquisition unit 611 (step S42).
  • the authentication unit 616 performs iris authentication using the iris image 300 acquired in step S42 (step S51). For example, the authentication unit 616 identifies the iris pattern of the authentication target person T based on the iris image 300 acquired in step S42. After that, the authentication unit 616 determines whether or not the specified pattern matches the pattern registered in the database stored in the storage device 64 or the like. When the specified pattern matches the pattern registered in the database, the authentication unit 616 determines that the authentication target person T is a legitimate person. When the specified pattern matches the pattern registered in the database, the authentication unit 616 determines that the authentication target person T is not a legitimate person.
  • the iris recognition system 1 is different from the focus point P2 before the iris camera 3 images the authentication target person T located at the focus point P2 (specifically).
  • the whole camera 2 takes an image of the authentication target person T located at the trigger point P1 (in the foreground). Therefore, the iris recognition system 1 can select one iris camera 3 that captures the authentication target person T before the authentication target person T is located at the focus point P2.
  • the iris recognition system 1 uses the time it takes for the authentication target person T to move from the trigger point P1 to the focus point P2 to select one iris camera 3 that captures the authentication target person T (furthermore, gaze).
  • Area IA can be set). Therefore, the iris recognition system 1 can appropriately image the moving authentication target person T (particularly, the target site TP).
  • the iris recognition system 1 captures one iris that captures the authentication target person T based on the overall image 200 (P1) captured by the overall camera 2.
  • the camera 3 can be appropriately selected. This is because, in the iris authentication system 1, the entire camera 2 captures the authentication target person T who has moved to the focus point P2 from the position coordinates C (overall: P1) of the target area TA in the entire image 200 (P2).
  • the position coordinates C (whole: P2) of the target area TA in the whole image 200 (P2) that is supposed to be acquired in the assumed case are estimated, and then the authentication target person T who has moved to the focus point P2 is photographed by the iris camera. This is because the position coordinates C (iris: P2) of the target region TA in the iris image 300 (P2), which is assumed to be acquired when it is assumed that the image is taken by 3, is estimated.
  • the position coordinates C (whole: P1) and the position coordinates C (whole: P2) are different as shown in FIGS. 6 and 7 described above. As mentioned above, there is a high possibility that this will occur. Therefore, if the position coordinate C (whole: P1) is used as the position coordinate C (whole: P2) as it is, one iris camera 3 selected to image the authentication target person T is the target site TP. It may not be possible to properly image the image. That is, if the position coordinate C (whole: P1) is used as the position coordinate C (whole: P2) as it is, the camera setting unit 614 captures the target portion TP of the authentication target person T located at the focus point P2.
  • the position coordinates C (overall: P1) may be selected. After the position coordinates C (whole: P2) are estimated from, the position coordinates (iris: P2) are estimated. Therefore, as compared with the case where the position coordinate C (whole: P1) is used as it is as the position coordinate C (whole: P2), one iris camera 3 selected to image the authentication target person T is the target portion. The possibility that the TP cannot be properly imaged is reduced.
  • the process of estimating the position coordinate C (whole: P2) from the position coordinate C (whole: P1) is an appropriate selection of the iris camera 3 that images the target part TP of the authentication target person T located at the focus point P2. (That is, it can be said that it greatly contributes to (appropriate imaging of the target portion TP by the iris camera 3).
  • a plurality of motion sensors that is, motion sensors 4 and 5) corresponding to the trigger point P1 and the focus point P2 are installed. Therefore, the iris recognition system 1 can appropriately determine whether or not the authentication target person T is located at each of the trigger point P1 and the focus point P2. That is, the iris recognition system 1 can appropriately image the authentication target person T located at the trigger point P1 with the entire camera 2, and appropriately capture the authentication target person T located at the focus point P2 with the iris camera 3. It can be imaged.
  • FIG. 9 is a block diagram showing the overall configuration of the iris authentication system 1a of the first modification.
  • the same components as the components included in the above-mentioned iris authentication system 1 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the iris recognition system 1a differs from the iris recognition system 1 in that it includes a single common camera 7a instead of the overall camera 2 and the plurality of iris cameras 3. There is. Other features of the iris recognition system 1a may be the same as the other features of the iris recognition system 1.
  • the common camera 7a is an imaging device capable of photographing the authentication target person T, like the whole camera 2 and the plurality of iris cameras 3. Under the control of the iris authentication device 6, the common camera 7a has a state of a total image pickup capable of functioning as the whole camera 2 and an iris image pickup state capable of functioning as at least one of the plurality of iris cameras 3. It is possible to switch between.
  • the overall imaging state and the iris imaging state are specific examples of the "first state" and the "second state" in the appendix described later, respectively.
  • the common camera 7a in the overall imaging state is substantially equivalent to the overall camera 2 described above. That is, the common camera 7a in the overall imaging state operates in the same manner as the overall camera 2 described above. Therefore, the characteristics of the common camera 7a in the overall imaging state may be the same as those of the overall camera 2 described above, and detailed description thereof will be omitted.
  • the common camera 7a in the iris imaging state is substantially equivalent to at least one of the plurality of iris cameras 3 described above. That is, the common camera 7a in the iris imaging state operates in the same manner as at least one of the plurality of iris cameras 3 described above. Therefore, the characteristics of the common camera 7a in the iris imaging state may be the same as at least one of the plurality of iris cameras 3 described above, and detailed description thereof will be omitted.
  • the field of view of the common camera 7a in the iris imaging state is typically the same as the combined field of view (see FIG. 2) in which the field ranges of the plurality of iris cameras 3 are combined. Therefore, the common camera 7a in the iris imaging state is substantially equivalent to the above-mentioned plurality of iris cameras 3 regarded as a single camera.
  • the common camera 7a may include, for example, an optical system having variable optical characteristics (for example, focal length).
  • the focal length of the optical system of the common camera 7a in the overall imaging state is shorter than the focal length of the optical system of the common camera 7a in the iris imaging state.
  • the common camera 7a can function as the entire camera 2 and at least one of the plurality of iris cameras 3.
  • the common camera 7a may include an optical system including a so-called zoom lens.
  • the focal length of the optical system including the zoom lens is set to a relatively short first distance (for example, the first distance corresponding to the focal length of the entire camera 2 described above)
  • the common camera 7a The state is the whole imaging state. That is, the focusing position of the common camera 7a is set in the area including the trigger point P1, and the common camera 7a is located at the trigger point P1 in a relatively wide viewing range (that is, a relatively wide angle of view).
  • the authentication target person T can be imaged.
  • the focal length of the optical system including the zoom lens is set to a second distance (for example, a second distance corresponding to the focal length of the iris camera 3 described above) which is relatively long from the first distance.
  • the state of the common camera 7a switches from the overall imaging state to the iris imaging state. That is, the focusing position of the common camera 7a is set in the area including the focus point P2, and the common camera 7a is located at the focus point P2 in a relatively narrow viewing range (that is, a relatively narrow angle of view).
  • the authentication target person T can be imaged.
  • the focal length of the optical system including the zoom lens is set from the second distance to the first distance, the state of the common camera 7a returns from the iris imaging state to the overall imaging state.
  • the iris recognition operation for example, in order to perform iris recognition among the images captured by the common camera 7a in the iris imaging state based on the image captured by the common camera 7a in the overall imaging state.
  • Authentication target based on the process of setting the gaze area (ROI: Region of Interest) IA that defines the image part that is actually acquired (that is, read out) and the image captured by the common camera 7a in the iris imaging state.
  • ROI Region of Interest
  • the image captured by the common camera 7a in the overall imaging state is substantially equivalent to the overall image 200 captured by the overall camera 2, it is referred to as "overall image 200" for convenience of explanation.
  • the image captured by the common camera 7a in the iris imaging state is substantially equivalent to the image obtained by synthesizing the plurality of iris images 300 captured by the plurality of iris cameras 3, for convenience of explanation. It is referred to as "iris image 300".
  • FIG. 10 is a flowchart showing the flow of the operation (that is, the iris authentication operation) of the iris authentication system 1a of the first modification.
  • the same step numbers are assigned and detailed description thereof will be omitted.
  • the image pickup control unit 615 moves to the trigger point P1.
  • the common camera 7a is controlled so as to capture the located authentication target person T (step S12a).
  • the image pickup control unit 615 controls the common camera 7a so as to image the authentication target person T located at the trigger point P1, so that the state of the common camera 7a becomes the overall image pickup state.
  • Control 7a For example, when the common camera 7a includes an optical system including a zoom lens as described above, the image pickup control unit 615 sets the focal length of the optical system including the zoom lens to a first distance that is relatively short.
  • the zoom lens is controlled (for example, the movable lens included in the zoom lens is moved) so as to be performed.
  • the image pickup control unit 615 controls the common camera 7a so as to take an image of the authentication target person T located at the trigger point P1.
  • the common camera 7a captures the authentication target person T located at the trigger point P1 (step S12a).
  • the entire image 200 (P1) captured by the common camera 7a is acquired by the image acquisition unit 611 (step S12a).
  • the area detection unit 612 performs image processing on the entire image 200 (P1) acquired in step S12a to obtain an image portion of the entire image 200 (P1) in which the target portion TP is reflected. It is detected as the target region TA (step S21). Further, the area detection unit 612 calculates the position coordinates C (overall: P1) in the whole image 200 (P1) of the detected target area TA (step S21).
  • the coordinate estimation unit 613 commonly captures the authentication target person T who has moved from the trigger point P1 to the focus point P2 based on the position coordinates C (overall: P1) of the target area TA calculated in step S21.
  • the position coordinates C (whole: P2) of the target region TA in the whole image 200 (P2) which is assumed to be acquired when it is assumed that the camera 7a has taken an image are estimated (step S22a).
  • the coordinate estimation unit 613 has a correspondence relationship between the object reflected in the whole image 200 (P1) and the same object reflected in the whole image 200 (P2), as in step S22 described above.
  • the position coordinate C (whole: P2) may be estimated from the position coordinate C (whole: P1) by using the first correspondence information indicating.
  • the first correspondence information of the first modification is different from the above-mentioned first correspondence information targeting the entire camera 2 in that it is information for the common camera 7a.
  • the coordinate estimation unit 613 captures the authentication target person T who has moved from the trigger point P1 to the focus point P2 based on the position coordinates C (overall: P2) estimated in step S22 by the common camera 7a in the iris imaging state.
  • the coordinate estimation unit 613 has a correspondence relationship between the object reflected in the overall image 200 (P2) and the same object reflected in the iris image 300 (P2), as in step S23 described above.
  • the position coordinate C (iris: P2) may be estimated from the position coordinate C (whole: P2) by using the second correspondence information indicating.
  • the second correspondence information of the first modification can image the target portion TP of the authentication target person T located at the focus point P2 (particularly, the common camera 7a in the overall imaging state and the common camera 7a in the iris imaging state). It is different from the above-mentioned second correspondence information targeting the entire camera 2 and the iris camera 3 in that the information targets the common camera 7a) in the iris imaging state.
  • the coordinate estimation unit 613 has a plurality of iris images 300 (P2) based on the position coordinates C (overall: P2). ), The position coordinates C (iris:) of the target area TA in the iris image 300 (P2) without performing the process of specifying one iris image 300 (P2) on which the target area TA is expected to be reflected. Estimate P2).
  • the camera setting unit 614 actually performs iris recognition among the iris images 300 captured by the common camera 7a in the iris imaging state based on the position coordinates C (iris: P2) estimated in step S23.
  • the gaze area (ROI: Region of Interest) IA that defines the image portion to be acquired (that is, read out) is set (step S32a).
  • the process of step S32a may be the same as the process of step S32a described above, which targets the iris camera 3 except that the common camera 7a is targeted.
  • the image pickup control unit 615 images the authentication target person T located at the focus point P2.
  • the common camera 7a is controlled (step S42a).
  • the imaging control unit 615 switches the state of the common camera 7a from the overall imaging state to the iris imaging state before controlling the common camera 7a so as to image the authentication target person T located at the focus point P2.
  • the common camera 7a is controlled in this way. Specifically, the imaging control unit 615 switches the state of the common camera 7a from the overall imaging state to the iris imaging state after the entire image 200 is acquired in step S12a and before the iris image 300 is acquired in step S42a.
  • the common camera 7a may be controlled as described above.
  • the image pickup control unit 615 is set to a second distance at which the focal length of the optical system including the zoom lens is relatively long.
  • the zoom lens for example, move the movable lens included in the zoom lens. That is, the image pickup control unit 615 changes the focal length of the optical system including the zoom lens from the relatively short first distance to the relatively long second distance.
  • the state of the common camera 7a is switched from the overall imaging state to the iris imaging state.
  • the image pickup control unit 615 controls the common camera 7a so as to take an image of the authentication target person T located at the focus point P2.
  • the common camera 7a images the authentication target person T located at the focus point P2 (step S42a).
  • the iris image 300 (particularly, the image portion in the gaze area IA of the iris image 300) captured by the common camera 7a is acquired by the image acquisition unit 611 (step S42a).
  • the authentication unit 616 performs iris authentication using the iris image 300 acquired in step S42 (step S51).
  • the iris authentication system 1a of the first modification can enjoy the same effect as the effect that the iris authentication system 1 described above can enjoy.
  • the coordinate estimation unit 613 uses two correspondence information, the first and second correspondence information, from the position coordinate C (whole: P1) to the position coordinate C (whole). : P2) is estimated, and then the position coordinate C (iris: P2) is estimated from the position coordinate C (overall: P2).
  • the coordinate estimation unit 613 replaces the two correspondence information of the first and second correspondence information with a single correspondence information (for example, the first transformation matrix H1) in which both the first and second correspondence information are reflected.
  • the position coordinate C (iris: P2) may be estimated directly from the position coordinate C (whole: P1) by using (a single transformation matrix corresponding to the second transformation matrix H2).
  • a single trigger point P1 is set.
  • a plurality of trigger points P1 having different distances from the reference point P0 may be set.
  • the whole camera 2 may image the authentication target person T located at at least one trigger point P1 among the plurality of trigger points P1.
  • the iris recognition system 1 may include a plurality of overall cameras 2 corresponding to a plurality of trigger points P1 respectively.
  • the iris authentication system 1 may include a plurality of motion sensors 4 corresponding to the plurality of trigger points P1 respectively.
  • the iris authentication system 1 may include a single iris camera 3.
  • the field of view of the iris camera 3 is an appropriate range so that the iris camera 3 can image the target portion TP of the authentication target person T located at the focus point P2 regardless of the height of the authentication target person T. It may be set to.
  • the camera setting unit 614 performs the process of step S31 in FIG. 5 (that is, one iris camera 3 that captures the authentication target person T). It is not necessary to perform the selection process).
  • the camera setting unit 614 does not have to perform the process of setting the gaze area IA (process corresponding to step S32 of FIG. 5 or step S32a of FIG. 10).
  • the iris recognition system 1 does not have to operate in the gaze area mode.
  • the image acquisition unit 611 may acquire the entire iris image 300 captured by the iris camera 3 or the common camera 7a.
  • the authentication unit 616 may perform iris authentication using the entire iris image 300 captured by the iris camera 3 or the common camera 7a.
  • the iris recognition device 6 includes an image acquisition unit 611, an area detection unit 612, a coordinate estimation unit 613, a camera setting unit 614, an image pickup control unit 615, and an authentication unit 616.
  • FIG. 11 which is a block diagram showing a modified example of the iris recognition device 6, the iris recognition device 6 does not include at least one of the area detection unit 612, the coordinate estimation unit 613, and the camera setting unit 614. You may.
  • the image pickup control unit 615 may execute the processes performed by the area detection unit 612, the coordinate estimation unit 613, and the camera setting unit 614, respectively.
  • an external device of the iris recognition device 6 may execute the processes performed by the area detection unit 612, the coordinate estimation unit 613, and the camera setting unit 614, respectively. Further, as shown in FIG. 11, the iris recognition device 6 does not have to include the authentication unit 616. In this case, a device outside the iris recognition device 6 may execute the process performed by the authentication unit 616.
  • the iris authentication system 1 includes a motion sensor 4.
  • the iris recognition system 1 does not have to include the motion sensor 4.
  • the whole camera 2 or the common camera 7a captures a scene within the field of view at a predetermined frame rate (that is, an imaging rate) regardless of whether or not the authentication target person T is located at the trigger point P1. You may continue to image.
  • the whole camera 2 or the common camera 7a may continue to image the scene within the field of view at a predetermined frame rate, at least during the period when the authentication target person T passes the trigger point P1.
  • the whole camera 2 or the common camera 7a sets the authentication target person T at the timing when the authentication target person T reaches the trigger point P1. It can be imaged. That is, even when the iris recognition system 1 does not include the motion sensor 4, the image acquisition unit 611 can acquire the entire image 200 showing the authentication target person T located at the trigger point P1. ..
  • the iris recognition device 6 (for example, the area detection unit 612) analyzes the entire image 200 to authenticate the location at the trigger point P1. It may be determined whether or not the entire image 200 in which the subject T is captured has been acquired. That is, the iris recognition device 6 may determine whether or not the authentication target person T is located at the trigger point P1 by performing image analysis on the entire image 200.
  • the iris recognition device 6 When it is determined that the authentication target person T is located at the trigger point P1 (that is, the entire image 200 showing the authentication target person T located at the trigger point P1 is acquired), the iris recognition device 6 Is a process of selecting one iris camera 3 for photographing the authentication target person T located at the focus point P2 based on the whole image 200 (specifically, steps S21 to S32 of FIG. 5 or FIG. 10). A series of processes leading up to). On the other hand, when it is determined that the authentication target person T is not located at the trigger point P1, the iris recognition device 6 does not start a series of processes from step S21 to step S32 in FIG. 5 or FIG.
  • the iris recognition device 6 may adopt an existing method as an image analysis method for determining whether or not the authentication target person T is located at the trigger point P1. For example, the iris recognition device 6 may determine whether or not the authentication target person T is located at the trigger point P1 by estimating the depth from the entire image 200. For example, the iris recognition device 6 detects the feet of the authentication target person T shown in the entire image 200, and determines whether or not the detected feet are located at the trigger point P1 to determine the authentication target person. It may be determined whether or not T is located at the trigger point P1.
  • the iris recognition device 6 determines whether or not the distance between the eyes of the authentication target person T shown in the entire image 200 has reached a predetermined value, so that the authentication target person T is located at the trigger point P1. It may be determined whether or not it is.
  • the iris authentication system 1 includes a motion sensor 5.
  • the iris recognition system 1 does not have to include the motion sensor 5.
  • the gaze area IA of the iris camera 3 is set in step S32 of FIG. 5
  • the iris camera 3 for which the gaze area IA is set is whether or not the authentication target person T is located at the focus point P2.
  • the scene within the visual field range may be continuously imaged at a predetermined frame rate (that is, the imaging rate).
  • the common camera 7a for which the gaze area IA is set is not related to whether or not the authentication target person T is located at the focus point P2.
  • the scene within the field of view may be continuously imaged at a predetermined frame rate.
  • the iris camera 3 or the common camera 7a continues to image the scene within the field of view at a predetermined frame rate (that is, the imaging rate), at least during the period when the authentication target person T passes the focus point P2. You may.
  • the iris camera 3 or the common camera 7a authenticates when the authentication target person T reaches the focus point P2 from the trigger point P1.
  • the subject T can be imaged. That is, even when the iris recognition system 1 does not include the motion sensor 5, the image acquisition unit 611 can acquire the iris image 300 in which the authentication target person T located at the focus point P2 is captured. ..
  • an imaging system an imaging method, a control device, a computer program, and a recording medium
  • the embodiment of the imaging system, the imaging method, the control device, the computer program, and the recording medium is an arbitrary authentication system that authenticates the authentication target person T based on the feature amount of a predetermined part different from the iris of the authentication target person T. May be applied to. That is, the iris authentication system 1 may be modified into an arbitrary authentication system that performs an arbitrary authentication operation instead of the iris authentication operation. As an example of such an arbitrary authentication system, there is a face authentication system that authenticates the authentication target person T based on the facial feature amount of the authentication target person T.
  • the embodiment of the imaging system, the imaging method, the control device, the computer program, and the recording medium is to move the imaging target person based on the image of the imaging target person captured by the entire camera 2 (or the first imaging device). It may be applied to any imaging system that controls the iris camera 3 (or a second imaging device) to image. That is, the iris recognition system 1 may be modified into an arbitrary imaging system that images the image target person at the trigger point P1 and the focus point P2 described above by using at least two types of imaging devices.
  • the iris recognition system 1 may authenticate the authentication target person T using an arbitrary part of the authentication target person T.
  • any authentication system that authenticates the authentication target person T using an arbitrary part of the authentication target person T may have the same configuration as the iris authentication system 1 and perform the same operation.
  • Appendix 1 The imaging system according to Appendix 1 focuses on a first imaging device that images an imaging target located at a first point and a second point located behind the first point in the moving direction of the imaging target.
  • a control device that controls the second imaging device so as to image the imaging target located at the second point based on the second imaging device whose position is set and the image captured by the first imaging device. It is an imaging system including.
  • the imaging system according to Appendix 2 has a first detection device that detects whether or not the imaging target is located at the first point, and a first detection device that detects whether or not the imaging target is located at the second point.
  • the first imaging device is located at the first point when the first detection device detects that the imaging target is located at the first point.
  • the image pickup target is imaged, and when the second detection device detects that the image pickup target is located at the second point, the second image pickup device captures the image pickup target located at the second point.
  • the imaging system according to Appendix 4 is the imaging system according to Appendix 1, wherein the second imaging device continues to image at a predetermined imaging rate during a period in which the imaging target passes through the second point.
  • the imaging system according to Appendix 5 further includes a first detection device that detects whether or not the imaging target is located at the first point, and the first imaging device includes the imaging target at the first point.
  • the control device is (i) imaged by the first imaging device of the imaging target located at the first point based on the image captured by the first imaging device. It is said that the first position, which is a position in the image, is specified, and (ii) the second image pickup apparatus takes an image of the image pickup target that has moved from the first point to the second point based on the first position. Under the assumed situation, the second position, which is the position of the imaging target in the image captured by the second imaging device, is estimated, and (iii) the position is located at the second position based on the second position.
  • the imaging system according to any one of Supplementary note 1 to 5, which controls the second imaging apparatus so as to image the imaging target.
  • Appendix 7 In the imaging system according to Appendix 7, in order for the control device to estimate the second position based on the first position, (i) the second position from the first point based on the first position.
  • the third position which is the position of the image pickup target in the image captured by the first image pickup device, is estimated under the condition that the image pickup target moved to the point is imaged by the first image pickup apparatus.
  • Appendix 8 The imaging system according to Appendix 8 includes a plurality of the second imaging devices, and the control device identifies a position in the image to be imaged from the image captured by the first imaging device, and at the specified position.
  • Appendix 9 The imaging system according to Appendix 9 is the imaging system according to Appendix 7, wherein the control device estimates the third position based on the information about the first position and the moving direction of the imaging target.
  • Appendix 10 In the imaging system according to Appendix 10, the control device captures the imaging target located at the second point based on the image captured by the first imaging device and the information regarding the moving direction of the imaging target.
  • Appendix 11 In the imaging system according to Appendix 11, the information regarding the moving direction is an image captured by the first imaging device under the assumption that the object located at the first point is imaged by the first imaging device. The position of the object in the image and the object located at the second point in the image taken by the first imaging device under the assumption that the first imaging device has imaged the object.
  • Appendix 12 The imaging system according to Appendix 12 includes a plurality of the second imaging devices, and the control device is located at the second point of the plurality of second imaging devices based on the images captured by the first imaging device. Addendum 1 to 11 that selects one second imaging device that should image the located image pickup target and controls the selected second imaging device so as to image the image pickup target located at the second point.
  • the imaging system according to any one of the above.
  • Appendix 13 In the imaging system according to Appendix 13, a plurality of the first points are set, and the first imaging device images the imaging target located at at least one of the plurality of first points.
  • the imaging system according to any one of 12 to 12.
  • Appendix 14 The imaging system according to Appendix 14 can switch states between a first state and a second state, and in the first state, images an imaging target located at a first point, and the second state. In the state of, an image pickup device that images the image pickup target located at a second point located on the back side in the moving direction of the image pickup target from the first point, and an image captured by the image pickup device in the first state.
  • the image pickup system includes a control device for switching the image pickup device from the first state to the second state by controlling the image pickup device based on the above.
  • Appendix 15 In the imaging system according to Appendix 15, the imaging apparatus sets the focusing position in the region including the first point in the first state, and focuses on the region including the second point in the second state.
  • Appendix 16 The imaging system according to Appendix 16 has a first detection device that detects whether or not the imaging target is located at the first point, and detects whether or not the imaging target is located at the second point.
  • Appendix 17 The imaging system according to Appendix 17 is the first point when the first detecting device detects that the imaging target is located at the first point in the imaging device in the first state. When the second detection device detects that the image pickup target is located at the second point, the image pickup device in the second state captures the image pickup target located in the second position.
  • Appendix 18 The imaging system according to Appendix 18, wherein the imaging apparatus continues to image at a predetermined imaging rate during the period when the imaging target passes through the second point, according to any one of Appendix 14 to 17. It is a system.
  • Appendix 19 The imaging system according to Appendix 19 further includes a first detection device that detects whether or not the imaging target is located at the first point, and the imaging device is such that the imaging target is located at the first point.
  • Appendix 20 In the imaging system according to Appendix 20, the control device is (i) the first image pickup target located at the first point based on the image captured by the image pickup device in the first state.
  • the first position which is a position in the image captured by the imaging device in the state, is specified, and (ii) the imaging target moved from the first point to the second point based on the first position is described.
  • the second position which is the position of the image pickup target in the image taken by the image pickup device in the second state, is estimated, and ( iii)
  • Appendix 22 The imaging system according to Appendix 22 is the imaging system according to Appendix 21, wherein the control device estimates the third position based on the information about the first position and the moving direction of the imaging target.
  • Appendix 24 In the imaging system according to Appendix 24, the information regarding the moving direction is based on the first state under the assumption that the imaging device in the first state has imaged an object located at the first point. The first, under the condition that the position of the object in the image captured by the imaging device and the object located at the second point are imaged by the imaging device in the first state.
  • Appendix 25 In the imaging system according to Appendix 25, a plurality of the first points are set, and the imaging device in the first state targets the imaging target located at at least one of the plurality of first points.
  • Appendix 26 The imaging method according to Appendix 26 is based on an acquisition step of acquiring an image captured by a first imaging device that images an imaging target located at a first point and an image acquired in the acquisition step.
  • the second imaging device whose focusing position is set at the second point is controlled so as to image the imaging target located at the second point located on the back side in the moving direction of the imaging target from the point. This is an imaging method including a control step.
  • Appendix 27 The imaging method according to Appendix 27 is capable of switching between the first state and the second state, and in the first state, the imaging target located at the first point is imaged, and the second state is described.
  • the image pickup device in the first state takes an image from the image pickup device that images the image pickup target located at the second point located on the back side in the moving direction of the image pickup target from the first point. It includes an acquisition step of acquiring an image and a control step of switching the image pickup apparatus from the first state to the second state by controlling the image pickup apparatus based on the image acquired in the acquisition step. This is an imaging method.
  • Appendix 28 The control device according to Appendix 28 includes an acquisition means for acquiring an image captured by the first imaging device that captures an image pickup target located at the first point, and the first point based on the image acquired by the acquisition means. Control to control the second imaging device whose focusing position is set at the second point so as to image the imaging target located at the second point located on the back side in the moving direction of the imaging target. It is a control device including means.
  • Appendix 29 The control device according to Appendix 29 can switch the state between the first state and the second state, and in the first state, the image pickup target located at the first point is imaged, and the second state is described.
  • the image pickup device in the first state takes an image from the image pickup device that images the image pickup target located at the second point located on the back side in the moving direction of the image pickup target from the first point.
  • An imaging method including an acquisition means for acquiring an image and a control means for switching the imaging device from the first state to the second state by controlling the imaging device based on the image acquired by the acquisition means. Is.
  • Appendix 30 The computer program described in Appendix 30 is a computer program that causes a computer to execute the imaging method described in Appendix 26 or 27.
  • Appendix 31 The recording medium described in Appendix 31 is a recording medium on which the computer program described in Appendix 30 is recorded.
  • the present invention can be appropriately modified within the scope of the claims and within the scope not contrary to the gist or idea of the invention which can be read from the entire specification, and the imaging system, imaging method, control device, computer program and recording accompanied by such modification.
  • the medium is also included in the technical idea of the present invention.
  • Iris recognition system 2 Whole camera 200 Whole image 3 Iris camera 300 Iris image 4, 5 Motion sensor 6 Iris recognition device 61 CPU 611 Image acquisition unit 612 Area detection unit 613 Coordinate estimation unit 614 Camera setting unit 615 Imaging control unit 616 Authentication unit 7a Common camera P1 Trigger point P2 Focus point

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

撮像システムは、第1地点(P1)に位置する撮像対象(T、TP)を撮像する第1撮像装置(2)と、第1地点よりも撮像対象の移動方向における奥側に位置する第2地点(P2)に合焦位置が設定されている第2撮像装置(3)と、第1撮像装置が撮像した画像(200)に基づいて、第2地点に位置する撮像対象を撮像するように第2撮像装置を制御する制御装置(6)とを備える。

Description

撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体
 本発明は、撮像対象を撮像可能な撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の技術分野に関する。
 撮像対象を撮像可能な撮像システムの一例として、撮像対象の一例である対象者の虹彩を撮像することで虹彩認証を行う虹彩認証システムが知られている。例えば、特許文献1には、対象者が静止せずとも虹彩認証を可能にするウォークスルータイプの虹彩認証システムが記載されている。具体的には、特許文献1には、広角カメラと複数の虹彩カメラとを備え、広角カメラの画像を処理することで複数の虹彩カメラから認証に使用されるべき虹彩カメラを選択する虹彩認証システムが記載されている。
 その他、本願発明に関連する先行技術文献として、特許文献2及び3があげられる。
特開2010-134735号公報 特開2014-067090号公報 特開平10-159529号公報
 特許文献1に記載された虹彩認証システムは、虹彩カメラを用いて移動する対象者を適切に撮像できない可能性があるという技術的問題を有している。具体的には、広角カメラと複数の虹彩カメラとを備える虹彩認証システムは、移動する対象者が虹彩カメラの合焦位置に到達する前に、認証に使用されるべき虹彩カメラを選択する(更には、必要に応じて、選択された虹彩カメラのパラメータを設定する)必要がある。このため、虹彩認証システムは、移動する対象者が虹彩カメラの合焦位置に到達する前に広角カメラを用いて対象者を撮像し、広角カメラの画像に基づいて認証に使用されるべき虹彩カメラを選択することが望ましい。しかしながら、特許文献1では、この点について何ら考慮されていない。
 尚、虹彩認証システムに限らず、第1撮像装置が撮像した撮像対象の画像に基づいて、移動する撮像対象を撮像するように第2撮像装置を制御する任意の撮像システムにおいても、上述した技術的問題が生じる可能性がある。
 本発明は、上述した技術的問題を解決可能な撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体を提供することを課題とする。一例として、本発明は、移動する撮像対象を適切に撮像可能な撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体を提供することを課題とする。
 課題を解決するための撮像システムの第1の態様は、第1地点に位置する撮像対象を撮像する第1撮像装置と、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に合焦位置が設定されている第2撮像装置と、前記第1撮像装置が撮像した画像に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する制御装置とを備える。
 課題を解決するための撮像システムの第2の態様は、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に合焦位置が設定されている撮像装置と、前記第1の状態にある前記撮像装置が撮像した画像に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2の状態にある前記撮像装置を制御する制御装置とを備える撮像システム。
 課題を解決するための撮像方法の第1の態様は、第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得工程と、前記取得工程で取得された画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている第2撮像装置を制御する制御工程とを備える。
 課題を解決するための撮像方法の第2の態様は、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得工程と、前記取得工程で取得された画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から第2の状態に切替える制御工程とを備える。
 課題を解決するための制御装置の第1の態様は、第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得手段と、前記取得手段が取得した画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている前記第2撮像装置を制御する制御手段とを備える。
 課題を解決するための制御装置の第2の態様は、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得手段と、前記取得手段が取得した画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から第2の状態に切替える制御手段とを備える。
 課題を解決するためのコンピュータプログラムの一の態様は、コンピュータに、上述した撮像方法の第1又は第2の態様を実行させる。
 課題を解決するための記録媒体の一の態様は、上述したコンピュータプログラムの一の態様が記録された記録媒体である。
 上述した撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体のそれぞれの一の態様によれば、移動する撮像対象を適切に撮像することができる。
図1は、本実施形態の虹彩認証システムの全体構成を示すブロック図である。 図2は、全体カメラ及び虹彩カメラと認証対象者との位置関係を示す模式図である。 図3は、本実施形態の虹彩認証装置のハードウェア構成を示すブロック図である。 図4は、本実施形態の虹彩認証装置が備えるCPU内で実現される機能ブロックを示すブロック図である。 図5は、本実施形態の虹彩認証システムの動作(つまり、虹彩認証動作)の流れを示すフローチャートである。 図6は、全体画像の一例を示す平面図である。 図7は、全体画像の一例を示す平面図である。 図8は、全体画像と複数の虹彩画像との関係を示す平面図である。 図9は、第1変形例の虹彩認証システムの全体構成を示すブロック図である。 図10は、第1変形例の虹彩認証システムの動作(つまり、虹彩認証動作)の流れを示すフローチャートである。 図11は、虹彩認証装置が備えるCPU内で実現される機能ブロックの変形例を示すブロック図である。
 以下、図面を参照しながら、撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の実施形態について説明する。以下では、撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の実施形態が適用された虹彩認証システム1について説明する。虹彩認証システム1は、撮像対象の一例である認証対象者T(例えば、人間)の虹彩のパターンに基づいて認証対象者Tの認証を行う虹彩認証動作を実行する。このような虹彩認証システム1は、例えば、空港における入出国手続きを自動化するためのシステム(いわゆる、ABC(Automated Border Control))の一部として採用されてもよい。この場合、虹彩認証システム1は、移動する認証対象者Tの認証を行うウォークスルータイプの虹彩認証システムであってもよい。以下では、虹彩認証システム1がウォークスルータイプの虹彩認証システムである例を用いて説明を進める。但し、虹彩認証システム1がこの段落で例示した虹彩認証システムに限定されることはなく、虹彩認証システム1は、認証対象者Tの認証を行うことが可能な任意の虹彩認証システムとして用いられてもよい。尚、虹彩認証システム1は、後述する付記における「撮像システム」の一具体例である。
 (1)虹彩認証システム1の構成
 (1-1)虹彩認証システム1の全体構成
 はじめに、図1を参照しながら、本実施形態の虹彩認証システム1の全体構成について説明する。図1は、本実施形態の虹彩認証システム1の全体構成を示すブロック図である。
 図1に示すように、虹彩認証システム1は、後述する付記における「第1撮像装置」の一具体例である全体カメラ2と、夫々が後述する付記における「第2撮像装置」の一具体例である複数の虹彩カメラ3と、後述する付記における「制御装置」の一具体例である虹彩認証装置6とを備える。虹彩認証システム1は更に、後述する付記における「第1検知装置」の一具体例である人感センサ4と、後述する付記における「第2検知装置」の一具体例である人感センサ5とを備えていてもよい。図1は、虹彩認証システム1がn(但し、nは2以上の整数)個の虹彩カメラ3を備えている例を示している。以下の説明では、必要に応じて、n個の虹彩カメラ3を、夫々、虹彩カメラ3-1、虹彩カメラ3-2、・・・、及び虹彩カメラ3-nと称する。尚、虹彩カメラ3の数は、各虹彩カメラ3の特性(例えば、各虹彩カメラ3の視野範囲及び各虹彩カメラ3の解像度等の少なくとも一つ)に応じて適宜設定されてもよい。
 全体カメラ2及び複数の虹彩カメラ3の夫々は、認証対象者Tを撮像可能な撮像装置である。以下、図2を参照しながら、全体カメラ2及び複数の虹彩カメラ3について更に詳細に説明する。図2は、全体カメラ2及び複数の虹彩カメラ3と認証対象者Tとの位置関係を示す模式図である。
 図2に示すように、全体カメラ2は、各虹彩カメラ3の視野範囲よりも広い視野範囲で認証対象者Tを撮像する。つまり、全体カメラ2の視野範囲は、各虹彩カメラ3の視野範囲よりも広い。具体的には、全体カメラ2の視野範囲は、認証対象者Tの身長の長短にかかわらずに全体カメラ2が認証対象者Tを撮像できるように、適切な範囲に設定されている。つまり、全体カメラ2の視野範囲は、全体カメラ2が相対的に背の高い認証対象者Tを撮像できると共に相対的に背の低い認証対象者Tも撮像できるように、適切な範囲に設定されている。特に、全体カメラ2の視野範囲は、認証対象者Tの身長の長短にかかわらずに、全体カメラ2が、認証対象者Tのうち認証のために用いられるターゲット部位TP(本実施形態では、虹彩を含む目)を撮像できるように、適切な範囲に設定されている。
 尚、本実施形態における「カメラの視野範囲」は、カメラが撮像可能な光景が含まれる範囲を意味しており、撮像範囲と称されてもよい。このような視野範囲の大きさは、典型的には、カメラの画角(言い換えれば、視野角)が大きくなるほど大きくなる。このため、典型的には、全体カメラ2の光学系(例えば、レンズ)は、各虹彩カメラ3の光学系よりも広角な光学系となる。つまり、全体カメラ2の画角は、各虹彩カメラ3の画角よりも広くなる。また、カメラの画角は、典型的には、カメラが備える光学系(例えば、レンズ)の焦点距離が短くなればなるほど大きくなる。このため、典型的には、全体カメラ2の光学系の焦点距離は、各虹彩カメラ3の光学系の焦点距離よりも短くなる。
 全体カメラ2は、トリガ地点P1に位置する認証対象者Tを撮像する。つまり、全体カメラ2の視野範囲は、トリガ地点P1に位置する認証対象者Tを全体カメラ2が撮像できるように、適切な視野範囲に設定されている。トリガ地点P1は、認証対象者Tの移動経路上に位置する地点である。更に、トリガ地点P1は、トリガ地点P1に向かって移動している認証対象者Tから見て、基準地点P0よりも手前側に位置する地点である。つまり、トリガ地点P1は、基準地点P0よりも、認証対象者Tの移動方向における手前側(つまり、後方側)に位置する地点である。更に、トリガ地点P1は、認証対象者Tの移動方向に沿って基準地点P0から距離D1だけ離れた地点である。基準地点P0は、例えば、各虹彩カメラ3が設置されている地点であってもよい。或いは、基準地点P0は、例えば、移動する認証対象者Tの目的地であってもよい。目的地は、例えば、認証対象者Tが認証後に通過する地点(例えば、空港のゲートが設置されている地点)であってもよい。
 図2に示す例では、認証対象者Tは、紙面左側から右側に向かって移動している。従って、図2に示す例では、トリガ地点P1は、基準地点P0から紙面左側に向かって距離D1だけ離れた地点である。尚、認証対象者Tは、移動方向が常に同一となる直線状の経路に沿って移動してもよいし、移動方向が途中で変わる経路(例えば、曲線状の経路又は折れ曲がった経路)に沿って移動してもよい。
 全体カメラ2は、全体カメラ2の合焦位置がトリガ地点P1に位置するように配置されることが好ましい。尚、本実施形態における「合焦位置」は、ベストフォーカス位置の前後に広がる一定の領域(例えば、ピントが合っているとみなすことが可能な領域であり、被写界深度に相当する領域)を意味するものとする。この場合には、全体カメラ2は、全体カメラ2の合焦位置がトリガ地点P1を含む領域となる(つまり、合焦位置に相当する領域内にトリガ地点P1が位置する)ように配置されることが好ましい。逆に言えば、全体カメラ2の合焦位置に、トリガ地点P1が設定される。
 全体カメラ2は、全体カメラ2が撮像した画像である全体画像200から、トリガ地点P1に位置する認証対象者Tの顔を識別することができる程度の解像度を有している。特に、全体カメラ2は、トリガ地点P1に位置する認証対象者Tのターゲット部位TP(つまり、目)が全体画像200内のどこに位置しているかを全体画像200から識別することができる程度の解像度を有している。
 一方で、各虹彩カメラ3は、ピント地点P2に位置する認証対象者Tを撮像する。つまり、各虹彩カメラ3の視野範囲は、ピント地点P2に位置する認証対象者Tを各虹彩カメラ3が撮像できるように、適切な視野範囲に設定されている。ピント地点P2は、トリガ地点P1と同様に、認証対象者Tの移動経路上に位置する地点である。更に、ピント地点P2は、トリガ地点P1と同様に、ピント地点P2に向かって移動している認証対象者Tから見て基準地点P0よりも手前側に位置する地点である。つまり、ピント地点P2は、基準地点P0よりも、認証対象者Tの移動方向における手前側(つまり、後方側)に位置する地点である。更に、ピント地点P2は、認証対象者Tの移動方向に沿って基準地点P0から距離D2だけ離れた地点である。図2に示す例では、認証対象者Tは、紙面左側から右側に向かって移動している。従って、図2に示す例では、ピント地点P2は、基準地点P0から紙面左側に向かって距離D2だけ離れた地点である。
 ピント地点P2と基準地点P0との間の距離D2は、トリガ地点P1と基準地点P0との間の距離D1よりも短い。このため、ピント地点P2は、トリガ地点P1よりも、認証対象者Tの移動方向における奥側(つまり、前方側)に位置する。言い換えれば、トリガ地点P1は、ピント地点P2よりも、認証対象者Tの移動方向における手前側(つまり、後方側)に位置する。従って、移動する認証対象者Tは、トリガ地点P1を通過した後に、ピント地点P2を通過する。言い換えれば、移動する認証対象者Tは、ピント地点P2を通過する前に、トリガ地点P1を通過する。尚、距離D1及びD2は、距離D2が距離D1よりも短いという関係を満たす限りは、どのような値に設定されてもよい。一例として、距離D1及びD2は、夫々、3m及び2mに設定されてもよい。
 各虹彩カメラ3は、各虹彩カメラ3の合焦位置がピント地点P2に位置するように配置される。具体的には、各虹彩カメラ3は、各虹彩カメラ3の合焦位置がピント地点P2を含む領域となる(つまり、合焦位置に相当する領域内にピント地点P2が位置する)ように配置されると言える。逆に言えば、各虹彩カメラ3の合焦位置に、ピント地点P2が設定される。尚、上述したように全体カメラ2の画角が各虹彩カメラ3の画角よりも広くなる(つまり、全体カメラ2の光学系の焦点距離が各虹彩カメラ3の光学系の焦点距離よりも短くなる)がゆえに、各虹彩カメラ3の合焦位置に相当する領域と比較して、全体カメラ2の合焦位置に相当する領域は広くなる。
 複数の虹彩カメラ3は、複数の虹彩カメラ3の視野範囲がピント地点P2において垂直方向(或いは、垂直方向とは異なる所望の方向)に沿って部分的に重複するように配置される。図2に示す例では、複数の虹彩カメラ3は、ピント地点P2において虹彩カメラ3-k(但し、kは、1≦k<nを満たす整数)の視野範囲の下端部と虹彩カメラ3-m(但し、mは、1<k+1=m≦nを満たす整数)の視野範囲の上端部とが重複するように配置されている。その結果、視野範囲が部分的に重複する2つの虹彩カメラ3が夫々撮像した2つの画像内には、部分的に同じ光景が映り込む。図2に示す例では、虹彩カメラ3-kが撮像した画像の下端部と虹彩カメラ3-mが撮像した画像の上端部とに、同じ光景が写り込む。
 複数の虹彩カメラ3は、複数の虹彩カメラ3の視野範囲を合成した合成視野範囲が、水平方向に所定の水平長さを有し且つ垂直方向に所定の垂直長さを有するように配置される。所定の水平長さは、ピント地点P2に位置する認証対象者Tのターゲット部位TPを合成視野範囲に含めることができる長さ(例えば、0.2m)であってもよい。所定の垂直長さは、認証対象者Tの身長の長短に関わらずにピント地点P2に位置する認証対象者Tのターゲット部位TPを合成視野範囲に含めることができる長さ(例えば、0.4m)であってもよい。
 各虹彩カメラ3は、各虹彩カメラ3が撮像した画像である虹彩画像300から、ピント地点P2に位置する認証対象者Tのターゲット部位TPを識別することができる程度の解像度を有している。特に、各虹彩カメラ3は、各虹彩カメラ3が撮像した画像である虹彩画像300から、ピント地点P2に位置する認証対象者Tの虹彩のパターンを識別することができる程度の解像度を有している。
 尚、図2に示す例では、全体カメラ2の視野範囲が複数の虹彩カメラ3の少なくとも一つの視野範囲と部分的に重複している。この場合、トリガ地点P1に位置する認証対象者T(特に、ターゲット部位TP)及びピント地点P2に位置する認証対象者T(特に、ターゲット部位TP)の双方が全体カメラ2の視野範囲に含まれていてもよい。例えば、トリガ地点P1に位置する認証対象者T(特に、ターゲット部位TP)及びピント地点P2に位置する認証対象者T(特に、ターゲット部位TP)の双方が、各虹彩カメラ3の視野範囲に含まれていてもよい。但し、全体カメラ2の視野範囲は、複数の虹彩カメラ3の夫々の視野範囲と重複していなくてもよい。例えば、トリガ地点P1に位置する認証対象者T(特に、ターゲット部位TP)が全体カメラ2の視野範囲に含まれる一方で、ピント地点P2に位置する認証対象者T(特に、ターゲット部位TP)が全体カメラ2の視野範囲に含まれなくてもよい。例えば、ピント地点P2に位置する認証対象者T(特に、ターゲット部位TP)が各虹彩カメラ3の視野範囲に含まれる一方で、トリガ地点P1に位置する認証対象者T(特に、ターゲット部位TP)が各虹彩カメラ3の視野範囲に含まれなくてもよい。
 再び図1において、人感センサ4は、トリガ地点P1に認証対象者Tが位置しているか否かを検知するための検知装置である。人感センサ4の検知結果は、虹彩認証装置6に出力される。人感センサ4の検知結果は、全体カメラ2がトリガ地点P1に位置する認証対象者Tを撮像するか否かを決定するための条件として用いられる。
 人感センサ5は、ピント地点P2に認証対象者Tが位置しているか否かを検知するための検知装置である。人感センサ5の検知結果は、虹彩認証装置6に出力される。人感センサ5の検知結果は、虹彩カメラ3がピント地点P2に位置する認証対象者Tを撮像するか否かを決定するための条件として用いられる。
 虹彩認証装置6は、虹彩認証システム1の全体の動作を制御する。本実施形態では特に、虹彩認証装置6は、虹彩認証動作を実行する。虹彩認証動作は、例えば、全体カメラ2が撮像した全体画像200に基づいて、複数の虹彩カメラ3の中からピント地点P2に位置する認証対象者Tを撮像するための一の虹彩カメラ3を選択する処理と、選択された一の虹彩カメラ3が撮像した虹彩画像300に基づいて、認証対象者Tの認証を行う処理とを含む動作である。以下、このような虹彩認証動作を実行する虹彩認証装置6の構成について、更に詳細に説明する。
 (1-2)虹彩認証装置6の構成
 続いて、図3を参照しながら、本実施形態の虹彩認証装置6の構成について説明する。図3は、本実施形態の虹彩認証装置6のハードウェア構成を示すブロック図である。
 図3に示すように、虹彩認証装置6は、CPU(Central Processing Unit)61と、RAM(Random Access Memory)62と、ROM(Read Only Memory)63と、記憶装置64と、入力装置65と、出力装置66とを備えている。CPU61と、RAM62と、ROM63と、記憶装置64と、入力装置65と、出力装置66とは、データバス67を介して接続されている。但し、虹彩認証装置6は、RAM62、ROM63、記憶装置64、入力装置65、出力装置66及びデータバス67の少なくとも一つを備えていなくてもよい。
 CPU61は、コンピュータプログラムを読み込む。例えば、CPU61は、RAM62、ROM63及び記憶装置64のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込んでもよい。例えば、CPU61は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。CPU61は、ネットワークインタフェースを介して、虹彩認証装置6の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。CPU61は、読み込んだコンピュータプログラムを実行することで、RAM62、記憶装置64、入力装置65及び出力装置66を制御する。本実施形態では特に、CPU61が読み込んだコンピュータプログラムを実行すると、CPU61内には、虹彩認証動作を実行するための論理的な機能ブロックが実現される。つまり、CPU61は、虹彩認証動作を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 虹彩認証動作を行うためにCPU61内に実現される論理的な機能ブロックの一例が図4に示されている。図4に示すように、CPU61内には、虹彩認証動作を実行するための論理的な機能ブロックとして、後述する付記における「取得手段」の一具体例である画像取得部611と、後述する付記における「制御手段」の一具体例である領域検出部612と、後述する付記における「制御手段」の一具体例である座標推定部613と、後述する付記における「制御手段」の一具体例であるカメラ設定部614と、後述する付記における「制御手段」の一具体例である撮像制御部615と、認証部616とが実現される。尚、画像取得部611、領域検出部612、座標推定部613、カメラ設定部614、撮像制御部615及び認証部616の夫々の動作については、図5等を参照しながら後に詳述するため、ここでの詳細な説明を省略する。
 再び図3において、RAM62は、CPU61が実行するコンピュータプログラムを一時的に記憶する。RAM62は、CPU61がコンピュータプログラムを実行している際にCPU61が一時的に使用するデータを一時的に記憶する。RAM62は、例えば、D-RAM(Dynamic RAM)であってもよい。
 ROM63は、CPU61が実行するコンピュータプログラムを記憶する。ROM63は、その他に固定的なデータを記憶していてもよい。ROM63は、例えば、P-ROM(Programmable ROM)であってもよい。
 記憶装置64は、虹彩認証装置6が長期的に保存するデータを記憶する。記憶装置64は、CPU61の一時記憶装置として動作してもよい。記憶装置64は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置65は、虹彩認証装置6のユーザからの入力指示を受け取る装置である。入力装置65は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
 出力装置66は、虹彩認証装置6に関する情報を外部に対して出力する装置である。例えば、出力装置66は、虹彩認証装置6に関する情報を表示可能な表示装置であってもよい。
 (2)虹彩認証動作の流れ
 続いて、図5を参照しながら、本実施形態の虹彩認証システム1の動作(つまり、虹彩認証動作)の流れについて説明する。図5は、本実施形態の虹彩認証システム1の動作(つまり、虹彩認証動作)の流れを示すフローチャートである。
 図5に示すように、撮像制御部615は、人感センサ4の検知結果に基づいて、トリガ地点P1に認証対象者Tが位置しているか否かを判定する(ステップS11)。ステップS11における判定の結果、トリガ地点P1に認証対象者Tが位置していないと判定された場合には(ステップS11:No)、ステップS11の処理が繰り返し行われる。他方で、ステップS11における判定の結果、トリガ地点P1に認証対象者Tが位置していると判定された場合には(ステップS11:Yes)、撮像制御部615は、トリガ地点P1に位置している認証対象者Tを撮像するように、全体カメラ2を制御する(ステップS12)。その結果、全体カメラ2は、トリガ地点P1に位置している認証対象者Tを撮像する(ステップS12)。全体カメラ2が撮像した全体画像200は、画像取得部611によって取得される(ステップS12)。
 その後、領域検出部612は、ステップS12において取得された全体画像200に対して画像処理を行うことで、全体画像200のうちターゲット部位TPが写り込んでいる画像部分を、ターゲット領域TAとして検出する(ステップS21)。例えば、全体画像200中のターゲット領域TAの一例を示す平面図である図6に示すように、領域検出部612は、全体画像200のうちターゲット部位TPが写り込んでいる矩形状の(或いは、その他の形状の)画像部分を、ターゲット領域TAとして検出する。更に、領域検出部612は、検出したターゲット領域TAの全体画像200内での位置座標Cを算出する(ステップS21)。位置座標Cは、ターゲット領域TAの所望部分(例えば、隅部分)の座標を含んでいてもよい。位置座標Cは、典型的には、二次元座標(或いは、二次元ベクトル)である。尚、以降の説明では、説明の便宜上、ステップS21で算出される位置座標Cを、“位置座標C(全体:P1)”と称する。
 その後、座標推定部613は、ステップS21で算出したターゲット領域TAの位置座標C(全体:P1)に基づいて、ピント地点P2に位置する同じ認証対象者Tを全体カメラ2が撮像したと仮定した場合に取得される全体画像200内でのターゲット領域TAの位置座標Cを推定する(ステップS22)。より具体的には、座標推定部613は、トリガ地点P1からピント地点P2に移動した認証対象者Tを全体カメラ2が撮像したと仮定した場合に取得されると想定される全体画像200内でのターゲット領域TAの位置座標Cを推定する(ステップS22)。つまり、座標推定部613は、トリガ地点P1に位置していた認証対象者Tがピント地点P2に移動した状況下で全体カメラ2がピント地点P2に位置する認証対象者Tを撮像したと仮定した場合に取得されると想定される全体画像200内でのターゲット領域TAの位置座標Cを推定する(ステップS22)。尚、以降の説明では、説明の便宜上、ステップS22で推定される位置座標Cを、“位置座標C(全体:P2)”と称する。また、以降の説明では、説明の便宜上、トリガ地点P1に位置する認証対象者Tを全体カメラ2が撮像することで実際に取得された全体画像200を、“全体画像200(P1)”と称する一方で、トリガ地点P1からピント地点P2に移動した認証対象者Tを全体カメラ2が撮像したと仮定した場合に取得されると想定される全体画像200を、“全体画像200(P2)”と称することで、両者を区別する。
 トリガ地点P1とピント地点P2とが異なるがゆえに、全体画像200(P1)を示す図6及び全体画像200(P2)を示す図7に示すように、全体画像200(P1)内での認証対象者Tの大きさ及び位置の少なくとも一方は、全体画像200(P2)内での認証対象者Tの大きさ及び位置の少なくとも一方と異なる可能性が高い。特に、トリガ地点P1とピント地点P2とが離れれば離れるほど、全体画像200(P1)内での認証対象者Tの大きさ及び位置の少なくとも一方は、全体画像200(P2)内での認証対象者Tの大きさ及び位置の少なくとも一方とより一層大きく異なる可能性が高い。このため、典型的には、位置座標C(全体:P1)と位置座標C(全体:P2)とが異なるものとなる可能性が高い。
 座標推定部613は、全体画像200(P1)に写り込んでいる物体と全体画像200(P2)に写り込んでいる同じ物体との対応関係(典型的には、位置関係)を示す第1対応情報を用いて、位置座標C(全体:P1)から位置座標C(全体:P2)を推定してもよい。このような第1対応情報は、典型的には、全体画像200(P1)に写り込んでいる物体の全体画像200(P1)内での位置座標と、当該物体がトリガ地点P1からピント地点P2に向かって認証対象者Tと同じように移動した場合に取得されると想定される全体画像200(P2)に写り込んでいる同じ物体の全体画像200(P2)内での位置座標との対応関係を示す。このため、第1対応情報は、実質的には、認証対象者Tの移動態様(例えば、認証対象者Tの移動方向)が反映された情報となる。つまり、第1対応情報は、実質的には、認証対象者Tの移動態様(例えば、認証対象者Tの移動方向)に関する情報を含む。
 第1対応情報は、トリガ地点P1に位置する物体を全体カメラ2が実際に撮像することで取得される全体画像200と、トリガ地点P1からピント地点P2に向かって認証対象者Tと同じように移動した同じ物体を全体カメラ2が実際に撮像することで取得される全体画像200とに基づいて、事前に(例えば、虹彩認証動作が実行される前に)算出されていてもよい。具体的には、第1対応情報は、トリガ地点P1に位置する物体の全体画像200内での位置座標と、ピント地点P2に位置する物体の全体画像200内での位置座標とに基づいて算出されていてもよい。或いは、第1対応情報は、トリガ地点P1に位置する物体を全体カメラ2が撮像した場合に取得されると想定される全体画像200と、トリガ地点P1からピント地点P2に向かって認証対象者Tと同じように移動した物体を全体カメラ2が撮像した場合に取得されると想定される全体画像200とをシミュレーション等によって算出すると共に、当該シミュレーションの結果に基づいて、事前に算出されていてもよい。シミュレーションの際には、全体カメラ2の位置、全体カメラ2のカメラパラメータ、トリガ地点P1の位置及びピント地点P2の位置の少なくとも一つが考慮されてもよい。或いは、第1対応情報は、その他の任意の方法で算出されていてもよい。
 第1対応情報の一例として、位置座標C(全体:P1)を位置座標C(全体:P2)に変換する第1変換行列H1があげられる。この場合、座標推定部613は、位置座標C(全体:P2)=H1×位置座標C(全体:P1)という数式を用いて、位置座標C(全体:P2)を推定してもよい。このような第1変換行列H1は、例えば、トリガ地点P1に位置する物体をピント地点P2に位置する仮想的な面に投影する射影変換を表す行列であってもよい。
 その後、座標推定部613は、ステップS22で推定した位置座標C(全体:P2)に基づいて、ピント地点P2に位置する同じ認証対象者Tを複数の虹彩カメラ3が撮像したと仮定した場合に夫々取得される複数の虹彩画像300内でのターゲット領域TAの位置座標Cを推定する(ステップS23)。より具体的には、座標推定部613は、トリガ地点P1からピント地点P2に移動した認証対象者Tを複数の虹彩カメラ3が撮像したと仮定した場合に夫々取得されると想定される複数の虹彩画像300内でのターゲット領域TAの位置座標Cを推定する(ステップS23)。つまり、座標推定部613は、トリガ地点P1に位置していた認証対象者Tがピント地点P2に移動した状況下で複数の虹彩カメラ3がピント地点P2に位置する認証対象者Tを撮像したと仮定した場合に夫々取得されると想定される複数の虹彩画像300内でのターゲット領域TAの位置座標Cを推定する(ステップS23)。尚、以降の説明では、説明の便宜上、ステップS23で推定される位置座標Cを、“位置座標C(虹彩:P2)”と称する。また、以降の説明では、説明の便宜上、トリガ地点P1からピント地点P2に移動した認証対象者Tを各虹彩カメラ3が撮像したと仮定した場合に取得されると想定される虹彩画像300を、“虹彩画像300(P2)”と称する。
 上述したように各虹彩カメラ3の視野範囲が全体カメラ2の視野範囲よりも狭い。このため、全体画像200(P2)と複数の虹彩画像300との関係を示す図8に示すように、全体画像200(P2)に写り込んでいるターゲット領域TAが複数の虹彩画像300(P2)の全てに写り込んでいるとは限らない。つまり、複数の虹彩画像300(P2)は、ターゲット領域TAが写り込んでいる虹彩画像300(P2)及びターゲット領域TAが写り込んでいない虹彩画像300(P2)の双方を含んでいる可能性がある。図8に示す例では、ターゲット領域TAは、虹彩カメラ3-1が撮像すると想定される虹彩画像300(P2)-1に写り込んでいる一方で、虹彩カメラ3-2から3-nが夫々撮像すると想定される虹彩画像300(P2)-2から300(P2)-nに写り込んでいない。このため、ステップS23において、座標推定部613は、位置座標C(全体:P2)に基づいて、ターゲット領域TAが写り込むと想定される虹彩画像300(P2)を特定すると共に、特定した虹彩画像300(P2)内でのターゲット領域TAの位置座標C(虹彩:P2)を推定する。
 座標推定部613は、全体画像200(P2)に写り込んでいる物体と複数の虹彩画像300(P2)の夫々に写り込んでいる同じ物体との対応関係(典型的には、位置関係)を示す第2対応情報を用いて、位置座標C(全体:P2)から位置座標C(虹彩:P2)を推定してもよい。このような第2対応情報は、典型的には、全体画像200(P2)に写り込んでいる物体の全体画像200(P2)内での位置座標と、複数の虹彩画像300(P2)の夫々に写り込んでいる同じ物体の虹彩画像300(P2)内での位置座標との対応関係を示す。
 第2対応情報は、ピント地点P2に位置する物体を全体カメラ2が実際に撮像することで取得される全体画像200と、ピント地点P2に位置する同じ物体を複数の虹彩カメラ3が実際に撮像することで夫々取得される複数の虹彩画像300とに基づいて、事前に(つまり、虹彩認証動作が実行される前に)算出されていてもよい。具体的には、第2対応情報は、ピント地点P2の物体の全体画像200内での位置座標と、ピント地点P2の物体の虹彩画像300内での位置座標とに基づいて算出されていてもよい。或いは、対応情報は、ピント地点P2に位置する物体を全体カメラ2が撮像した場合に取得されると想定される全体画像200と、ピント地点P2に位置する同じ物体を複数の虹彩カメラ3が撮像した場合に夫々取得されると想定される複数の虹彩画像300とをシミュレーション等によって算出すると共に、当該シミュレーションの結果に基づいて、事前に算出されていてもよい。シミュレーションの際には、全体カメラ2の位置、全体カメラ2のカメラパラメータ、複数の虹彩カメラ3の位置、複数の虹彩カメラ3のカメラパラメータ、トリガ地点P1の位置及びピント地点P2の位置の少なくとも一つが考慮されてもよい。或いは、第2対応情報は、その他の任意の方法で算出されていてもよい。
 第2対応情報の一例として、位置座標C(全体:P2)を位置座標C(虹彩:P2)に変換する第2変換行列H2があげられる。この場合、座標推定部613は、位置座標C(虹彩:P2)=H2×位置座標C(全体:P2)という数式を用いて、位置座標C(虹彩:P2)を推定してもよい。
 その後、カメラ設定部614は、ステップS23で推定された位置座標C(虹彩:P2)に基づいて、複数の虹彩カメラ3の中から、ピント地点P2に位置する認証対象者Tを撮像するための一の虹彩カメラ3を選択する(ステップS31)。具体的には、上述したように、座標推定部613は、位置座標C(全体:P2)に基づいて、ターゲット領域TAが写り込んでいる虹彩画像300(P2)を特定している。従って、カメラ設定部614は、複数の虹彩カメラ3のうちターゲット領域TAが写り込んでいる虹彩画像300(P2)に対応する虹彩カメラ3を、ピント地点P2に位置する認証対象者Tを撮像するための一の虹彩カメラ3として選択する。図8に示す例では、カメラ設定部614は、虹彩画像300(P2)-1に対応する虹彩カメラ3-1を、ピント地点P2に位置する認証対象者Tを撮像するための一の虹彩カメラ3として選択する。
 その後、カメラ設定部614は、ステップS31で選択された一の虹彩カメラ3が撮像する虹彩画像300のうちの虹彩認証を行うために実際に取得される(つまり、読み出される)画像部分を規定する注視領域(ROI:Region of Interest)IAを設定する(ステップS32)。具体的には、図8に示すように、カメラ設定部614は、例えば、選択された一の虹彩カメラ3が撮像する虹彩画像300のうちターゲット部位TPが写り込むと想定される矩形状の(或いは、その他の形状の)領域を、注視領域IAに設定する。つまり、図8に示すように、カメラ設定部614は、例えば、選択された一の虹彩カメラ3が撮像する虹彩画像300のうちターゲット領域TAを含む、ターゲット領域TAと一致する又はターゲット領域TAに含まれると想定される矩形状の(或いは、その他の形状の)領域を、注視領域IAに設定する。上述したように、ステップS23で推定された位置座標C(全体:P2)は、虹彩画像300(P2)内のターゲット領域TAの位置座標を示している。ターゲット領域TAにターゲット部位TPが含まれているため、カメラ設定部614は、位置座標C(虹彩:P2)に基づいて、注視領域IAを適切に設定することができる。図8に示す例では、カメラ設定部614は、虹彩画像300(P2)-1の一部を、注視領域IAに設定する。
 注視領域IAが設定された場合には、虹彩認証システム1は、注視領域モードで動作する。この場合、画像取得部611は、虹彩カメラ3が撮像した虹彩画像300全体を取得することに代えて、虹彩画像300のうち注視領域IA内の画像部分(つまり、虹彩画像300の画像データのうちの一部)を取得する。つまり、画像取得部611は、虹彩画像300のうち注視領域IA以外の領域内の画像部分(つまり、虹彩画像300の画像データのうちの残りの一部)を取得しなくてもよい。その結果、虹彩画像300全体を取得する場合と比較して、画像取得部611が虹彩カメラ3から虹彩画像300を取得するフレームレートが実質的に向上する。例えば、虹彩画像300の半分の領域が注視領域IAに設定された場合には、虹彩画像300全体を取得する場合と比較して、フレームレートが2倍に向上する。このため、虹彩カメラ3自身のフレームレートが、虹彩認証に必要なフレームレートに満たない場合であっても、画像取得部611は、虹彩認証に必要なフレームレートで虹彩画像300を取得することができる。
 その後、撮像制御部615は、人感センサ5の検知結果に基づいて、ピント地点P2に認証対象者Tが位置しているか否かを判定する(ステップS41)。つまり、撮像制御部615は、人感センサ5の検知結果に基づいて、ステップS11においてトリガ地点P1に位置していると判定された認証対象者Tが、ピント地点P2に移動したか否かを判定する(ステップS41)。ステップS41における判定の結果、ピント地点P2に認証対象者Tが位置していないと判定された場合には(ステップS41:No)、ステップS41の処理が繰り返し行われる。他方で、ステップS41における判定の結果、ピント地点P2に認証対象者Tが位置していると判定された場合には(ステップS41:Yes)、撮像制御部615は、ピント地点P2に位置している認証対象者Tを撮像するように、ステップS31で選択された一の虹彩カメラ3を制御する(ステップS42)。その結果、選択された一の虹彩カメラ3は、ピント地点P2に位置している認証対象者Tを撮像する(ステップS42)。選択された一の虹彩カメラ3が撮像した虹彩画像300(特に、虹彩画像300のうち注視領域IA内の画像部分)は、画像取得部611によって取得される(ステップS42)。
 その後、認証部616は、ステップS42で取得された虹彩画像300を用いて、虹彩認証を行う(ステップS51)。例えば、認証部616は、ステップS42で取得された虹彩画像300に基づいて、認証対象者Tの虹彩のパターンを特定する。その後、認証部616は、特定したパターンが、記憶装置64等に記憶されたデータベースに登録されたパターンと一致するか否かを判定する。特定したパターンがデータベースに登録されたパターンと一致する場合には、認証部616は、認証対象者Tが正当な人物であると判定する。特定したパターンがデータベースに登録されたパターンと一致する場合には、認証部616は、認証対象者Tが正当な人物でないと判定する。
 (3)虹彩認証システム1の技術的効果
 以上説明したよう虹彩認証システム1では、虹彩カメラ3がピント地点P2に位置する認証対象者Tを撮像する前に、ピント地点P2とは異なる(具体的には、手前にある)トリガ地点P1に位置する認証対象者Tを全体カメラ2が撮像する。このため、虹彩認証システム1は、認証対象者Tがピント地点P2に位置する前に、認証対象者Tを撮像する一の虹彩カメラ3を選択することができる。言い換えれば、虹彩認証システム1は、認証対象者Tがトリガ地点P1からピント地点P2に移動する時間を利用して、認証対象者Tを撮像する一の虹彩カメラ3を選択する(更には、注視領域IAを設定する)ことができる。このため、虹彩認証システム1は、移動する認証対象者T(特に、そのターゲット部位TP)を適切に撮像することができる。
 このようにトリガ地点P1とピント地点P2とが異なっていたとしても、虹彩認証システム1は、全体カメラ2が撮像した全体画像200(P1)に基づいて、認証対象者Tを撮像する一の虹彩カメラ3を適切に選択することができる。なぜならば、虹彩認証システム1は、全体画像200(P2)内でのターゲット領域TAの位置座標C(全体:P1)から、ピント地点P2に移動した認証対象者Tを全体カメラ2が撮像したと仮定した場合に取得されると想定される全体画像200(P2)内のターゲット領域TAの位置座標C(全体:P2)を推定し、その後、ピント地点P2に移動した認証対象者Tを虹彩カメラ3が撮像したと仮定した場合に取得されると想定される虹彩画像300(P2)内のターゲット領域TAの位置座標C(虹彩:P2)を推定しているからである。
 ここで、トリガ地点P1とピント地点P2とが異なるがゆえに、上述した図6及び図7に示すように、位置座標C(全体:P1)と位置座標C(全体:P2)とが異なるものとなる可能性が高いことは上述したとおりである。従って、仮に位置座標C(全体:P1)がそのまま位置座標C(全体:P2)として用いられるとすれば、認証対象者Tを撮像するように選択された一の虹彩カメラ3が、ターゲット部位TPを適切に撮像することができなくなる可能性がある。つまり、仮に位置座標C(全体:P1)がそのまま位置座標C(全体:P2)として用いられるとすれば、カメラ設定部614は、ピント地点P2に位置する認証対象者Tのターゲット部位TPを撮像することができない虹彩カメラ3を、認証対象者Tを撮像するための一の虹彩カメラ3として誤って選択してしまう可能性がある、しかるに、本実施形態では、位置座標C(全体:P1)から位置座標C(全体:P2)が推定された後に、位置座標(虹彩:P2)が推定される。このため、位置座標C(全体:P1)がそのまま位置座標C(全体:P2)として用いられる場合と比較して、認証対象者Tを撮像するように選択された一の虹彩カメラ3がターゲット部位TPを適切に撮像することができなくなる可能性は小さくなる。つまり、ピント地点P2に位置する認証対象者Tのターゲット部位TPを撮像することができない虹彩カメラ3が、認証対象者Tを撮像するための一の虹彩カメラ3として誤って選択される可能性が小さくなる。このため、位置座標C(全体:P1)から位置座標C(全体:P2)を推定する処理は、ピント地点P2に位置する認証対象者Tのターゲット部位TPを撮像する虹彩カメラ3の適切な選択(つまりは、虹彩カメラ3によるターゲット部位TPの適切な撮像)に大きく寄与すると言える。
 また、本実施形態では、トリガ地点P1及びピント地点P2に夫々対応する複数の人感センサ(つまり、人感センサ4及び5)が設置される。このため、虹彩認証システム1は、トリガ地点P1及びピント地点P2の夫々に認証対象者Tが位置するか否かを適切に判定することができる。つまり、虹彩認証システム1は、トリガ地点P1に位置する認証対象者Tを全体カメラ2で適切に撮像することができ、且つ、ピント地点P2に位置する認証対象者Tを虹彩カメラ3で適切に撮像することができる。
 (4)変形例
 (4-1)第1変形例
 (4-1-1)第1変形例の虹彩認証システムaの構成
 はじめに、図9を参照しながら、第1変形例の虹彩認証システム1aの全体構成について説明する。図9は、第1変形例の虹彩認証システム1aの全体構成を示すブロック図である。尚、以下の説明では、上述した虹彩認証システム1が備える構成要素と同一の構成要素については、同一の参照符号を付してその詳細な説明を省略する。
 図9に示すように、虹彩認証システム1aは、虹彩認証システム1と比較して、全体カメラ2及び複数の虹彩カメラ3に代えて、単一の共通カメラ7aを備えているという点で異なっている。虹彩認証システム1aのその他の特徴は、虹彩認証システム1のその他の特徴と同一であってもよい。
 共通カメラ7aは、全体カメラ2及び複数の虹彩カメラ3と同様に、認証対象者Tを撮像可能な撮像装置である。共通カメラ7aは、虹彩認証装置6の制御下で、その状態を、全体カメラ2として機能可能な全体撮像状態と、複数の虹彩カメラ3のうちの少なくとも一つとして機能可能な虹彩撮像状態との間で切替可能である。尚、全体撮像状態及び虹彩撮像状態は、夫々、後述する付記における「第1状態」及び「第2状態」の一具体例である。
 全体撮像状態にある共通カメラ7aは、上述した全体カメラ2と実質的に等価である。つまり、全体撮像状態にある共通カメラ7aは、上述した全体カメラ2と同様に動作する。このため、全体撮像状態にある共通カメラ7aの特徴については、上述した全体カメラ2と同一であってもよいため、その詳細な説明を省略する。
 虹彩撮像状態にある共通カメラ7aは、上述した複数の虹彩カメラ3のうちの少なくとも一つと実質的に等価である。つまり、虹彩撮像状態にある共通カメラ7aは、上述した複数の虹彩カメラ3の少なくとも一つと同様に動作する。このため、虹彩撮像状態にある共通カメラ7aの特徴については、上述した複数の虹彩カメラ3のうちの少なくとも一つと同一であってもよいため、その詳細な説明を省略する。尚、虹彩撮像状態にある共通カメラ7aの視野範囲は、典型的には、複数の虹彩カメラ3の視野範囲を合成した合成視野範囲(図2参照)と同一になる。このため、虹彩撮像状態にある共通カメラ7aは、上述した複数の虹彩カメラ3を単一のカメラとみなしたものと実質的に等価である。
 状態を切り替えるために、共通カメラ7aは、例えば、光学的な特性(例えば、焦点距離)が可変な光学系を備えていてもよい。この場合、典型的には、全体撮像状態にある共通カメラ7aの光学系の焦点距離は、虹彩撮像状態にある共通カメラ7aの光学系の焦点距離よりも短くなる。その結果、共通カメラ7aは、全体カメラ2として機能可能となるとと共に、複数の虹彩カメラ3のうちの少なくとも一つとして機能可能となる。
 一例として、共通カメラ7aは、いわゆるズームレンズを含む光学系を備えていてもよい。この場合、ズームレンズを含む光学系の焦点距離が相対的に短い第1の距離(例えば、上述した全体カメラ2の焦点距離に相当する第1の距離)に設定されると、共通カメラ7aの状態は、全体撮像状態となる。つまり、共通カメラ7aの合焦位置がトリガ地点P1を含む領域に設定され、共通カメラ7aは、相対的に広い視野範囲で(つまり、相対的に広い画角)で、トリガ地点P1に位置する認証対象者Tを撮像可能となる。一方で、ズームレンズを含む光学系の焦点距離が第1の距離から相対的に長い第2の距離(例えば、上述した虹彩カメラ3の焦点距離に相当する第2の距離)に設定されると、共通カメラ7aの状態は、全体撮像状態から虹彩撮像状態へと切り替わる。つまり、共通カメラ7aの合焦位置がピント地点P2を含む領域に設定され、共通カメラ7aは、相対的に狭い視野範囲で(つまり、相対的に狭い画角)で、ピント地点P2に位置する認証対象者Tを撮像可能となる。また、ズームレンズを含む光学系の焦点距離が第2の距離から第1の距離に設定されると、共通カメラ7aの状態が虹彩撮像状態から全体撮像状態へと戻る。
 第1変形例では、虹彩認証動作として、例えば、全体撮像状態にある共通カメラ7aが撮像した画像に基づいて、虹彩撮像状態にある共通カメラ7aが撮像する画像のうちの虹彩認証を行うために実際に取得される(つまり、読み出される)画像部分を規定する注視領域(ROI:Region of Interest)IAを設定する処理と、虹彩撮像状態にある共通カメラ7aが撮像した画像に基づいて、認証対象者Tの認証を行う処理とを含む動作を行う。以下、このような第1変形例の虹彩認証動作について、更に詳細に説明する。尚、以下では、全体撮像状態にある共通カメラ7aが撮像した画像は、実質的に全体カメラ2が撮像した全体画像200と等価であるため、説明の便宜上、“全体画像200”と称する。また、虹彩撮像状態にある共通カメラ7aが撮像した画像は、実質的に複数の虹彩カメラ3が夫々撮像した複数の虹彩画像300を合成して得られる画像と等価であるため、説明の便宜上、“虹彩画像300”と称する。
 (4-1-2)第1変形例の虹彩認証動作の流れ
 続いて、図10を参照しながら、第1変形例の虹彩認証システム1aの動作(つまり、虹彩認証動作)の流れについて説明する。図10は、第1変形例の虹彩認証システム1aの動作(つまり、虹彩認証動作)の流れを示すフローチャートである。尚、上述した図5で説明した処理と同一の処理については、同一のステップ番号を付してその詳細な説明を省略する。
 図10に示すように、第1変形例では、トリガ地点P1に認証対象者Tが位置していると判定された場合には(ステップS11:Yes)、撮像制御部615は、トリガ地点P1に位置している認証対象者Tを撮像するように、共通カメラ7aを制御する(ステップS12a)。この際、撮像制御部615は、トリガ地点P1に位置している認証対象者Tを撮像するように共通カメラ7aを制御する前に、共通カメラ7aの状態が全体撮像状態となるように共通カメラ7aを制御する。例えば、上述したように共通カメラ7aがズームレンズを含む光学系を備えている場合には、撮像制御部615は、ズームレンズを含む光学系の焦点距離が相対的に短い第1の距離に設定されるように、ズームレンズを制御する(例えば、ズームレンズに含まれる可動レンズを動かす)。その後、撮像制御部615は、トリガ地点P1に位置している認証対象者Tを撮像するように、共通カメラ7aを制御する。その結果、共通カメラ7aは、トリガ地点P1に位置している認証対象者Tを撮像する(ステップS12a)。共通カメラ7aが撮像した全体画像200(P1)は、画像取得部611によって取得される(ステップS12a)。
 その後、領域検出部612は、ステップS12aにおいて取得された全体画像200(P1)に対して画像処理を行うことで、全体画像200(P1)のうちターゲット部位TPが写り込んでいる画像部分を、ターゲット領域TAとして検出する(ステップS21)。更に、領域検出部612は、検出したターゲット領域TAの全体画像200(P1)内での位置座標C(全体:P1)を算出する(ステップS21)。
 その後、座標推定部613は、ステップS21で算出したターゲット領域TAの位置座標C(全体:P1)に基づいて、トリガ地点P1からピント地点P2に移動した認証対象者Tを全体撮像状態にある共通カメラ7aが撮像したと仮定した場合に取得されると想定される全体画像200(P2)内でのターゲット領域TAの位置座標C(全体:P2)を推定する(ステップS22a)。尚、ステップS22aにおいて、座標推定部613は、上述したステップS22と同様に、全体画像200(P1)に写り込んでいる物体と全体画像200(P2)に写り込んでいる同じ物体との対応関係を示す第1対応情報を用いて、位置座標C(全体:P1)から位置座標C(全体:P2)を推定してもよい。但し、第1変形例の第1対応情報は、共通カメラ7aを対象にする情報であるという点で、全体カメラ2を対象にする上述した第1対応情報とは異なる。
 その後、座標推定部613は、ステップS22で推定した位置座標C(全体:P2)に基づいて、トリガ地点P1からピント地点P2に移動した認証対象者Tを虹彩撮像状態にある共通カメラ7aが撮像したと仮定した場合に取得されると想定される虹彩画像300内でのターゲット領域TAの位置座標C(虹彩:P2)を推定する(ステップS23a)。尚、ステップS23aにおいて、座標推定部613は、上述したステップS23と同様に、全体画像200(P2)に写り込んでいる物体と虹彩画像300(P2)に写り込んでいる同じ物体との対応関係を示す第2対応情報を用いて、位置座標C(全体:P2)から位置座標C(虹彩:P2)を推定してもよい。但し、第1変形例の第2対応情報は、全体撮像状態にある共通カメラ7a及び虹彩撮像状態にある共通カメラ7a(特に、ピント地点P2に位置する認証対象者Tのターゲット部位TPを撮像可能な虹彩撮像状態にある共通カメラ7a)を対象にする情報であるという点で、全体カメラ2及び虹彩カメラ3を対象にする上述した第2対応情報とは異なる。尚、第1変形例では、複数の虹彩カメラ3に代えて共通カメラ7aが用いられるがゆえに、座標推定部613は、位置座標C(全体:P2)に基づいて、複数の虹彩画像300(P2)の中からターゲット領域TAが写り込むと想定される一の虹彩画像300(P2)を特定する処理を行うことなく、虹彩画像300(P2)内でのターゲット領域TAの位置座標C(虹彩:P2)を推定する。
 その後、カメラ設定部614は、ステップS23で推定された位置座標C(虹彩:P2)に基づいて、虹彩撮像状態にある共通カメラ7aが撮像する虹彩画像300のうちの虹彩認証を行うために実際に取得される(つまり、読み出される)画像部分を規定する注視領域(ROI:Region of Interest)IAを設定する(ステップS32a)。尚、ステップS32aの処理は、共通カメラ7aを対象としている点を除いては、虹彩カメラ3を対象としている上述したステップS32aの処理と同一であってもよい。
 その後、ピント地点P2に認証対象者Tが位置していると判定された場合には(ステップS41:Yes)、撮像制御部615は、ピント地点P2に位置している認証対象者Tを撮像するように、共通カメラ7aを制御する(ステップS42a)。この際、撮像制御部615は、ピント地点P2に位置している認証対象者Tを撮像するように共通カメラ7aを制御する前に、共通カメラ7aの状態が全体撮像状態から虹彩撮像状態に切り替わるように共通カメラ7aを制御する。具体的には、撮像制御部615は、ステップS12aにおいて全体画像200が取得されてからステップS42aにおいて虹彩画像300が取得される前に、共通カメラ7aの状態が全体撮像状態から虹彩撮像状態に切り替わるように共通カメラ7aを制御してもよい。上述したように共通カメラ7aがズームレンズを含む光学系を備えている場合には、撮像制御部615は、ズームレンズを含む光学系の焦点距離が相対的に長い第2の距離に設定されるように、ズームレンズを制御する(例えば、ズームレンズに含まれる可動レンズを動かす)。つまり、撮像制御部615は、ズームレンズを含む光学系の焦点距離を、相対的に短い第1の距離から相対的に長い第2の距離に変更する。その結果、共通カメラ7aの状態が全体撮像状態から虹彩撮像状態に切り替わる。その後、撮像制御部615は、ピント地点P2に位置している認証対象者Tを撮像するように、共通カメラ7aを制御する。その結果、共通カメラ7aは、ピント地点P2に位置している認証対象者Tを撮像する(ステップS42a)。共通カメラ7aが撮像した虹彩画像300(特に、虹彩画像300のうち注視領域IA内の画像部分)は、画像取得部611によって取得される(ステップS42a)。
 その後、認証部616は、ステップS42で取得された虹彩画像300を用いて、虹彩認証を行う(ステップS51)。
 このような第1変形例の虹彩認証システム1aは、上述した虹彩認証システム1が享受可能な効果と同様の効果を享受することができる。
 (4-2)その他の変形例
 上述した説明では、座標推定部613は、第1及び第2対応情報という2つの対応情報を用いて、位置座標C(全体:P1)から位置座標C(全体:P2)を推定し、その後、位置座標C(全体:P2)から位置座標C(虹彩:P2)を推定している。しかしながら、座標推定部613は、第1及び第2対応情報という2つの対応情報に代えて、第1及び第2対応情報の双方が反映された単一の対応情報(例えば、第1変換行列H1×第2変換行列H2に相当する単一の変換行列)を用いて、位置座標C(全体:P1)から位置座標C(虹彩:P2)を直接的に推定してもよい。この場合であっても、単一の対応情報に第1対応情報が反映されている限りは、位置座標C(全体:P1)から位置座標C(虹彩:P2)を直接的に推定する動作は、位置座標C(全体:P1)から位置座標C(全体:P2)を推定し、その後、位置座標C(全体:P2)から位置座標C(虹彩:P2)を推定する動作と等価である。
 上述した説明では、単一のトリガ地点P1が設定されている。しかしながら、基準地点P0からの距離が互いに異なる複数のトリガ地点P1が設定されていてもよい。この場合、全体カメラ2は、複数のトリガ地点P1のうちの少なくとも一つのトリガ地点P1に位置する認証対象者Tを撮像してもよい。或いは、虹彩認証システム1は、複数のトリガ地点P1に夫々対応する複数の全体カメラ2を備えていてもよい。また、複数のトリガ地点P1が設定される場合には、虹彩認証システム1は、複数のトリガ地点P1に夫々対応する複数の人感センサ4を備えていてもよい。
 虹彩認証システム1は、単一の虹彩カメラ3を備えていてもよい。この場合、虹彩カメラ3の視野範囲は、認証対象者Tの身長の長短に関わらずにピント地点P2に位置する認証対象者Tのターゲット部位TPを虹彩カメラ3が撮像できるように、適切な範囲に設定されていてもよい。また、虹彩認証システム1が単一の虹彩カメラ3を備えている場合には、カメラ設定部614は、図5のステップS31の処理(つまり、認証対象者Tを撮像する一の虹彩カメラ3を選択する処理)を行わなくてもよい。
 カメラ設定部614は、注視領域IAを設定する処理(図5のステップS32又は図10のステップS32aに相当する処理)を行わなくてもよい。この場合には、虹彩認証システム1は、注視領域モードで動作しなくてもよい。具体的には、画像取得部611は、虹彩カメラ3又は共通カメラ7aが撮像した虹彩画像300の全体を取得してもよい。認証部616は、虹彩カメラ3又は共通カメラ7aが撮像した虹彩画像300の全体を用いて虹彩認証を行ってもよい。
 上述した説明では、虹彩認証装置6は、画像取得部611、領域検出部612、座標推定部613、カメラ設定部614、撮像制御部615及び認証部616を備えている。しかしながら、虹彩認証装置6の変形例を示すブロック図である図11に示すように、虹彩認証装置6は、領域検出部612、座標推定部613及びカメラ設定部614の少なくとも一つを備えていなくてもよい。この場合、撮像制御部615が、領域検出部612、座標推定部613及びカメラ設定部614の夫々が行う処理を実行してもよい。或いは、虹彩認証装置6の外部の装置が、領域検出部612、座標推定部613及びカメラ設定部614の夫々が行う処理を実行してもよい。また、図11に示すように、虹彩認証装置6は、認証部616を備えていなくてもよい。この場合、虹彩認証装置6の外部の装置が、認証部616が行う処理を実行してもよい。
 上述した説明では、虹彩認証システム1は、人感センサ4を備えている。しかしながら、虹彩認証システム1は、人感センサ4を備えていなくてもよい。この場合には、全体カメラ2又は共通カメラ7aは、認証対象者Tがトリガ地点P1に位置しているか否かに関わらず、所定のフレームレート(つまり、撮像レート)で視野範囲内の光景を撮像し続けてもよい。典型的には、全体カメラ2又は共通カメラ7aは、少なくとも認証対象者Tがトリガ地点P1を通過する期間中は、所定のフレームレートで視野範囲内の光景を撮像し続けてもよい。その結果、虹彩認証システム1が人感センサ4を備えていない場合であっても、全体カメラ2又は共通カメラ7aは、認証対象者Tがトリガ地点P1に到達したタイミングで、認証対象者Tを撮像することができる。つまり、虹彩認証システム1が人感センサ4を備えていない場合であっても、画像取得部611は、トリガ地点P1に位置する認証対象者Tが写っている全体画像200を取得することができる。
 虹彩認証システム1が人感センサ4を備えていない場合には、虹彩認証装置6(例えば、領域検出部612)は、全体画像200を画像解析することで、トリガ地点P1に位置している認証対象者Tが写った全体画像200を取得したか否かを判定してもよい。つまり、虹彩認証装置6は、全体画像200を画像解析することで、認証対象者Tがトリガ地点P1に位置しているか否かを判定してもよい。認証対象者Tがトリガ地点P1に位置している(つまり、トリガ地点P1に位置している認証対象者Tが写った全体画像200を取得した)と判定された場合には、虹彩認証装置6は、全体画像200に基づいて、ピント地点P2に位置する認証対象者Tを撮像するための一の虹彩カメラ3を選択する処理(具体的には、図5又は図10のステップS21からステップS32に至る一連の処理)を行う。一方で、認証対象者Tがトリガ地点P1に位置していないと判定された場合には、虹彩認証装置6は、図5又は図10のステップS21からステップS32に至る一連の処理を開始しない。尚、虹彩認証装置6は、認証対象者Tがトリガ地点P1に位置しているか否かを判定するための画像解析の方法として、既存の方法を採用してもよい。例えば、虹彩認証装置6は、全体画像200から深度を推定することで、認証対象者Tがトリガ地点P1に位置しているか否かを判定してもよい。例えば、虹彩認証装置6は、全体画像200に写っている認証対象者Tの足元を検知し、且つ、検知した足元がトリガ地点P1に位置しているか否かを判定することで、認証対象者Tがトリガ地点P1に位置しているか否かを判定してもよい。例えば、虹彩認証装置6は、全体画像200に写っている認証対象者Tの両目の間の間隔が所定値になったか否かを判定することで、認証対象者Tがトリガ地点P1に位置しているか否かを判定してもよい。
 上述した説明では、虹彩認証システム1は、人感センサ5を備えている。しかしながら、虹彩認証システム1は、人感センサ5を備えていなくてもよい。この場合には、図5のステップS32において虹彩カメラ3の注視領域IAが設定された後に、注視領域IAが設定された虹彩カメラ3は、認証対象者Tがピント地点P2に位置しているか否かに関わらず、所定のフレームレート(つまり、撮像レート)で視野範囲内の光景を撮像し続けてもよい。或いは、図10のステップS32aにおいて共通カメラ7aの注視領域IAが設定された後に、注視領域IAが設定された共通カメラ7aは、認証対象者Tがピント地点P2に位置しているか否かに関わらず、所定のフレームレートで視野範囲内の光景を撮像し続けてもよい。典型的には、虹彩カメラ3又は共通カメラ7aは、少なくとも認証対象者Tがピント地点P2を通過する期間中は、所定のフレームレート(つまり、撮像レート)で視野範囲内の光景を撮像し続けてもよい。その結果、虹彩認証システム1が人感センサ5を備えていない場合であっても、虹彩カメラ3又は共通カメラ7aは、認証対象者Tがトリガ地点P1からピント地点P2に到達したタイミングで、認証対象者Tを撮像することができる。つまり、虹彩認証システム1が人感センサ5を備えていない場合であっても、画像取得部611は、ピント地点P2に位置する認証対象者Tが写っている虹彩画像300を取得することができる。
 上述した説明では、撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の実施形態が虹彩認証システム1に対して適用されている。しかしながら、撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の実施形態は、認証対象者Tの虹彩とは異なる所定部位の特徴量に基づいて認証対象者Tの認証を行う任意の認証システムに適用されてもよい。つまり、虹彩認証システム1は、虹彩認証動作に代えて任意の認証動作を行う任意の認証システムに改変されてもよい。このような任意の認証システムの一例として、認証対象者Tの顔の特徴量に基づいて認証対象者Tの認証を行う顔認証システムがあげられる。或いは、撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体の実施形態は、全体カメラ2(或いは、第1撮像装置)が撮像した撮像対象者の画像に基づいて、移動する撮像対象者を撮像するように虹彩カメラ3(或いは、第2撮像装置)を制御する任意の撮像システムに適用されてもよい。つまり、虹彩認証システム1は、少なくとも2種類の撮像装置を用いて上述したトリガ地点P1及びピント地点P2で撮像対象者を夫々撮像する任意の撮像システムに改変されてもよい。
 虹彩認証システム1は、認証対象者Tの虹彩を用いて認証対象者Tを認証することに加えて又は代えて、認証対象者Tの任意の部位を用いて認証対象者Tを認証してもよい。つまり、認証対象者Tの任意の部位を用いて認証対象者Tの認証を行う任意の認証システムが、虹彩認証システム1と同様の構成を有し且つ同様の動作を行ってもよい。このような、任意の認証システムの一例として、認証対象者Tの顔を用いて認証対象者Tを認証する顔認証システムがあげられる。
 (5)付記
 以上説明した実施形態に関して、更に以下の付記を開示する。
 (5-1)付記1
 付記1に記載の撮像システムは、第1地点に位置する撮像対象を撮像する第1撮像装置と、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に合焦位置が設定されている第2撮像装置と、前記第1撮像装置が撮像した画像に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する制御装置とを備える撮像システムである。
 (5-2)付記2
 付記2に記載の撮像システムは、前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置と、前記第2地点に前記撮像対象が位置しているか否かを検知する第2検知装置とを更に備える付記1に記載の撮像システムである。
 (5-3)付記3
 付記3に記載の撮像システムは、前記第1撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像し、前記第2撮像装置は、前記第2地点に前記撮像対象が位置していることを前記第2検知装置が検知した場合に、前記第2地点に位置する前記撮像対象を撮像する付記2に記載の撮像システムである。
 (5-4)付記4
 付記4に記載の撮像システムは、前記第2撮像装置は、前記撮像対象が前記第2地点を通過する期間中に、所定の撮像レートで撮像し続ける付記1に記載の撮像システムである。
 (5-5)付記5
 付記5に記載の撮像システムは、前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置を更に備え、前記第1撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像する付記1又は4に記載の撮像システムである。
 (5-6)付記6
 付記6に記載の撮像システムは、前記制御装置は、(i)前記第1撮像装置が撮像した画像に基づいて、前記第1地点に位置する前記撮像対象の、前記第1撮像装置が撮像した画像内での位置である第1位置を特定し、(ii)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第2撮像装置が撮像したと仮定した状況下での、前記第2撮像装置が撮像した画像内での前記撮像対象の位置である第2位置を推定し、(iii)前記第2位置に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する付記1から5のいずれか一項に記載の撮像システムである。
 (5-7)付記7
 付記7に記載の撮像システムは、前記制御装置は、前記第1位置に基づいて前記第2位置を推定するために、(i)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第1撮像装置が撮像したと仮定した状況下での、前記第1撮像装置が撮像した画像内での前記撮像対象の位置である第3位置を推定し、(ii)前記第3位置に基づいて前記第2位置を推定する付記6に記載の撮像システムである。
 (5-8)付記8
 付記8に記載の撮像システムは、前記第2撮像装置を複数備え、前記制御装置は、前記第1撮像装置が撮像した画像から前記撮像対象の画像内の位置を特定し、特定した前記位置に基づいて前記第2地点に位置する前記撮像対象を撮像する一の前記第2撮像装置を選択する付記1から7のいずれか一項に記載の撮像システムである。
 (5-9)付記9
 付記9に記載の撮像システムは、前記制御装置は、前記第1位置と前記撮像対象の移動方向に関する情報とに基づいて、前記第3位置を推定する付記7に記載の撮像システムである。
 (5-10)付記10
 付記10に記載の撮像システムは、前記制御装置は、前記第1撮像装置が撮像した画像と、前記撮像対象の移動方向に関する情報とに基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する付記1から9のいずれか一項に記載の撮像システムである。
 (5-11)付記11
 付記11に記載の撮像システムは、前記移動方向に関する情報は、前記第1地点に位置する物体を前記第1撮像装置が撮像したと仮定した状況下での、前記第1撮像装置が撮像した画像内での前記物体の位置と、前記第2地点に位置する前記物体を前記第1撮像装置が撮像したと仮定した状況下での、前記第1撮像装置が撮像した画像内での前記物体の位置との対応関係を示す情報を含む付記9又は10に記載の撮像システムである。
 (5-12)付記12
 付記12に記載の撮像システムは、前記第2撮像装置を複数備え、前記制御装置は、前記第1撮像装置が撮像した画像に基づいて、前記複数の第2撮像装置のうち前記第2地点に位置する前記撮像対象を撮像するべき一の第2撮像装置を選択し、前記第2地点に位置する前記撮像対象を撮像するように前記選択した一の第2撮像装置を制御する付記1から11のいずれか一項に記載の撮像システムである。
 (5-13)付記13
 付記13に記載の撮像システムは、前記第1地点が複数設定されており、前記第1撮像装置は、前記複数の第1地点のうちの少なくとも一つに位置する前記撮像対象を撮像する付記1から12のいずれか一項に記載の撮像システム。
 (5-14)付記14
 付記14に記載の撮像システムは、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置と、前記第1の状態の前記撮像装置が撮像した画像に基づいて、前記撮像装置を制御することで、前記撮像装置を前記第1の状態から前記第2の状態に切替える制御装置とを備える撮像システムである。
 (5-15)付記15
 付記15に記載の撮像システムは、前記撮像装置は、前記第1の状態では前記第1地点を含む領域に合焦位置を設定し、前記第2の状態では前記第2地点を含む領域に合焦位置を設定する付記14に記載の撮像システムである。
 (5-16)付記16
 付記16に記載の撮像システムは、前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置と、前記第2地点に前記撮像対象が位置しているか否かを検知する第2検知装置とを更に備える付記14又は15に記載の撮像システムである。
 (5-17)付記17
 付記17に記載の撮像システムは、前記第1の状態の前記撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像し、前記第2の状態の前記撮像装置は、前記第2地点に前記撮像対象が位置していることを前記第2検知装置が検知した場合に、前記第2地点に位置する前記撮像対象を撮像する付記16に記載の撮像システムである。
 (5-18)付記18
 付記18に記載の撮像システムは、前記撮像装置は、前記撮像対象が前記第2地点を通過する期間中に、所定の撮像レートで撮像し続ける付記14から17のいずれか一項に記載の撮像システムである。
 (5-19)付記19
 付記19に記載の撮像システムは、前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置を更に備え、前記撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像する付記14、15又は18に記載の撮像システムである。
 (5-20)付記20
 付記20に記載の撮像システムは、前記制御装置は、(i)前記第1の状態の前記撮像装置が撮像した画像に基づいて、前記第1地点に位置する前記撮像対象の、前記第1の状態の前記撮像装置が撮像した画像内での位置である第1位置を特定し、(ii)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第2の状態の前記撮像装置が撮像したと仮定した状況下での、前記第2の状態の前記撮像装置が撮像した画像内での前記撮像対象の位置である第2位置を推定し、(iii)前記第2位置に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2の状態の前記撮像装置を制御する付記14から19のいずれか一項に記載の撮像システムである。
 (5-21)付記21
 付記21に記載の撮像システムは、前記制御装置は、前記第1位置に基づいて前記第2位置を推定するために、(i)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第1の状態の前記撮像装置が撮像したと仮定した状況下での、前記第1の状態の前記撮像装置が撮像した画像内での前記撮像対象の位置である第3位置を推定し、(ii)前記第3位置に基づいて前記第2位置を推定する付記20に記載の撮像システムである。
 (5-22)付記22
 付記22に記載の撮像システムは、前記制御装置は、前記第1位置と前記撮像対象の移動方向に関する情報とに基づいて、前記第3位置を推定する付記21に記載の撮像システムである。
 (5-23)付記23
 付記23に記載の撮像システムは、前記制御装置は、前記第1の状態の前記撮像装置が撮像した画像と、前記撮像対象の移動方向に関する情報とに基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2の状態の前記撮像装置を制御する付記14から22のいずれか一項に記載の撮像システムである。
 (5-24)付記24
 付記24に記載の撮像システムは、前記移動方向に関する情報は、前記第1地点に位置する物体を前記第1の状態の前記撮像装置が撮像したと仮定した状況下での、前記第1の状態の前記撮像装置が撮像した画像内での前記物体の位置と、前記第2地点に位置する前記物体を前記第1の状態の撮像装置が撮像したと仮定した状況下での、前記第1の状態の前記撮像装置が撮像した画像内での前記物体の位置との対応関係を示す情報を含む付記22又は23に記載の撮像システム。
 (5-25)付記25
 付記25に記載の撮像システムは、前記第1地点が複数設定されており、前記第1の状態の前記撮像装置は、前記複数の第1地点のうちの少なくとも一つに位置する前記撮像対象を撮像する付記14から24のいずれか一項に記載の撮像システム。
 (5-26)付記26
 付記26に記載の撮像方法は、第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得工程と、前記取得工程で取得された画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている第2撮像装置を制御する制御工程とを備える撮像方法である。
 (5-27)付記27
 付記27に記載の撮像方法は、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得工程と、前記取得工程で取得された画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から前記第2の状態に切替える制御工程とを備える撮像方法である。
 (5-28)付記28
 付記28に記載の制御装置は、第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得手段と、前記取得手段が取得した画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている第2撮像装置を制御する制御手段とを備える制御装置である。
 (5-29)付記29
 付記29に記載の制御装置は、第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得手段と、前記取得手段が取得した画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から第2の状態に切替える制御手段とを備える撮像方法である。
 (5-30)付記30
 付記30に記載のコンピュータプログラムは、コンピュータに、付記26又は27に記載の撮像方法を実行させるコンピュータプログラムである。
 (5-31)付記31
 付記31に記載の記録媒体は、付記30に記載のコンピュータプログラムが記録された記録媒体である。
 本発明は、請求の範囲及び明細書全体から読み取るこのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体もまた本発明の技術思想に含まれる。
 1 虹彩認証システム
 2 全体カメラ
 200 全体画像
 3 虹彩カメラ
 300 虹彩画像
 4、5 人感センサ
 6 虹彩認証装置
 61 CPU
 611 画像取得部
 612 領域検出部
 613 座標推定部
 614 カメラ設定部
 615 撮像制御部
 616 認証部
 7a 共通カメラ
 P1 トリガ地点
 P2 ピント地点

Claims (16)

  1.  第1地点に位置する撮像対象を撮像する第1撮像装置と、
     前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に合焦位置が設定されている第2撮像装置と、
     前記第1撮像装置が撮像した画像に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する制御装置と
     を備える撮像システム。
  2.  前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置と、
     前記第2地点に前記撮像対象が位置しているか否かを検知する第2検知装置と
     を更に備える請求項1に記載の撮像システム。
  3.  前記第1撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像し、
     前記第2撮像装置は、前記第2地点に前記撮像対象が位置していることを前記第2検知装置が検知した場合に、前記第2地点に位置する前記撮像対象を撮像する
     請求項2に記載の撮像システム。
  4.  前記第2撮像装置は、前記撮像対象が前記第2地点を通過する期間中に、所定の撮像レートで撮像し続ける
     請求項1に記載の撮像システム。
  5.  前記第1地点に前記撮像対象が位置しているか否かを検知する第1検知装置を更に備え、
     前記第1撮像装置は、前記第1地点に前記撮像対象が位置していることを前記第1検知装置が検知した場合に、前記第1地点に位置する前記撮像対象を撮像する
     請求項1又は4に記載の撮像システム。
  6.  前記制御装置は、(i)前記第1撮像装置が撮像した画像に基づいて、前記第1地点に位置する前記撮像対象の、前記第1撮像装置が撮像した画像内での位置である第1位置を特定し、(ii)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第2撮像装置が撮像したと仮定した状況下での、前記第2撮像装置が撮像した画像内での前記撮像対象の位置である第2位置を推定し、(iii)前記第2位置に基づいて、前記第2地点に位置する前記撮像対象を撮像するように前記第2撮像装置を制御する
     請求項1から5のいずれか一項に記載の撮像システム。
  7.  前記制御装置は、前記第1位置に基づいて前記第2位置を推定するために、(i)前記第1位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第1撮像装置が撮像したと仮定した状況下での、前記第1撮像装置が撮像した画像内での前記撮像対象の位置である第3位置を推定し、(ii)前記第3位置に基づいて、前記第1地点から前記第2地点に移動した前記撮像対象を前記第2撮像装置が撮像したと仮定した状況下での、前記第2撮像装置が撮像した画像内での前記撮像対象の位置である前記第2位置を推定する
     請求項6に記載の撮像システム。
  8.  前記第2撮像装置を複数備え、
     前記制御装置は、前記第1撮像装置が撮像した画像から前記撮像対象の画像内の位置を特定し、特定した前記位置に基づいて前記第2地点に位置する前記撮像対象を撮像する一の前記第2撮像装置を選択する
     請求項1から7のいずれか一項に記載のシステム。
  9.  第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置と、
     前記第1の状態にある前記撮像装置が撮像した画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から前記第2の状態に切替える制御装置と
     を備える撮像システム。
  10.  前記撮像装置は、前記第1の状態では前記第1地点を含む領域に合焦位置を設定し、前記第2の状態では前記第2地点を含む領域に合焦位置を設定する
     請求項9に記載の撮像システム。
  11.  第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得工程と、
     前記取得工程で取得された画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている第2撮像装置を制御する制御工程と
     を備える撮像方法。
  12.  第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得工程と、
     前記取得工程で取得された画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から前記第2の状態に切替える制御工程と
     を備える撮像方法。
  13.  第1地点に位置する撮像対象を撮像する第1撮像装置が撮像した画像を取得する取得手段と、
     前記取得手段が取得した画像に基づいて、前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像するように、前記第2地点に合焦位置が設定されている第2撮像装置を制御する制御手段と
     を備える制御装置。
  14.  第1の状態と第2の状態との間で状態切替可能であって、前記第1の状態では第1地点に位置する撮像対象を撮像し、前記第2の状態では前記第1地点よりも前記撮像対象の移動方向における奥側に位置する第2地点に位置する前記撮像対象を撮像する撮像装置から、前記第1の状態にある前記撮像装置が撮像した画像を取得する取得手段と、
     前記取得手段が取得した画像に基づいて前記撮像装置を制御することで、前記撮像装置を前記第1の状態から第2の状態に切替える制御手段と
     を備える制御装置。
  15.  コンピュータに、請求項11又は12に記載の撮像方法を実行させるコンピュータプログラム。
  16.  請求項15に記載のコンピュータプログラムが記録された記録媒体。
PCT/JP2019/024068 2019-06-18 2019-06-18 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体 WO2020255244A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US17/619,769 US11997377B2 (en) 2019-06-18 2019-06-18 Imaging system, imaging method, control apparatus, computer program and recording medium
EP19933805.4A EP3989532A4 (en) 2019-06-18 2019-06-18 IMAGING SYSTEM, IMAGING METHOD, CONTROL DEVICE, COMPUTER PROGRAM AND RECORDING MEDIUM
PCT/JP2019/024068 WO2020255244A1 (ja) 2019-06-18 2019-06-18 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体
JP2021528091A JP7226549B2 (ja) 2019-06-18 2019-06-18 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体
CN201980097552.XA CN113966607B (zh) 2019-06-18 2019-06-18 成像系统、成像方法和记录介质
JP2022192948A JP2023029941A (ja) 2019-06-18 2022-12-01 撮像システム、撮像方法、コンピュータプログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024068 WO2020255244A1 (ja) 2019-06-18 2019-06-18 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2020255244A1 true WO2020255244A1 (ja) 2020-12-24

Family

ID=74040288

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024068 WO2020255244A1 (ja) 2019-06-18 2019-06-18 撮像システム、撮像方法、制御装置、コンピュータプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US11997377B2 (ja)
EP (1) EP3989532A4 (ja)
JP (2) JP7226549B2 (ja)
CN (1) CN113966607B (ja)
WO (1) WO2020255244A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929858A4 (en) * 2019-02-18 2022-04-20 NEC Corporation IMAGING APPARATUS, METHOD AND SYSTEM, AND COMPUTER READABLE MEDIA

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309742A (ja) * 2005-03-30 2006-11-09 Pentax Corp 撮影装置
JP2010134735A (ja) 2008-12-05 2010-06-17 Panasonic Corp 虹彩認証装置
JP2011211678A (ja) * 2010-03-12 2011-10-20 Omron Corp 画像処理装置および画像処理プログラム
JP2013045249A (ja) * 2011-08-23 2013-03-04 Hitachi Ltd 車両逆走防止システムおよび車両逆走防止方法
JP2014067090A (ja) 2012-09-24 2014-04-17 Fujitsu Ltd 検出装置、検出プログラムおよび検出方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3389800B2 (ja) 1996-11-29 2003-03-24 スズキ株式会社 エンジンの潤滑装置
EP1671258A4 (en) 2003-09-04 2008-03-19 Sarnoff Corp METHOD AND DEVICE FOR CARRYING OUT AN IRIS DETECTION FROM ONE IMAGE
JP2006163683A (ja) 2004-12-06 2006-06-22 Matsushita Electric Ind Co Ltd 眼画像撮影装置およびそれを用いた認証装置
US7656432B2 (en) 2005-03-30 2010-02-02 Hoya Corporation Method and apparatus for photographing moving object
JP2007082655A (ja) 2005-09-21 2007-04-05 Matsushita Electric Ind Co Ltd 眼画像撮影装置ならびにそれを用いた生体判別装置、認証装置および登録装置ならびに眼画像撮影方法
US7806604B2 (en) * 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
JP4345741B2 (ja) 2005-12-15 2009-10-14 沖電気工業株式会社 個人識別装置
JPWO2009016846A1 (ja) 2007-08-02 2010-10-14 パナソニック株式会社 虹彩認証装置および虹彩認証システム
US8243133B1 (en) * 2008-06-28 2012-08-14 Aoptix Technologies, Inc. Scale-invariant, resolution-invariant iris imaging using reflection from the eye
JP5938281B2 (ja) 2012-06-25 2016-06-22 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
US10459103B1 (en) * 2016-09-29 2019-10-29 Amazon Technologies, Inc. Magnetic entry portal identification system
WO2018133282A1 (zh) 2017-01-19 2018-07-26 华为技术有限公司 一种动态识别的方法及终端设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309742A (ja) * 2005-03-30 2006-11-09 Pentax Corp 撮影装置
JP2010134735A (ja) 2008-12-05 2010-06-17 Panasonic Corp 虹彩認証装置
JP2011211678A (ja) * 2010-03-12 2011-10-20 Omron Corp 画像処理装置および画像処理プログラム
JP2013045249A (ja) * 2011-08-23 2013-03-04 Hitachi Ltd 車両逆走防止システムおよび車両逆走防止方法
JP2014067090A (ja) 2012-09-24 2014-04-17 Fujitsu Ltd 検出装置、検出プログラムおよび検出方法

Also Published As

Publication number Publication date
JP2023029941A (ja) 2023-03-07
JPWO2020255244A1 (ja) 2020-12-24
EP3989532A4 (en) 2022-06-01
JP7226549B2 (ja) 2023-02-21
EP3989532A1 (en) 2022-04-27
US20220360705A1 (en) 2022-11-10
CN113966607A (zh) 2022-01-21
CN113966607B (zh) 2024-02-20
US11997377B2 (en) 2024-05-28

Similar Documents

Publication Publication Date Title
JP5894711B2 (ja) 眼および視線追跡のためのタイル画像ベースの頭位置の走査
US8982180B2 (en) Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
JP4912117B2 (ja) 追跡機能付き撮像装置
JP6698127B2 (ja) 固定カメラに対するパンチルトズームカメラの方向を校正する方法、およびこのような校正が行われるシステム
US8896703B2 (en) Superresolution enhancment of peripheral regions in nonlinear lens geometries
JP4852652B2 (ja) 電子ズーム装置、電子ズーム方法、及びプログラム
US20120249725A1 (en) Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
WO2016132884A1 (ja) 情報処理装置および方法、並びにプログラム
US20150109517A1 (en) Method and apparatus for focusing on subject in digital image processing device
JP2007504562A (ja) 1つの画像から虹彩認証を行う方法および装置
KR101642402B1 (ko) 촬영 구도를 유도하는 디지털 영상 촬영 장치 및 방법
JP5001930B2 (ja) 動作認識装置及び方法
JP2023029941A (ja) 撮像システム、撮像方法、コンピュータプログラム及び記録媒体
WO2018176116A1 (en) High speed pupil detection system and method
KR20220058593A (ko) 스마트한 파노라마 이미지를 획득하기 위한 시스템 및 방법
JP2010045501A (ja) 画像監視装置
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP6483661B2 (ja) 撮像制御装置、撮像制御方法およびプログラム
KR20180100890A (ko) 원거리 멀티 생체 인식 방법 및 장치
JP7211511B2 (ja) 認証システム、認証方法、制御装置、コンピュータプログラム及び記録媒体
JP7420150B2 (ja) 判定システム、判定方法、コンピュータプログラム、及び認証システム
JP2012226598A (ja) 個人認証装置、個人認証方法及びプログラム
US20230014562A1 (en) Image processing apparatus, image processing method, and image processing program
TWI784330B (zh) 物件追蹤方法及其處理裝置與系統
US20230171481A1 (en) Imaging system, imaging method, and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19933805

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528091

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019933805

Country of ref document: EP

Effective date: 20220118