WO2013005306A1 - 認証装置、電子装置、方法及びプログラム - Google Patents

認証装置、電子装置、方法及びプログラム Download PDF

Info

Publication number
WO2013005306A1
WO2013005306A1 PCT/JP2011/065380 JP2011065380W WO2013005306A1 WO 2013005306 A1 WO2013005306 A1 WO 2013005306A1 JP 2011065380 W JP2011065380 W JP 2011065380W WO 2013005306 A1 WO2013005306 A1 WO 2013005306A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
glasses
display
unit
Prior art date
Application number
PCT/JP2011/065380
Other languages
English (en)
French (fr)
Inventor
廣志 吉田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2011/065380 priority Critical patent/WO2013005306A1/ja
Publication of WO2013005306A1 publication Critical patent/WO2013005306A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6844Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS

Definitions

  • the present invention relates to an authentication device, an electronic device, a method, and a program.
  • a virtual image serving as a model based on the shape of the object is placed at an appropriate position in order to guide the object to an appropriate position for measuring the object.
  • a guidance device that displays and calculates the difference between the position, posture, and shape of the object and the virtual image, and displays the calculated difference at the same location as the virtual image of the model.
  • An aerial image display device that forms a predetermined image in the air and displays an aerial image, the display unit displaying an image showing an object to be displayed as an aerial image, and the light emitted from the display unit in the air
  • an aerial image display device including an optical member that forms an image and a light reducing unit that reduces external light incident from the outside.
  • a concave mirror is required to display an image showing an object as an aerial image, and the size of the image showing the object or There was a problem that it was difficult to change the position.
  • the conventional guidance device or aerial image display device has a problem that proper guidance information may not be provided to the user of the device.
  • an object is to provide an authentication device, an electronic device, a method, and a program that can provide appropriate guidance information to a user.
  • An authentication apparatus includes an imaging unit that captures an image including 3D glasses worn by a user, an angle detection unit that detects an angle of a display unit, and biological information of a part of the user's body A position calculating unit that calculates a relative position between the imaging unit and the 3D glasses based on the position and size of the 3D glasses and the angle of the display unit included in the image, and the relative position
  • a display control unit for displaying on the display unit.
  • FIG. 1 It is a figure which shows the state in which the user holds the hand over the exemplary vein sensor 1 of the comparative example 1. It is a figure which shows an example of the authentication window 2A displayed on the display 2 of the authentication apparatus of the comparative example 1. It is a figure which shows the display system of the virtual image in the authentication apparatus of the comparative example 2. It is a figure which shows the display system of the virtual image in the authentication apparatus of the comparative example 2. It is a figure which shows the structure by the side of the hardware of notebook type PC10 by which the authentication apparatus of embodiment is mounted. It is a figure which shows the structure by the side of the software of notebook type PC10 by which the authentication apparatus of embodiment is mounted. It is a figure showing the functional block of the authentication apparatus 100 mounted in the notebook type PC10 of embodiment.
  • FIG. 1 It is a front view which shows the state which opened notebook type PC10. It is a side view which shows the state which opened notebook type PC10. 4 is a diagram illustrating a relationship between a distance between a user 400 of a notebook PC 10 and a CCD camera 230 of the notebook PC 10 and a size of 3D glasses 300 included in an image photographed by the CCD camera 230.
  • FIG. It is a figure which shows the specification data stored in specification DB22 of notebook type PC10. It is a figure which shows the positional relationship of CCD camera 230 and 3D spectacles 300 of notebook type PC 10 which mounts the authentication apparatus 100 of embodiment. It is a figure which shows position shift of the user's 400 face from the center of the image 231.
  • FIG. It is a figure explaining conversion of an xyz coordinate system and an XY coordinate system. It is a figure explaining conversion of an xyz coordinate system and an XY coordinate system. It is a figure which shows the planar positional relationship of the virtual image 500 for guidance by guidance type
  • FIG. It is a figure which shows the authentication window 140 displayed on the notebook type PC10 of embodiment, and the images 600R and 600L for guidance. It is a flowchart which shows the authentication process of the notebook type PC10 of embodiment.
  • FIG. 1 is a diagram illustrating a state in which a user holds a hand over the exemplary vein sensor 1 of the first comparative example.
  • the vein sensor 1 shown in FIG. 1 is connected to a PC (Personal Computer) and captures a vein image necessary for biometric authentication of a user who uses the PC.
  • PC Personal Computer
  • the vein sensor 1 emits near infrared rays. Near-infrared light emitted from the vein sensor 1 is reflected by the palm of the user. The vein sensor 1 receives near infrared light reflected by the palm of the user.
  • hemoglobin in the red blood cells flowing in the veins loses oxygen, so it absorbs near-infrared light more than the part other than the veins. For this reason, when near infrared rays are irradiated to a palm, the reflected light of a part with a vein becomes weaker than the reflected light of a part other than a vein.
  • vein sensor 1 Since the vein image varies depending on the person, biometric authentication using the palm vein of the human body becomes possible by storing the palm vein image in the authentication device.
  • vein sensor 1 captures an image of the palm vein as described above, the user holds the palm above the vein sensor 1 in accordance with the focal length of the vein sensor 1.
  • the vein image of the palm is different between when the finger is opened and when the finger is closed. Also, the vein image of the palm is different between a state where the palm is horizontal and a state where the palm is inclined.
  • the vein sensor 1 is installed in a horizontal place, and the reading surface of the reading unit 1A of the vein sensor 1 is also horizontal.
  • the ⁇ axis is an axis extending in a horizontal direction in a plan view of the vein sensor 1 on a horizontal plane at a predetermined height above the vein sensor 1.
  • the user is required to place the palm in the width direction of the palm parallel to the ⁇ axis and hold it over the vein sensor 1 (make the angle in the width direction of the palm horizontal).
  • the ⁇ axis is an axis extending in a vertical direction in a plan view of the vein sensor 1 on a horizontal plane at a predetermined height above the vein sensor 1.
  • the user is required to hold the vein sensor 1 in the palm length direction (the direction connecting the wrist and the base of the finger) parallel to the ⁇ axis (make the palm length direction horizontal).
  • the ⁇ axis is orthogonal to the ⁇ axis in the horizontal plane.
  • the ⁇ axis is an axis orthogonal to the ⁇ axis and the ⁇ axis, and is an axis representing the height with respect to the vein sensor 1.
  • the user is required to position the palm at a height that is within ⁇ 20% that is the allowable range of the focal length of the vein sensor 1 in the ⁇ -axis direction.
  • the permissible range ( ⁇ 20%) shown here is a numerical value as an example, and is not intended to limit the permissible range to ⁇ 20%.
  • the direction indicated by the arrow A is a direction representing the degree of finger opening.
  • the user is required to hold the palm of the hand over the vein sensor 1 in a state where the finger is released and the finger is naturally opened.
  • the direction indicated by the arrow B is a direction indicating the degree of opening of the hand.
  • the user is required to hold the palm over the vein sensor 1 with the hand open so that the palm and fingers are all flat.
  • the direction indicated by arrow C is a direction representing the rotation of the arm.
  • the user is required to hold the palm over the vein sensor 1 so that the palm is horizontal without rotating the arm.
  • the direction indicated by the arrow D is a direction representing rotation around the ⁇ axis.
  • the user is required to hold the palm over the vein sensor 1 without rotating the palm around the ⁇ axis.
  • the user in order to obtain a vein image by holding the hand over the vein sensor 1, the user can adjust the position of the palm around the ⁇ axis, the ⁇ axis, and the ⁇ axis in addition to the arrow. Adjustments in the directions of A, arrow B, arrow C, and arrow D are required.
  • the main cause is considered to be that it is difficult to grasp the sense of distance in the height direction ( ⁇ -axis direction) of the vein sensor 1.
  • the vein sensor 1 is installed in a horizontal place and the reading surface of the reading unit 1A of the vein sensor 1 is horizontal has been described.
  • the reading surface of the vein sensor 1 and the reading unit 1A is not horizontal but has an angle with respect to the horizontal plane, the palm is required to match the angle of the reading surface of the vein sensor 1 and the reading unit 1A.
  • FIG. 2 is a diagram showing an example of an authentication window 2A displayed on the display 2 of the authentication device of Comparative Example 1.
  • the authentication window 2A is displayed on the display 2 of the authentication device of Comparative Example 1.
  • An image of the palm acquired by the vein sensor 1 is displayed on the authentication window 2A.
  • the palm image displayed in the authentication window 2 ⁇ / b> A represents the outline of the palm obtained by the vein sensor 1.
  • the image acquired by the vein sensor 1 includes the outline of the palm.
  • the authentication device of Comparative Example 1 extracts the outline of the palm from the image acquired by the vein sensor 1 and displays it on the authentication window 2A.
  • the authentication apparatus calculates the height of the palm from the palm image acquired by the vein sensor 1, and if the palm height is not within the allowable range (range of 20% ( ⁇ 20%) above and below the focal length). When the determination is made, a message prompting the user to move the palm up or down is displayed.
  • the authentication device displays a message “Please raise your palm a little more” in the authentication window 2A.
  • the authentication apparatus displays a message “Please lower your palm a little more” in the authentication window 2A.
  • the authentication device displays a message “Please move the palm a little further to the right” in the authentication window 2A.
  • the authentication device displays a message “Please move the palm a little further to the left” in the authentication window 2A.
  • the message for guiding the palm displayed in the height direction displayed by the authentication device of the comparative example 1 may be difficult to understand how much the height should be shifted by this message alone.
  • the problem of difficulty in adjusting the height has not been solved.
  • the authentication device of Comparative Example 1 displays a message for guiding the height of the palm, but guidance is performed for items other than the height of the palm, such as the angle of the palm, the degree of opening of the fingers or the hand. There wasn't.
  • the authentication device of Comparative Example 1 has a problem that it is difficult for the user to align the palm height with the vein sensor 1 and a problem that an example of items other than the palm height cannot be shown. was there.
  • FIG. 3 and 4 are diagrams showing a virtual image display method in the authentication device of Comparative Example 2.
  • FIG. 3 and 4 are diagrams showing a virtual image display method in the authentication device of Comparative Example 2.
  • FIG. 3 shows the display 3, 3D (Three Dimension) glasses 4, and the user 5 in a plan view. Since the surface of the display 3 has an angle with respect to the vertical plane, it has a width in the vertical direction in FIG.
  • the display 3 of Comparative Example 2 is a liquid crystal display capable of three-dimensional (hereinafter, abbreviated as 3D (Three Dimension)) display.
  • the display 3 is equipped with 3D glasses 4 equipped with liquid crystal shutters that alternately reproduce the right-eye image and the left-eye image, and the left and right fields of view are alternately shielded in synchronism with the switching of the display 3 display.
  • a three-dimensional image (virtual image) 6 is displayed above the vein sensor 1 for the user 5 who has performed.
  • This virtual image 6 is used as a guiding virtual image for guiding the palm of the user 5 to a height as a model above the vein sensor 1.
  • the guiding virtual image 6 is visually recognized by the user 5 wearing the 3D glasses 4 as a three-dimensional virtual image that protrudes from the display 3 and exists above the vein sensor 1.
  • the guide virtual image 6 is displayed on the display 3 capable of 3D display alternately by displaying the right-eye image 7R and the left-eye image 7L on the user 5 wearing the 3D glasses 4. It is displayed above the vein sensor 1.
  • FIG. 3 as an example, in order to distinguish the right-eye lens 4R, the left-eye lens 4L, the right-eye image 7R, and the left-eye image 7L from those for the right eye and those for the left eye,
  • the right-eye lens 4R and the right-eye image 7R are shown with horizontal lines
  • the left-eye lens 4L and the left-eye image 7L of the 3D glasses 4 are shown with vertical lines.
  • the vein sensor 1 is not easy to adjust for the height of the palm, especially for an unfamiliar user. Therefore, if the guiding virtual image 6 is displayed above the vein sensor 1, the vein sensor 1 can be used. The person 5 can easily adjust the palm of the hand to the vein sensor 1, which is convenient.
  • the right eye image 7R and the left eye image displayed on the vein sensor 1 and the display 3 are displayed.
  • the user needs to be in the correct position with respect to the image 7L.
  • FIG. 5A is a diagram illustrating a hardware configuration of a notebook PC (Notebook Personal Computer) 10 in which the authentication apparatus according to the embodiment is mounted.
  • FIG. 5B is a diagram illustrating a software configuration of the notebook PC 10 on which the authentication device according to the embodiment is mounted.
  • a notebook PC 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a HDD (Hard Disk Drive) 13, a display 14, and a vein sensor. 15, an angle sensor 220, and a CCD (Charge Coupled Device) camera 230.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • display 14 includes a vein sensor.
  • vein sensor 15, an angle sensor 220, and a CCD (Charge Coupled Device) camera 230.
  • CCD Charge Coupled Device
  • the CPU 11, the RAM 12, the HDD 13, the display 14, the vein sensor 15, the angle sensor 220, and the CCD camera 230 are connected by the bus 16.
  • the flash memory 17 connected to the bus 16 has a BIOS (Basic Input / Output System). The program is stored.
  • the notebook PC 10 includes an authentication program 21, a specification DB (Data Base) 22, a display position calculation program 24, and vein data 25 inside the HDD 13.
  • DB Data Base
  • the authentication program 21, specification DB 22, display position calculation program 24, and vein data 25 have a hierarchical structure as shown in FIG. 5B.
  • the authentication program 21 is a program used by the notebook PC 10 to execute an authentication process using biometric information of veins.
  • the specification DB 22 is a database including data representing dimensions of each part of the casing of the notebook PC 10, the position and dimensions of the display 14 in the casing, and the positions and dimensions of the vein sensor 15 in the casing.
  • the display position calculation program 24 is a program used for calculating the position at which the guidance image is displayed on the display 14 of the notebook PC 10.
  • the vein data 25 is data representing the vein image of the palm of the hand registered by the user of the notebook PC 10. For example, after purchasing the notebook PC 10, the user registers his / her palm vein data in the notebook PC 10 using the vein sensor 15 as an initial setting. In this manner, the vein data 25 is registered in the HDD 13.
  • FIG. 6 is a diagram illustrating functional blocks of the authentication device 100 mounted on the notebook PC 10 according to the embodiment.
  • the CPU 11 When executing the authentication program 21, the CPU 11 uses the data stored in the specification DB 22 and the vein data 25 through the authentication program 21 and executes the display position calculation program 24.
  • the authentication device 100 includes a main control unit 101, a calculation unit 102, a display control unit 103, a sensor driver 104, an authentication unit 105, a memory 106, an angle calculation unit 221, and a camera driver 222. Execute the process.
  • the main control unit 101 is a control unit that supervises the authentication processing of the notebook PC 10.
  • the calculation unit 102 calculates the position for displaying the guidance image on the display 14 (see FIG. 5A).
  • the display control unit 103 displays an image for guidance at a position on the display 14 calculated by the calculation unit 102.
  • the sensor driver 104 acquires vein data from the image acquired by the vein sensor 15 (see FIG. 5A), and outputs the acquired vein data to the authentication unit.
  • the authentication unit 105 performs authentication based on the vein data input from the sensor driver 104.
  • the memory 106 is an example of the RAM 12 shown in FIG. 5A.
  • the memory 106 stores data necessary for the main control unit 101, the calculation unit 102, the display control unit 103, the sensor driver 104, the authentication unit 105, the angle calculation unit 221, and the camera driver 222 to execute processing.
  • the angle calculation unit 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220.
  • the camera driver 222 converts data representing an image output from the CCD camera 230 into image data having a predetermined number of pixels and outputs the image data.
  • FIG. 7A is a front view showing a state where the notebook PC 10 is opened
  • FIG. 7B is a side view showing a state where the notebook PC 10 is opened.
  • FIG. 7B shows a user 400 (head) wearing 3D glasses 300.
  • the notebook PC 10 includes a housing 30 having a cover part 31 and a base part 32.
  • the cover unit 31 holds the display 14 and the CCD camera 230.
  • the cover part 31 includes frame parts 31 ⁇ / b> A and 31 ⁇ / b> B of the display 14.
  • the frame portion 31 ⁇ / b> A is located in the vertical direction on the left and right of the display 14 in a state where the cover portion 31 is opened with respect to the base portion 32.
  • the frame portion 31 ⁇ / b> B is positioned across the display 14 in the horizontal direction with the cover portion 31 opened with respect to the base portion 32.
  • the CCD camera 230 is located at the center in the width direction of the frame portion 31B located on the upper side of the display 14 with the cover portion 31 opened.
  • the base portion 32 is provided with a vein sensor 15, a touch pad 33, a keyboard 34, and an angle sensor 220.
  • the keyboard 34 is indicated by a broken line.
  • the base unit 32 is placed on the installation surface when the notebook PC 10 is installed on a desk or the like that is a horizontal plane.
  • the base portion 32 has an upper surface parallel to the installation surface, and a touch pad 33 and a keyboard 34 are provided on the upper surface.
  • the cover part 31 is pivotally supported so that it can be opened and closed by rotating with respect to the base part 32.
  • 7A and 7B show a state in which the cover 31 is opened.
  • the display 14 faces the keyboard 34.
  • the cover portion 31 is opened with respect to the base portion 32 by an angle ⁇ . That is, these states indicate that the inclination angle (elevation angle) of the display surface of the display 14 with respect to the horizontal plane is ⁇ .
  • the display 14 may be a liquid crystal display capable of three-dimensional (hereinafter, abbreviated as 3D (ThreeDDimension)) display, for example.
  • the display 14 reproduces images for the right eye and the image for the left eye alternately, and 3D glasses 300 having liquid crystal shutters that are alternately shielded in synchronism with the switching of the display on the display 14 (see FIG. Any display that can visually recognize a three-dimensional image (virtual image) when viewed by the user 400 wearing 7B).
  • the display 14 displays a guidance image for guiding the palm of the user 400 to a position on the vein sensor 15 as a model, and authentication. Window will be displayed.
  • This guidance image is visually recognized by the user 400 wearing the 3D glasses 300 as a stereoscopic guidance virtual image 500 that pops out of the display 14 and exists above the vein sensor 15.
  • the guiding virtual image 500 is in the shape of a human hand, and the authentication apparatus 100 according to the present embodiment is positioned at a position that serves as a model for holding the hand over the vein sensor 15. indicate.
  • a display 14 that alternately reproduces an image for the right eye and an image for the left eye, and a liquid crystal shutter that alternately shields the left and right fields of view in synchronization with the switching of the image on the display 14 are provided.
  • the form using the 3D glasses 300 provided will be described. However, as long as a three-dimensional image can be displayed, the formats of the display 14 and the 3D glasses are not limited to those described here, and are not limited to a liquid crystal display.
  • the vein sensor 15 is the same as the vein sensor 1 of the comparative example, and is an example of a sensor that acquires a vein image as biological information.
  • the vein sensor 15 according to the embodiment is incorporated in the base portion 32 of the notebook PC 10.
  • the vein sensor 15 is disposed on the left side of the touch pad 33 on the front side of the display 14 when viewed from the user 400 of the notebook PC 10.
  • the palm is an example of a body part used in biometric authentication using the vein sensor 15, and the object held over the vein sensor 15 may be another part of the body.
  • the near side in the positional relationship between the vein sensor 15 and the display 14 refers to the vein sensor 15 as viewed from the user 400 of the notebook PC 10 with the cover 31 of the notebook PC 10 opened from the base 32. Is located in front of the display 14.
  • the touch pad 33 is disposed in the center of the base portion 32 in the width direction (lateral direction in FIG. 7A) on the front side of the keyboard 34 of the base portion 32.
  • the angle sensor 220 only needs to be a sensor that can detect the angle ⁇ at which the cover portion 31 is opened with respect to the base portion 32.
  • the rotation shaft that pivotally supports the cover portion 31 with respect to the base portion 32. You can attach it to.
  • the angle sensor 220 is an example of an angle detection unit.
  • the angle sensor 220 may be any sensor as long as it can detect the angle ⁇ at which the cover portion 31 is opened with respect to the base portion 32.
  • a rotary potentiometer may be used.
  • the CCD camera 230 is an example of an imaging unit disposed in the center in the width direction of the frame portion 31B located on the upper side of the display 14 with the cover portion 31 opened. For this reason, the CCD camera 230 can capture an image of the face of the user 400. Since the user 400 of the notebook PC 10 according to the present embodiment wears the 3D glasses 300, the face image of the user 400 wearing the 3D glasses 300 can be obtained by the CCD camera 230.
  • Image data representing the face image of the user 400 wearing the 3D glasses 300 photographed by the CCD camera 230 is used when detecting the relative positional relationship between the 3D glasses 300 worn by the user 400 and the CCD camera 230. Use.
  • the relative positional relationship is obtained by calculating various distances between the 3D glasses 300 and the CCD camera 230. A method for detecting the relative positional relationship will be described later.
  • a camera other than a CCD camera may be used as long as the face image of the user 400 wearing 3D glasses can be acquired.
  • dimensions a to g and j are defined as shown in FIGS. 7A and 7B.
  • the dimensions a to g and j are values determined from the specifications of the notebook PC 10.
  • Dimension a is the length in the lateral direction from the left side 32A of the base portion 32 to the center of the vein sensor 15.
  • the dimension b is the length in the vertical direction from the end side 32 ⁇ / b> B of the boundary between the base portion 32 and the cover portion 31 to the center of the vein sensor 15.
  • Dimension c is the length of the cover portion 31 in the horizontal direction
  • dimension d is the length of the cover portion 31 in the vertical direction
  • the dimension e is the horizontal length of the frame part 31 ⁇ / b> A on the side of the display 14 of the cover part
  • the dimension f is the length of the frame part 31 ⁇ / b> B on the display 14 of the cover part 31 in the vertical direction.
  • Dimension g is the distance from the end of the cover part 31 to the center of the lens of the CCD camera 230.
  • the CCD camera 230 is disposed in the center of the cover portion 31 in the width direction, and therefore the dimension g may be a distance measured from either the left end or the right end of the cover portion 31.
  • Dimension j is the height from the vein sensor 15 when the guiding virtual image 500 is displayed on the vein sensor 15.
  • the dimension j is a height that serves as an example when the user holds his / her hand over the vein sensor 15.
  • Authentication apparatus 100 displays virtual image 500 for guidance at a position of height j from the surface of vein sensor 15.
  • the data representing these values is stored in the specification DB 22 (see FIG. 5B) as specification data representing the specifications of the notebook PC 10.
  • each part of the notebook PC 10 is expressed in xyz coordinates
  • the origin of the xyz coordinate system is set at a corner 35 at the left back on the base part 32 shown in FIG. 7A.
  • the x-axis is along the end 32B of the base portion 32, and the right direction in FIG. 7A is positive.
  • the y-axis is along the end side 32A of the base portion 32, and the direction from the back to the front in FIG. 7A is positive.
  • the z-axis is an axis perpendicular to both the x-axis and the y-axis, and the vertical upper direction is positive.
  • the distance i shown in FIG. 7B represents the distance between the CCD camera 230 and the center of the surface of the right-eye lens of the 3D glasses 300.
  • 7B represents the distance in the height direction between the imaging center of the CCD camera 230 represented by a straight line AC and the center of the surface of the lens for the right eye of the 3D glasses 300.
  • the relative positional relationship between the 3D glasses 300 and the CCD camera 230 is determined by the dimensions a to g and j, the angle ⁇ , the distances i, h, and the like.
  • the distances i, h, etc. will be described after the distance between the CCD camera 230 and the 3D glasses 300 worn by the user is described with reference to FIG.
  • the distance between the user 400 of the notebook PC 10 on which the authentication apparatus 100 of the present embodiment is mounted and the CCD camera 230 of the notebook PC 10, and the image taken by the CCD camera 230. Will be described with respect to the size of the 3D glasses 300 included.
  • FIG. 8 is a diagram illustrating the relationship between the distance between the user 400 of the notebook PC 10 and the CCD camera 230 of the notebook PC 10 and the size of the 3D glasses 300 included in the image photographed by the CCD camera 230. .
  • FIG. 8A and 8C show the face of the user 400 included in the images 231 and 232 photographed by the CCD camera 230.
  • FIG. An image 231 shown in FIG. 8A is an image taken in a state where the notebook PC 10 and the user 400 are relatively separated as shown in FIG. 8B.
  • a distance between the center 300RC of the lens 300R for the right eye of the 3D glasses 300 of the user 400 shown in FIG. 8B and the CCD camera 230 is n.
  • the image 232 shown in FIG. 8C is an image taken in a state where the notebook PC 10 and the user 400 are relatively close to each other, as shown in FIG. 8D.
  • the distance between the center 300RC of the lens 300R for the right eye of the 3D glasses 300 of the user 400 shown in FIG. 8D and the CCD camera 230 is N ( ⁇ n). 8B and 8D, the illustration of the CCD camera 230 is omitted.
  • the horizontal width of the right-eye lens 300R of the 3D glasses 300 in the image 231 shown in FIG. 8A is m
  • the left-eye lens of the 3D glasses 300 in the image 232 shown in FIG. 8C is M ( ⁇ m)
  • the width of 300 L is M ( ⁇ m)
  • the following equation (1) holds.
  • n M ⁇ N / m (1)
  • the distance between the CCD camera 230 and the 3D glasses 300 is determined based on the width of the right-eye lens 300R included in the image captured by the CCD camera 230. calculate.
  • the horizontal width of the right-eye lens 300R is used as an example here, but the horizontal width of the left-eye lens 300L may be used, or the vertical length of the right-eye lens 300R or the left-eye lens 300L may be used. Other dimensions of the 3D glasses 300 may be used.
  • the center of the surface of the lens 300R for the right eye of the 3D glasses 300 has been described with respect to the distance between the 300RC and the CCD camera 230.
  • the center 300LC of the surface of the lens 300L for the left eye and the CCD camera 230 are described. It is possible to calculate in the same manner using the distance to.
  • the actual width of the right eye lens 300R of the 3D glasses 300 sold as a set with the notebook PC 10 is k, and the center 300RC of the right eye lens 300R and the center 300LC of the left eye lens 300L.
  • FIG. 9 is a diagram showing specification data stored in the specification DB 22 of the notebook PC 10.
  • the specification data includes a product name (notepc_ABC001), a dimension a (dimension_a_ABC001), a dimension b (dimension_b_ABC001), a dimension c (dimension_c_ABC001), a dimension d (dimension_d_ABC001), a dimension e (dimension_e_ABC001), and a dimension f (dimension_f_ABC001).
  • the specification data further includes a dimension g (dimension_g_ABC001), a dimension j (dimension_j_ABC001), a number of pixels (pixel_ABC001), a dimension k (dimension_k_ABC001), a dimension s (dimension_s_ABC001), and a relational expression (ratio_ABC001).
  • the relational expression data is data representing the above-described expression (1).
  • the data representing the dimension a to the dimension g, the dimension j, the number of pixels, the dimension k, the dimension s, and the relational expression are associated with the data representing the product name.
  • the dimensions a to g and j are values determined from the specifications of the notebook PC 10 (see FIGS. 7A and 7B). Also, the number of pixels, the dimension k, the dimension s, and the relational expression are values determined from the specifications of the notebook PC 10.
  • the specification DB 22 stores various data associated with each product name for a plurality of products.
  • the specification data is identified based on the product name by the authentication device 100, and data representing each dimension ag, j, k, s, the number of pixels, and a relational expression is read.
  • the product name is written as notepc_ABC001, but in reality, the model name of the notebook PC 10 is used for ABC001.
  • the dimensions a to g, j, k, and s are described using dimension_a_ABC001 and the like and alphabets and numbers.
  • the data is actually numeric data that represents each dimension.
  • pixel_ABC001 it actually represents the number of pixels when the camera driver 222 converts an image captured by the CCD camera 230 into image data.
  • relational expression ratio_ABC001 is actually data representing a relational expression indicating a proportional relationship between the width m of the right-eye lens 300R of the 3D glasses 300 in the image and the distance n for obtaining the width m.
  • the data of the relational expression is data representing the above-described expression (1), and the right-eye lens 300R in the image captured by the CCD camera 230 when the distance between the CCD camera 230 and the 3D glasses 300 is a distance N. This includes the relationship that the horizontal width is the dimension M.
  • FIG. 10 is a diagram illustrating a positional relationship between the CCD camera 230 and the 3D glasses 300 of the notebook PC 10 on which the authentication device 100 according to the embodiment is mounted.
  • FIG. 10 shows the display 14, the 3D glasses 300, and the user 400 in plan view. Since the surface of the display 14 has an angle with respect to the vertical plane, it has a width (d-2f) in the vertical direction in FIG.
  • the distance between the center 300RC of the surface of the lens 300R for the right eye of the 3D glasses 300 and the CCD camera 230 is i.
  • the distance i is shown as a two-dimensional distance, but the distance i is actually the distance between the center 300RC of the surface 300R of the right-eye lens 300R of the 3D glasses 300 and the CCD camera 230 in the three-dimensional space. It is.
  • the center 300RC of the surface of the lens 300R for the right eye is the center of the surface of the lens 300R for the right eye when the 3D glasses 300 are viewed from the front (see FIG. 8A).
  • the distance between the center 300RC of the surface 300L of the lens 300L for the left eye of the 3D glasses 300 and the CCD camera 230 is i.
  • the lens 300R for the right eye will be described below.
  • the width of the right-eye lens 300R is k
  • the dimension between the center 300RC of the right-eye lens 300R and the center 300LC of the left-eye lens 300L is s.
  • the center line of the photographing range of the CCD camera 230 is represented by 230C.
  • the center line 230C is a straight line extending from the CCD camera 230 to the front, and is a straight line extending through the center in the width direction of the image.
  • the user 400 is located in front of the CCD camera 230.
  • This distance l is a distance in the horizontal direction, and is a variable that varies when the face of the user 400 is shifted to the left or right. How to obtain this distance l will be described later.
  • FIG. 11 is a diagram showing a positional shift of the face of the user 400 from the center of the image 231.
  • the image 231 is an image photographed by the CCD camera 230 of the notebook PC 10 on which the authentication device 100 according to the embodiment is mounted.
  • the center line that bisects the horizontal direction of the image 231 is C1
  • the center line that bisects the vertical direction is C2.
  • the intersection of the center lines C1 and C2 is the center point of the image taken by the CCD camera 230.
  • center line 230C shown in FIG. 10 is the center line of the photographing range of the CCD camera 230
  • the center line C1 shown in FIG. 11 is a center line that bisects the horizontal direction of the image 231.
  • the distance l ′ between the center line C1 and the center 300RC of the right-eye lens 300R of the 3D glasses 300 is the distance between the center line 230C and the center 300RC shown in FIG. Corresponds to the distance l between.
  • the lateral width k ′ of the right-eye lens 300R of the 3D glasses 300 in the image 231 shown in FIG. 11 corresponds to the lateral width of the right-eye lens 300R whose actual dimension is k.
  • the distance h ′ in the height direction between the center line C2 and the center of the right-eye lens 300R corresponds to the distance h shown in FIG. 7B.
  • the distance h is a distance in the height direction between the photographing center of the CCD camera 230 represented by a straight line AC and the center of the right-eye lens 300R of the 3D glasses 300.
  • the distance h can be expressed by Expression (3) when the horizontal width k ′ and the distance h ′ shown in FIG. 11 and the horizontal width k of the lens 300R for the right eye of the actual 3D glasses 300 are used.
  • h (h '/ k') x k (3)
  • the distance i between the center 300RC of the surface of the right-eye lens 300R of the 3D glasses 300 shown in FIG. 10 and the CCD camera 230 can be expressed by Expression (4).
  • i M ⁇ N / k (4)
  • Expression (4) is obtained by substituting the actual width k of the right-eye lens 300R as the width m of the right-eye lens 300R in the image 231 (see FIG. 8A), thereby calculating the distance n (FIG. 8 (B)) is obtained as a distance i.
  • the authentication device 100 obtains a positional deviation from the imaging center of the 3D glasses 300 represented by these equations, and determines a position for displaying the guiding virtual image 500 (see FIG. 7B).
  • the x-coordinate p of the center 300RC of the lens 300R is obtained as in the following expression (6) from the expressions (2) and (5).
  • p g + (l '/ k') x k (6)
  • the y coordinate q and the z coordinate r of the center 300RC of the lens 300R will be described.
  • the z-coordinate r is obtained by subtracting the side CE from the side OD plus the side BC, and therefore can be expressed by Expression (8).
  • a straight line passing through two points that is, a point where the guiding virtual image 500 is displayed and the center 300RC of the lens 300R for the right eye of the 3D glasses 300 of the user 400 is obtained. Since the coordinates of the point displaying the guiding virtual image 500 are (a, b, j) and the coordinates of the center 300RC are (p, q, r), the straight line passing through these two points is expressed by equation (9). Can be represented.
  • equations (10) to (12) are obtained.
  • t is a parameter.
  • x (pa) t + a (10)
  • y (qb) t + b (11)
  • z (rj) t + j (12)
  • the expression of the plane in the xyz space can be generally expressed by Expression (13).
  • Ax + By + Cz + D 0 (13)
  • a plane including the surface of the display 14 has three points (0, 0, 0), (c, 0, 0), (0, -dsin ( ⁇ -90), dcos ( ⁇ -90)) in the xyz coordinate system.
  • the position for displaying the image for the left eye is only different from the position for displaying the image for the right eye by s (see FIG. 10) in the x-axis direction. Since the image for the left eye is displayed on the right side (positive direction in the x-axis) of the image for the right eye on the display 14, the x coordinate is obtained by adding s to the value represented by the equation (22). Value.
  • 12A and 12B are diagrams for explaining conversion between the xyz coordinate system and the XY coordinate system.
  • authentication apparatus 100 guides to display 14 using an X, Y coordinate system defined on the surface of display 14 with the upper left corner 14A of display 14 as the origin.
  • the coordinates for displaying the images 600R and 600L and the authentication window 140 are calculated.
  • the X and Y coordinates of the XY coordinate system are indicated by capital letters to distinguish them from the xyz coordinate system.
  • the calculation for obtaining coordinates for displaying the guidance images 600R and 600L and the authentication window 140 is performed by the calculation unit 102 (see FIG. 4).
  • the authentication device 100 of the notebook PC 10 displays the modeled hand image on the display 14 so that the center of the guidance image 600R is displayed at the position P.
  • the position P is a position represented by coordinates (X1, Y1) on the display 14 with the upper left corner 14A of the display 14 as the origin.
  • the coordinates (X1, Y1) of the position P are obtained by the equations (22), (23), and (24) in the above-described xyz coordinate system as the position for displaying the center of the guidance image 600R for the right eye.
  • the coordinates of the intersection (x, y, z) (u, v, w) are converted to the XY coordinate system.
  • the coordinate X1 is obtained by subtracting the width e of the frame 31A from the coordinate u. For this reason, the coordinate X1 can be obtained by Expression (25).
  • the ranges of X1 and Y1 are 0 ⁇ X1 ⁇ 1920 and 0 ⁇ Y1 ⁇ 1200.
  • the position P at which the right eye guidance image 600R is displayed in the XY coordinate system of the display 14 can be obtained by using the equations (22) to (24) and the equations (25) and (26).
  • the right-eye guidance image 600R may be displayed with its center aligned with the position P represented by the coordinates (X1, Y1) represented by the equations (25) and (26).
  • the value obtained by adding s to the value represented by Expression (22) is used as the value of the x coordinate, and the XY coordinates are represented by Expression (25). What is necessary is just to obtain
  • the same Y coordinate (Y1) as that of the right eye guidance image 600R may be used.
  • the guide images 600R and 600L can be displayed at appropriate positions on the display 14 in accordance with the position of the 3D glasses 300 worn by the user 400.
  • the guiding virtual image 500 for guiding the palm of the user 400 to a position serving as a model on the vein sensor 15 can be displayed to the user 400 wearing the 3D glasses 300. It can.
  • the guiding virtual image 500 is a three-dimensional virtual image that pops out of the display 14 and exists above the vein sensor 15 when viewed by the user 400.
  • FIG. 13 is a diagram illustrating a planar positional relationship between the guiding virtual image 500, the guiding images 600R and 600L, and the user 400 by the notebook PC 10 on which the authentication device 100 according to the present embodiment is mounted.
  • the 3D glasses 300 are attached. It is possible to display a stereoscopic guidance virtual image 500 that jumps out of the display 14 and exists above the vein sensor 15 to the user 400 who has performed the above operation.
  • the authentication device 100 of the notebook PC 10 of the embodiment displays the guidance images 600R and 600L at the coordinates (X1, Y1) on the display 14, the space on the front side of the display 14 is directly above the vein sensor 15.
  • a guiding virtual image 500 is displayed at a height that serves as an example of the above.
  • the guiding virtual image 500 has a three-dimensional hand shape (see FIG. 12B), and the position (coordinates (X1) displayed by the relative positional relationship between the 3D glasses 300 worn by the user 400 and the CCD camera 230. , Y1)) is adjusted.
  • the relative positional relationship between the 3D glasses 300 and the CCD camera 230 is calculated by the above formulas (1) to (26) based on the image of the 3D glasses 300 of the user 400 taken by the CCD camera 230.
  • the user 400 of the notebook PC 10 can easily put his / her palm at an appropriate position on the vein sensor 15 when performing user logon authentication by vein authentication in order to start using the notebook PC 10. Can be matched.
  • FIG. 14 is a diagram illustrating an authentication window 140 and guidance images 600R and 600L displayed on the notebook PC 10 according to the embodiment.
  • FIG. 14 does not show the authentication device 100 (see FIG. 6), but the description will be made assuming that the authentication device 100 is in the notebook PC 10.
  • the authentication device 100 of the notebook PC 10 displays an authentication window 140 in addition to the guidance images 600R and 600L.
  • the authentication window 140 is displayed on the display 14 when authenticating the user logon of the notebook PC 10.
  • an image of the palm acquired by the vein sensor 15 is displayed.
  • the authentication device 100 calculates the palm height from the palm image acquired by the vein sensor 15 and determines that the palm height is not within the range of 20% above and below the height j corresponding to the focal length. A message is displayed prompting the user to move the palm up or down.
  • the distance that the vein sensor 15 can acquire the image of the veins of the palm of the user has a certain width around the focal length.
  • the range of 20% above and below the height j corresponding to the focal length of the vein sensor 15 is an allowable range in which the vein sensor 15 can acquire an image of the palm around the focal length.
  • the vein sensor 15 can acquire an image of the palm vein.
  • ⁇ 20% of the focal length is, for example, about 5 cm.
  • the permissible range ( ⁇ 20%) shown here is a numerical value as an example, and is not intended to limit the permissible range to ⁇ 20%.
  • the authentication device 100 displays a message “Please raise your palm a little more” in the authentication window 140.
  • the authentication apparatus 100 displays a message “Please lower your palm a little more” in the authentication window 140.
  • the authentication device 100 determines that the palm position is shifted in any of the front, rear, left and right directions with respect to the vein sensor 15 from the palm image acquired by the vein sensor 15 even if the palm height is appropriate. If it is determined that the user is present, a message prompting the user to move his / her palm in the forward / backward / left / right direction relative to the vein sensor 15 is displayed.
  • the authentication device 100 displays a message “Please move your palm to the right a little more” in the authentication window 2A when the palm position is on the left side in the screen.
  • the authentication device 100 displays a message in the authentication window 2A that “please bring your palm closer to the left” if the palm position is on the right side in the screen.
  • the authentication device 100 displays a message “Please move the palm a little further backward” in the authentication window 2A.
  • the authentication apparatus 100 displays a message “Please move the palm a little further forward” in the authentication window 2A.
  • the determination of whether the height of the palm is high or low and the determination of whether the palm is closer to the front, back, left or right with respect to the center of the screen are performed by, for example, image processing on the background in the four sides of the palm
  • the authentication apparatus 100 may determine whether the lengths X5, X6, Y5, and Y6 of the part are longer or shorter than the reference value.
  • the length X5 is the length in the X-axis direction of the left background in the palm image
  • the length X6 is the length in the X-axis direction of the right background in the palm image
  • the length Y5 is the length of the lower background in the Y-axis direction in the palm image
  • the length Y6 is the length of the upper background in the Y-axis direction in the tip image of the middle finger.
  • the user while looking at the authentication window 140, the user holds the palm over the vein sensor 15 so that his / her palm is positioned at the center of the authentication window 140. In this state, when the height of the palm of the user is at the focal length, it is assumed that the four distances X5, X6, Y5, and Y6 are set to 2 cm in the image acquired by the vein sensor 15. .
  • the authentication device 100 determines whether the palm position is high or low based on the distribution of the distances X5, X6, Y5, and Y6 in the four directions. It may be determined which side is approaching.
  • the authentication apparatus 100 determines that the palm height of the user is higher than the upper limit of the allowable range of the focal length. A message “Please lower your palm a little more” may be displayed in the authentication window 140.
  • the authentication apparatus 100 determines that the palm height of the user is lower than the lower limit of the allowable range of the focal length.
  • the message “Please raise your palm a little more” may be displayed in the authentication window 140.
  • the authentication device 100 may determine whether or not the palm height of the user is within the allowable range of the focal length as described above.
  • the authentication apparatus 100 determines that the palm position is the vein sensor 15 based on the distribution of the four distances X5, X6, Y5, and Y6. On the other hand, it may be determined whether it is shifted to the front, back, left or right.
  • the authentication apparatus 100 determines that the hand is closer to the left side with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the authentication apparatus 100 determines that the hand is closer to the right side with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the authentication device 100 determines that the hand is behind the vein sensor 15 and determines that “the palm is slightly forward. "Please send it to” in the authentication window 140.
  • the authentication apparatus 100 determines that the hand is closer to the front with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the method of determining the height direction of the palm position relative to the vein sensor 15 and the positional deviation in the front-rear and left-right directions as described above is merely an example, and a method other than the above-described method may be used.
  • Detection of the palm position as described above based on the palm image acquired by the vein sensor 15 is performed by the authentication unit 105 (see FIG. 6) as an example of the position detection unit, and the message is displayed by the message generation unit. This is performed by the authentication unit 105 as an example.
  • the detection of the position of the palm in the front-rear and left-right directions as described above based on the palm image acquired by the vein sensor 15 is performed by the authentication unit 105 (see FIG. 6).
  • the authentication window 140 has coordinates (X3, Y3) of the upper left corner of the window, a length X4 in the X-axis direction, and a length Y4 in the Y-axis direction. It is displayed in an area determined by the length X4 and the length Y4.
  • the coordinates (X3, Y3) and the values of the length X4 and the length Y4 are set so as not to overlap with the guidance images 600R and 600L.
  • the authentication apparatus 100 displays such a message on the authentication window 140 of the display 14 to perform a process of guiding the palm in the height direction to a user who performs palm vein authentication.
  • FIG. 15 is a flowchart showing an authentication process of the notebook PC 10 according to the embodiment. The process shown in FIG. 15 is executed by the authentication apparatus 100 shown in FIG.
  • the main control unit 101 obtains the product name of the notebook PC 10 described in the BIOS (step S1).
  • the main control unit 101 obtains specification data representing the dimensions of each part of the casing of the notebook PC 10, the position and dimensions of the display 14 in the casing 30, and the positions and dimensions of the vein sensor 15 in the casing from the specification DB 22. Read (step S2). Specifically, the main control unit 101 reads out data representing dimensions a to g, dimensions j, the number of pixels, dimensions k, dimensions s, and relational expressions included in the specification data shown in FIG.
  • the angle calculation unit 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220 (step S3). Thereby, the angle ⁇ of the display 14 in the notebook PC 10 is acquired.
  • the camera driver 222 acquires image data from the CCD camera 230 (step S4). This is because the relative positional relationship between the CCD camera 230 and the user 400 is calculated from the image of the 3D glasses 300 worn by the user 400.
  • the calculation unit 102 calculates the coordinates (p, q, r) of the center 300RC of the right-eye lens 300R of the 3D glasses 300 based on the image data acquired in step S4 (step S5).
  • the computing unit 102 computes the coordinates (p, q, r) of the center 300RC using equations (1) to (8).
  • the coordinates (p, q, r) of the center 300RC are obtained by the equations (6), (7), (8), respectively.
  • the calculation unit 102 displays the coordinates (X1, Y1) for displaying the guidance images 600R, 600L on the display 14, the coordinates (X3, Y3) indicating the position of the authentication window 140, and the lengths X4, Y4. Is calculated (step S6).
  • the coordinates (X1, Y1) for displaying the guidance images 600R and 600L on the display 14 are calculated using the equations (9) to (26).
  • the coordinates (X3, Y3) representing the position of the authentication window 140 and the lengths X4, Y4 are calculated based on the specification data so as not to overlap with the guidance images 600R, 600L.
  • the coordinates (X1, Y1) the ranges of the images 600R and 600L in the X-axis direction and the Y-axis direction, and the X-axis direction and the Y-axis direction of the authentication window 140
  • the coordinates (X3, Y3) and the lengths X4, Y4 may be calculated so that no overlap occurs in the range.
  • the main control unit 101 determines whether or not the guidance images 600R and 600L calculated in step S6 can be displayed on the display 14 (step S7). For example, if the X and Y coordinates for displaying the guidance images 600R and 600L calculated in step S6 on the display 14 are not in the display 14, the guidance images 600R and 600L cannot be displayed. It is decided to determine whether or not.
  • the case where the guidance images 600R and 600L cannot be displayed on the display 14 means, for example, that the face of the user 400 is greatly displaced from the display 14 in the horizontal direction, and the X and Y coordinates calculated in step S6 are the display. The case where it deviates from the range of 14 X-axis directions is mentioned. In such a case (S7: No), a message that prompts the user 400 to shift in the horizontal direction is displayed in the authentication window 140 displayed in the subsequent step S14.
  • step S7 If it is determined in step S7 that display is possible, the display control unit 103 displays the guidance images 600R and 600L and the authentication window 140 on the display 14 (step S8).
  • step S8 the guidance images 600R and 600L are displayed at the coordinates (X1, Y1) calculated in step S6.
  • the user 400 wearing the 3D glasses 300 displays the guiding virtual image 500 at the coordinates (a, b, j) in the xyz coordinate system.
  • the authentication window 140 is displayed on the display 14 so as not to overlap with the guidance images 600R and 600L.
  • the guiding virtual image 500 is displayed in the space in front of the display 14, and the authentication window 140 is displayed on the display 14, whereby the user veins the palm. Hold the hand over the guiding virtual image 500 above the sensor 15.
  • the authentication unit 105 determines the height of the hand relative to the vein sensor 15 based on the size of the palm image acquired from the vein sensor 15 through the sensor driver 104. If the palm height is below the lower limit of the allowable range, the authentication unit 105 notifies the main control unit 101 that the height is below the lower limit of the allowable range. As a result, the main control unit 101 causes the display control unit 103 to display a message “Please raise your palm a little more” on the authentication window 140.
  • the authentication unit 105 notifies the main control unit 101 that the height exceeds the upper limit of the allowable range.
  • the main control unit 101 causes the display control unit 103 to display a message “Please lower your palm a little more” on the authentication window 140.
  • the authentication unit 105 determines that the palm position is shifted in the front-rear, left-right direction, the authentication unit 105 notifies the main control unit 101 that the palm is approaching in either the front-rear, left-right direction. As a result, the main control unit 101 causes the display control unit 103 to display a message on the authentication window 140 that prompts the user 400 to move the palm forward, backward, right side, or left side.
  • the authentication unit 105 determines that the palm height is within the allowable range, the authentication unit 105 notifies the main control unit 101 that the palm height is within the allowable range. In this case, the main control unit 101 does not notify the display control unit 103, and no message about the height is displayed in the authentication window 140.
  • the sensor driver 104 acquires vein data from the vein sensor 15 (step S9). Specifically, the sensor driver 104 drives the vein sensor 15 to perform imaging using near infrared rays, thereby acquiring an image representing a vein pattern of a human palm. The vein data representing the acquired image is input to the authentication unit 105.
  • the authentication unit 105 determines whether or not the vein data acquired in step S9 is data that can be authenticated (step S10). Whether or not the data is authentic can be determined by determining whether the palm shape and position are the conditions around the ⁇ -axis, ⁇ -axis, and ⁇ -axis shown in FIG. 1, the arrows A, the arrow B, the arrow C-axis, and the arrow D. This is done by determining whether all the direction conditions are satisfied.
  • step S10 If it is determined in step S10 that the vein data can be authenticated, the flow proceeds to step S11.
  • the authentication unit 105 performs vein authentication using the vein data determined as the vein data that can be authenticated in step S10 (step S11).
  • the vein authentication is performed by reading the vein data 25 (see FIG. 5B) and comparing it with the vein data acquired by the vein sensor 15 and the sensor driver 104. At this time, vein data acquired by the vein sensor 15 and the sensor driver 104 is displayed in the authentication window 140.
  • the authentication unit 105 compares the vein data acquired by the vein sensor 15 and the sensor driver 104 with the vein data 25 (see FIG. 5B), and determines whether or not they match (step S12).
  • step S12 If the main control unit 101 determines that the authentication unit 105 matches in step S12, the main control unit 101 advances the flow to step S13, and deletes the vein data acquired by the vein sensor 15 and the sensor driver 104 (step S13).
  • step S7 when it is determined that the guidance images 600R and 600L cannot be displayed on the display 14 (S7: No), the flow proceeds to step S14, and the display control unit 103 performs only the authentication window 140. Is displayed on the display 14 (step S14).
  • the case where the guidance images 600R and 600L cannot be displayed on the display 14 means that, for example, the face of the user 400 is greatly displaced from the display 14 in the horizontal direction, and the X and Y coordinates calculated in step S6 are The case where it deviates from the range of the X-axis direction is mentioned.
  • the display control unit 103 displays an authentication window 140 on the display 14 to display a message that prompts the user 400 to shift in the horizontal direction. As a result, the lateral shift of the user 400 is alleviated.
  • step S10 If it is determined in step S10 that the vein data acquired in step S9 is not authenticable data, the main control unit 101 returns the flow to step S3.
  • the angle calculation unit 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220, and the processes in and after step S4 are executed again. That is, the angle ⁇ is measured again.
  • the angle ⁇ changes from that at the time of detection, so the guidance images 600R and 600L are displayed.
  • the position in the Y-axis direction is not an appropriate position for guiding the palm of the user.
  • the angle ⁇ is detected again, the position in the height direction for displaying the guidance images 600R and 600L is recalculated, and the palm of the user is guided to the correct height.
  • step S12 Even if it is determined in step S12 that they do not match, the main control unit 101 returns the flow to step S3. As a result, the processing after step S3 is executed again. Even in this case, the angle ⁇ is measured again, and the processes after step S3 are executed again.
  • the angle ⁇ changes from that at the time of detection, so the guidance images 600R and 600L are displayed.
  • the position in the Y-axis direction is not an appropriate position for guiding the palm of the user.
  • step S10 even if it is determined that the vein data can be authenticated in step S10 and the flow proceeds to step S12, the palm of the user cannot be properly guided in the height direction, and thus the acquisition is performed. There is a case where the vein data thus obtained does not match the vein data 25.
  • the angle ⁇ is detected again, the position in the height direction for displaying the guidance images 600R and 600L is recalculated, and the palm of the user is guided to the correct height.
  • step S12 if it is determined in step S12 that they do not match, there is a possibility that a person other than the person is performing vein authentication.
  • the authentication device 100 of the notebook PC 10 displays the guidance images 600R and 600L and the authentication window 140 on the display 14 in step S8.
  • the virtual image 500 for guidance is displayed in the space on the near side of the display 14 at a height that is a model directly above the vein sensor 15.
  • the guiding virtual image 500 has a three-dimensional hand shape, and the display position is adjusted according to the relative positional relationship between the 3D glasses 300 worn by the user 400 and the CCD camera 230.
  • the user of the notebook PC 10 can easily adjust his / her palm to an appropriate height above the vein sensor 15 when performing vein authentication in order to start using the notebook PC 10.
  • the authentication device 100 of the notebook PC 10 displays the authentication window 140 on the display 14 in addition to the guidance images 600R and 600L, the user can see the authentication window 140 in addition to the guidance virtual image 500 while looking at the authentication window 140. Can make the right posture.
  • the authentication device 100 that can provide appropriate guidance information to the user and the notebook PC 10 on which the authentication device 100 is mounted.
  • the specification DB 22 stores the specification data for a plurality of products.
  • specification data only for the notebook PC 10 on which the authentication device 100 is mounted may be registered in the notebook PC 10.
  • the process of reading the specification data from the specification DB 22 based on the product name is not necessary, and the process of simply reading the specification data registered in the notebook PC 10 is performed. It will be.
  • the authentication apparatus 100 is mounted on the notebook PC 10. However, if the relative positions of the display 14, the vein sensor 15, and the CCD camera 230 are determined, the authentication apparatus 100 is connected to a desktop PC. It is possible to install.
  • the authentication device 100 can be mounted on an electronic device other than a PC.
  • the CPU 11 executes the above program to realize the above functions and execute the above processing in the present embodiment.
  • the CPU 11 realizes the above functions and the above in the present embodiment.
  • the processing circuit in the present embodiment may be an MPU (Micro Processing Unit), an FPGA (Field-Programmable Gate Array), or other dedicated hardware.
  • a program that causes a computer or other machine or device (hereinafter referred to as a computer or the like) to realize or process any of the above functions may be recorded on a computer-readable recording medium. Then, by causing a computer or the like to read and execute the program of the recording medium, functions and processing realized by the program are provided.
  • a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like.
  • Examples of such recording media that can be removed from a computer or the like include memories such as a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disc, a DAT, an 8 mm tape, and a flash memory.
  • cards As a recording medium fixed to a computer or the like, there are a hard disk, a ROM (read only memory), and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

 利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することを課題とする。 認証装置は、利用者に装着された3D眼鏡を含む画像を撮影する撮像部と、表示部の角度を検出する角度検出部と、利用者の身体の部位の生体情報を取得するセンサと、前記画像に含まれる前記3D眼鏡の位置及び大きさと前記表示部の角度とに基づき、前記撮像部と前記3D眼鏡との相対位置を演算する位置演算部と、前記相対位置に基づいて、前記センサに対して利用者の身体の部位を位置する際の手本となる位置に前記3D眼鏡を通じて利用者が視認する誘導用の虚像を表示するのに用いる誘導用の画像を前記表示部に表示する表示制御部とを含む。

Description

認証装置、電子装置、方法及びプログラム
 本願発明は、認証装置、電子装置、方法及びプログラムに関する。
 従来より、非接触で対象物をかざして測定を行う装置において、対象物を測定するのに適切な位置に誘導するために、適切な位置に対象物の形状に基づいた手本となる虚像を表示し、対象物と虚像の位置・姿勢・形状の差を算出し、手本の虚像と同じ場所に算出した差を示す表示を行う誘導装置があった。
 また、所定の画像を空中で結像させて空中像を表示する空中像表示装置であって、空中像として表示する物体を示す画像を表示する表示手段と、表示手段から出射された光線を空中像として結像させる光学部材と、外部から入射される外光を減光する減光手段とを含む空中像表示装置があった。
国際公開2007/141860号 特開2004-318041号公報
 ところで、従来の誘導装置では、例えば、利用者の眼の位置が予め定められた適切な位置にない場合、又は、ディスプレイ等の表示面の角度が予め定められた角度と異なる場合には、虚像を適切な位置に表示できないという問題があった。
 また、従来の空中像表示装置では、例えば、物体を示す画像を空中像として表示するために凹面鏡が必要になるなど、大がかりな装置が必要になるという問題と、物体を示す画像の大きさ又は位置を変更することが困難であるという問題があった。
 このように従来の誘導装置又は空中像表示装置では、装置の利用者に適切な誘導情報を提供できない場合があるという問題があった。
 そこで、利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することを目的とする。
 本発明の実施の形態の認証装置は、利用者に装着された3D眼鏡を含む画像を撮影する撮像部と、表示部の角度を検出する角度検出部と、利用者の身体の部位の生体情報を取得するセンサと、前記画像に含まれる前記3D眼鏡の位置及び大きさと前記表示部の角度とに基づき、前記撮像部と前記3D眼鏡との相対位置を演算する位置演算部と、前記相対位置に基づいて、前記センサに対して利用者の身体の部位を位置する際の手本となる位置に前記3D眼鏡を通じて利用者が視認する誘導用の虚像を表示するのに用いる誘導用の画像を前記表示部に表示する表示制御部とを含む。
 利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することができる。
比較例1の例示的な静脈センサ1に利用者が手をかざしている状態を示す図である。 比較例1の認証装置のディスプレイ2に表示される認証ウィンドウ2Aの一例を示す図である。 比較例2の認証装置における虚像の表示方式を示す図である。 比較例2の認証装置における虚像の表示方式を示す図である。 実施の形態の認証装置が実装されるノート型PC10のハードウェア側の構成を示す図である。 実施の形態の認証装置が実装されるノート型PC10のソフトウェア側の構成を示す図である。 実施の形態のノート型PC10に搭載される認証装置100の機能ブロックを表す図である。 ノート型PC10を開いた状態を示す正面図である。 ノート型PC10を開いた状態を示す側面図である。 ノート型PC10の利用者400とノート型PC10のCCDカメラ230との間の距離と、CCDカメラ230によって撮影される画像に含まれる3D眼鏡300のサイズとの関係を示す図である。 ノート型PC10の仕様DB22に格納される仕様データを示す図である。 実施の形態の認証装置100を搭載したノート型PC10のCCDカメラ230と3D眼鏡300の位置関係を示す図である。 画像231の中心からの利用者400の顔の位置ずれを示す図である。 xyz座標系とXY座標系の変換を説明する図である。 xyz座標系とXY座標系の変換を説明する図である。 本実施の形態の認証装置100を搭載したノート型PC10による誘導用の虚像500、誘導用の画像600R、600L、及び利用者400の平面的な位置関係を示す図である。 実施の形態のノート型PC10に表示される認証ウィンドウ140と誘導用の画像600R、600Lを示す図である。 実施の形態のノート型PC10の認証処理を示すフローチャートである。
 以下、本発明の認証装置を適用した実施の形態について説明する。
 実施の形態の認証装置及び電子装置について説明する前に、図1乃至図4を用いて、比較例1、2の認証装置における静脈認証について説明する。
 図1は、比較例1の例示的な静脈センサ1に利用者が手をかざしている状態を示す図である。
 図1に示す静脈センサ1は、PC(Personal Computer)に接続されており、PCを利用する利用者の生体認証を行うのに必要な静脈の画像を撮影する。
 静脈センサ1は、近赤外線を発光する。静脈センサ1から発光された近赤外線は、利用者の手のひらで反射される。静脈センサ1は、利用者の手のひらで反射された近赤外線を受光する。
 ここで、静脈に流れている赤血球の中のヘモグロビンは酸素を失っているため、静脈以外の部分よりも近赤外線を吸収する。このため、手のひらに近赤外線を照射すると、静脈がある部分の反射光は静脈以外の部分の反射光よりも弱くなる。
 従って、静脈センサ1で得られる画像には、静脈の部分だけが暗く映し出される。この静脈の画像は人によって異なるため、手のひらの静脈の画像を認証装置に記憶させておくことにより、人体の手のひらの静脈を利用した生体認証が可能になる。
 ところで、静脈センサ1は上述のように手のひらの静脈の画像を撮影するため、利用者は静脈センサ1の焦点距離に合わせて静脈センサ1の上方に手のひらをかざすことになる。
 ここで、手のひらの静脈の画像は、指を開いた状態と、指を閉じた状態とで異なる。また、手のひらを水平にした状態と、斜めにした状態とでは、手のひらの静脈の画像は異なる。
 このため、静脈センサ1で手のひらの静脈の撮影を行う場合には、利用者はある一定のルールに従って手のひらを静脈センサ1にかざす必要がある。
 例えば、利用者が静脈センサ1に手のひらをかざす際には、図1に示すように、α軸、β軸、及びγ軸周りの位置調整に加えて、矢印A、矢印B、矢印C、及び矢印Dの各方向における位置調整が求められる。ここで、静脈センサ1は、水平な場所に設置されており、静脈センサ1の読み取り部1Aの読み取り面も水平であることとする。
 α軸は静脈センサ1の上方の所定の高さにある水平面上で、静脈センサ1の平面視における横方向に延びる軸である。利用者には、手のひらの幅方向をα軸に平行にして静脈センサ1にかざすこと(手のひらの幅方向の角度を水平にすること)が求められる。
 β軸は静脈センサ1の上方の所定の高さにある水平面上で、静脈センサ1の平面視における縦方向に延びる軸である。利用者には、手のひらの長さ方向(手首と指の付け根を結ぶ方向)をβ軸に平行にして静脈センサ1にかざすこと(手のひらの長さ方向の角度を水平にすること)が求められる。なお、β軸は、水平面において、α軸と直交する。
 γ軸はα軸及びβ軸に直交する軸であり、静脈センサ1に対する高さを表す軸である。利用者には、γ軸方向において、静脈センサ1の焦点距離の許容範囲である±20%以内となる高さに手のひらを位置させることが求められる。なお、ここに示す許容範囲(±20%)は一例としての数値であり、許容範囲を±20%に限る趣旨ではない。
 矢印Aが示す方向は、指の開き具合を表す方向である。利用者には、例えば、力を抜いて指を自然に開いた状態で手のひらを静脈センサ1にかざすことが求められる。
 矢印Bが示す方向は、手の開き具合を示す方向である。利用者には、例えば、手のひらと指がすべて平らになるように、手を開いた状態で手のひらを静脈センサ1にかざすことが求められる。
 矢印Cが示す方向は、腕の回転を表す方向である。利用者には、例えば、腕を回転させずに、手のひらが水平になるようにして手のひらを静脈センサ1にかざすことが求められる。
 矢印Dが示す方向は、γ軸周りの回転を表す方向である。利用者には、例えば、手のひらをγ軸周りに回転させずに静脈センサ1にかざすことが求められる。
 以上のように、静脈センサ1に手をかざして静脈の画像を得るためには、利用者には、手のひらの位置をα軸、β軸、及びγ軸周りの調整することに加えて、矢印A、矢印B、矢印C軸、及び矢印D方向に調整することが求められる。
 このような手のひらの位置調整のうち、α軸、β軸、矢印A、矢印B、矢印C軸、及び矢印D方向の調整に比べて、γ軸方向の調整は、利用者にとって比較的難しい調整であった。
 この主な原因は、静脈センサ1の高さ方向(γ軸方向)において、距離感を掴みにくいことであると考えられる。
 なお、ここでは、静脈センサ1が水平な場所に設置され、静脈センサ1の読み取り部1Aの読み取り面も水平である場合について説明した。しかしながら、静脈センサ1及び読み取り部1Aの読み取り面が水平でなく水平面に対して角度を有する場合には、手のひらも静脈センサ1及び読み取り部1Aの読み取り面の角度に合わせることが要求される。
 次に、比較例1の認証装置のディスプレイ2に表示される認証ウィンドウ2Aを用いた高さ方向の誘導について説明する。
 図2は、比較例1の認証装置のディスプレイ2に表示される認証ウィンドウ2Aの一例を示す図である。
 比較例1の認証装置のディスプレイ2には、認証ウィンドウ2Aが表示される。認証ウィンドウ2Aには、静脈センサ1で取得された手のひらの画像が映し出される。認証ウィンドウ2Aに映し出される手のひらの画像は、静脈センサ1で得られる手のひらの輪郭を表したものである。静脈センサ1で取得される画像には手のひらの輪郭が含まれている。比較例1の認証装置は、静脈センサ1が取得した画像から手のひらの輪郭を抽出して、認証ウィンドウ2Aに表示する。
 認証装置は、静脈センサ1で取得される手のひらの画像から、手のひらの高さを算出し、手のひらの高さが許容範囲(焦点距離の上下20%(±20%)の範囲)内にないと判定すると、利用者に手のひらを上又は下に移動するように促すメッセージを表示する。
 例えば、認証装置は、手のひらの高さが許容範囲の下限を下回っている場合には「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、手のひらの高さが許容範囲の上限を上回っている場合には、認証装置は「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 また、認証装置は、手のひらの位置が規定の位置よりも左側に寄っている場合には「手のひらをもう少し右に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、認証装置は、手のひらの位置が規定の位置よりも右側に寄っている場合には「手のひらをもう少し左に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 このようなメッセージをディスプレイ2の認証ウィンドウ2Aに表示することにより、手のひらの静脈認証を行う利用者に対して、手のひらを高さ方向に誘導する処理を行っている。
 ところで、比較例1の認証装置が表示する手のひらを高さ方向に誘導するためのメッセージは、このメッセージ単独では高さをどの程度ずらせば良いのか分かりにくい場合があり、利用者が静脈センサ1に対して高さを合わせにくいという問題は解決されていなかった。
 また、比較例1の認証装置は、手のひらの高さを誘導するためのメッセージを表示するが、手のひらの角度、指又は手の開き具合等の手のひらの高さ以外の項目についての誘導は行っていなかった。
 以上より、比較例1の認証装置には、利用者が手のひらの高さを静脈センサ1に対して合わせにくいという問題と、手のひらの高さ以外の項目についての手本を示すことができないという問題があった。
 次に、図3及び図4を用いて、比較例2の認証装置による認証方式とその問題点について説明する。
 図3及び図4は、比較例2の認証装置における虚像の表示方式を示す図である。
 図3には、ディスプレイ3、3D(Three Dimension)眼鏡4、及び利用者5を平面視的に示す。ディスプレイ3の表面は垂直面に対して角度を有するため、図3中において縦方向に幅を有する。
 比較例2のディスプレイ3は、三次元(以下、3D(Three Dimension)と略す)表示の可能な液晶ディスプレイである。ディスプレイ3は、右眼用の画像と左眼用の画像を交互に再生し、左右の視界がディスプレイ3の表示の切り替えと同期して交互に遮蔽される液晶シャッターを備えた3D眼鏡4を装着した利用者5に対して、立体感のある画像(虚像)6を静脈センサ1の上方に表示する。
 この虚像6は、利用者5の手のひらを静脈センサ1の上の手本となる高さに誘導するための誘導用の虚像として用いられる。誘導用の虚像6は、3D眼鏡4を装着した利用者5には、ディスプレイ3から飛び出して静脈センサ1の上方に存在する立体的な虚像として視認される。
 誘導用の虚像6は、3D表示の可能なディスプレイ3に、右眼用の画像7Rと左眼用の画像7Lを交互に表示することにより、3D眼鏡4を装着した利用者5に対して、静脈センサ1の上方に表示される。
 図3には、右眼用のレンズ4R、左眼用のレンズ4L、右眼用の画像7R、及び左眼用の画像7Lを右眼用と左眼用とで区別するために、一例として、右眼用のレンズ4Rと右眼用の画像7Rとに横線を入れて示し、3D眼鏡4の左眼用のレンズ4Lと左眼用の画像7Lとに縦線を入れて示す。
 静脈センサ1は、上述のように、特に不慣れな利用者にとっては、手のひらの高さの調整が容易ではないため、このような誘導用の虚像6を静脈センサ1の上方に表示すれば、利用者5は静脈センサ1に手のひらを合わせ易くなり便利である。
 ところで、図3に示すように、誘導用の虚像6を静脈センサ1の上方の正しい位置に表示するには、静脈センサ1とディスプレイ3に表示される右眼用の画像7R及び左眼用の画像7Lとに対して、利用者が正しい位置にいる必要がある。
 このため、例えば、利用者5が正しい位置(図3参照)に対して右側に移動すると、図4に示すように、誘導用の虚像6が静脈センサ1よりも右にずれてしまい、利用者5は手のひらを誘導用の虚像6の表示される位置にかざしても、静脈センサ1の認証を正しく受けることができない。
 このように、比較例2の認証装置では、利用者5が静脈センサ1とディスプレイ3に表示される右眼用の画像7R及び左眼用の画像7Lとに対して正しい位置にいなければ、利用者5の手のひらを静脈センサ1に適切に誘導できないという問題点があった。
 このため、以下では、比較例1、2の認証装置の問題点を解決した実施の形態の認証装置及び電子装置について説明する。
 <実施の形態>
 図5Aは、実施の形態の認証装置が実装されるノート型PC(Notebook Personal Computer)10のハードウェア側の構成を示す図である。図5Bは、実施の形態の認証装置が実装されるノート型PC10のソフトウェア側の構成を示す図である。
 図5Aに示すように、ノート型PC10は、CPU(Central Processing Unit:中央演算処理装置)11、RAM(Random Access Memory:ランダムアクセスメモリ)12、HDD(Hard Disk Drive)13、ディスプレイ14、静脈センサ15、角度センサ220、及びCCD(Charge Coupled Device)カメラ230を含む。
 CPU11、RAM12、HDD13、ディスプレイ14、静脈センサ15、角度センサ220、及びCCDカメラ230は、バス16によって接続されており、バス16に接続されるフラッシュメモリ17にはBIOS(Basic Input/Output System)プログラムが格納されている。
 図5Bに示すように、ノート型PC10は、HDD13の内部に、認証プログラム21、仕様DB(Data Base:データベース)22、表示位置演算プログラム24、及び静脈データ25を含む。
 認証プログラム21、仕様DB22、表示位置演算プログラム24、及び静脈データ25は、図5Bに示すような階層構造になっている。
 認証プログラム21は、ノート型PC10が静脈の生体情報を利用した認証処理を実行するために用いるプログラムである。
 仕様DB22は、ノート型PC10の筐体各部の寸法、筐体内におけるディスプレイ14の位置と寸法、及び静脈センサ15の筐体内における位置と寸法を表すデータを含むデータベースである。
 表示位置演算プログラム24は、ノート型PC10のディスプレイ14に誘導用の画像を表示する位置を演算するために用いられるプログラムである。
 静脈データ25は、ノート型PC10の利用者が登録した自己の手のひらの静脈の画像を表すデータである。利用者は、例えば、ノート型PC10を購入した後に、初期設定として静脈センサ15を用いて自己の手のひらの静脈データをノート型PC10に登録する。このようにして静脈データ25がHDD13内に登録される。
 次に、図6を用いて、実施の形態のノート型PC10に搭載される認証装置100の機能ブロックについて説明する。
 図6は、実施の形態のノート型PC10に搭載される認証装置100の機能ブロックを表す図である。
 図6に示す認証装置100の機能ブロックは、CPU11(図5A参照)が認証プログラム21(図5B参照)を実行することにより実現される。
 CPU11は、認証プログラム21を実行するに際し、認証プログラム21を通じて、仕様DB22に格納されるデータと静脈データ25を利用するとともに、表示位置演算プログラム24を実行する。
 図6に示すように、認証装置100は、主制御部101、演算部102、表示制御部103、センサドライバ104、認証部105、メモリ106、角度演算部221、及びカメラドライバ222を含み、認証処理を実行する。
 主制御部101は、ノート型PC10の認証処理を統括する制御部である。
 演算部102は、ディスプレイ14(図5A参照)に、誘導用の画像を表示する位置を演算する。
 表示制御部103は、演算部102によって演算されたディスプレイ14上の位置に、誘導用の画像を表示する。
 センサドライバ104は、静脈センサ15(図5A参照)によって取得された画像から静脈データを取得し、取得した静脈データを認証部に出力する。
 認証部105は、センサドライバ104から入力される静脈データに基づき、認証を行う。
 メモリ106は、図5Aに示すRAM12の一例である。メモリ106には、主制御部101、演算部102、表示制御部103、センサドライバ104、認証部105、角度演算部221、及びカメラドライバ222が処理を実行するにあたって必要なデータが格納される。
 角度演算部221は、角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力する。
 カメラドライバ222は、CCDカメラ230から出力される画像を表すデータを所定のピクセル数の画像データに変換して出力する。
 次に、図7A及び図7Bを用いて、ノート型PC10のディスプレイ14に、誘導用の画像を表示する位置について説明する。
 図7Aは、ノート型PC10を開いた状態を示す正面図であり、図7Bは、ノート型PC10を開いた状態を示す側面図である。図7Bには、3D眼鏡300を装着した利用者400(頭部)を示す。
 ノート型PC10は、カバー部31とベース部32とを有する筐体30を含む。カバー部31はディスプレイ14とCCDカメラ230を保持する。カバー部31はディスプレイ14の枠部31A、31Bを含む。枠部31Aは、カバー部31をベース部32に対して開いた状態で、ディスプレイ14の左右に縦方向にわたって位置する。枠部31Bは、カバー部31をベース部32に対して開いた状態で、ディスプレイ14の上下に横方向にわたって位置する。
 CCDカメラ230は、カバー部31を開いた状態で、ディスプレイ14の上側に位置する枠部31Bの幅方向における中央に位置する。
 ベース部32には、静脈センサ15、タッチパッド33、キーボード34、及び角度センサ220が設けられている。なお、後に寸法を説明する便宜上、キーボード34を破線で示す。ベース部32は、ノート型PC10が水平面である机上等に設置される際にその設置面に載置される。ベース部32は、設置面と平行となる上面を備え、その上面にタッチパッド33及びキーボード34が設けられている。
 カバー部31は、ベース部32に対して回動することにより開閉できるように軸支されている。図7A、図7Bにはカバー部31を開いた状態を示すが、カバー部31を閉じるとディスプレイ14がキーボード34と向かい合う。
 図7A、図7Bに示す状態では、カバー部31はベース部32に対して角度θだけ開かれている。つまり、これら状態は、水平面に対するディスプレイ14の表示面の傾斜角度(仰角)がθであることを示す。
 ディスプレイ14は、例えば、三次元(以下、3D(Three Dimension)と略す)表示の可能な液晶ディスプレイであればよい。ディスプレイ14は、右眼用の画像と左眼用の画像を交互に再生し、左右の視界がディスプレイ14の表示の切り替えと同期して交互に遮蔽される液晶シャッターを備えた3D眼鏡300(図7B参照)を装着した利用者400が見ると、立体感のある画像(虚像)を視認できるディスプレイであればよい。
 実施の形態1のノート型PC10のユーザーログオンの認証時には、ディスプレイ14には、利用者400の手のひらを静脈センサ15の上の手本となる位置に誘導するための誘導用の画像と、認証用のウィンドウが表示される。この誘導用の画像は、3D眼鏡300を装着した利用者400には、ディスプレイ14から飛び出して静脈センサ15の上方に存在する立体的な誘導用の虚像500として視認される。誘導用の虚像500は、人間の手の形状をしており、本実施の形態の認証装置100は、誘導用の虚像500を静脈センサ15の上に手をかざす際の手本となる位置に表示する。
 なお、ここでは、一例として、右眼用の画像と左眼用の画像を交互に再生するディスプレイ14と、ディスプレイ14の画像の切り替わりに同期して左右の視界が交互に遮蔽される液晶シャッターを備えた3D眼鏡300とを用いる形態について説明する。しかしながら、立体的な画像を表示できるのであれば、ディスプレイ14と3D眼鏡の形式は、ここで説明するものに限定されるものではなく、また、液晶のディスプレイにも限定されない。
 静脈センサ15は、比較例の静脈センサ1と同様のものであり、生体情報としての静脈の画像を取得するセンサの一例である。実施の形態の静脈センサ15はノート型PC10のベース部32に組み込まれている。静脈センサ15は、ノート型PC10の利用者400から見て、ディスプレイ14の手前側でタッチパッド33の左脇に位置するように配設されている。なお、手のひらは、静脈センサ15を使った生体認証で利用する身体の部位の一例であり、静脈センサ15にかざす対象は身体の他の部位としてもよい。
 ここで、静脈センサ15とディスプレイ14との位置関係における手前側とは、ノート型PC10のカバー部31をベース部32から開いた状態で、ノート型PC10の利用者400から見て、静脈センサ15がディスプレイ14よりも手前側に位置していることをいう。
 タッチパッド33は、ベース部32のキーボード34の手前側において、ベース部32の幅方向(図7Aにおける横方向)の中央に配設されている。
 角度センサ220は、ベース部32に対してカバー部31が開かれた角度θを検出できるセンサであればよく、例えば、ベース部32に対してカバー部31を回動可能に軸支する回転軸に取り付ければよい。角度センサ220は、角度検出部の一例である。
 角度センサ220は、ベース部32に対してカバー部31が開かれた角度θを検出できるセンサであれば、どのようなセンサであってもよいが、例えば、ロータリポテンショメータを用いればよい。
 CCDカメラ230は、カバー部31を開いた状態で、ディスプレイ14の上側に位置する枠部31Bの幅方向における中央に配設されている撮像部の一例である。このため、CCDカメラ230により、利用者400の顔の画像を撮影することができる。本実施の形態のノート型PC10の利用者400は、3D眼鏡300を装着するため、CCDカメラ230により3D眼鏡300を装着した利用者400の顔画像を得ることができる。
 CCDカメラ230で撮影される3D眼鏡300を装着した利用者400の顔画像を表す画像データは、利用者400が装着する3D眼鏡300とCCDカメラ230との間の相対位置関係を検出する際に用いる。相対位置関係は、3D眼鏡300とCCDカメラ230との間の様々な距離等を算出することによって求められる。相対位置関係の検出の仕方については後述する。
 なお、3D眼鏡を装着した利用者400の顔画像を取得できれば、CCDカメラ以外のカメラ等を用いてもよい。
 ここで、図7A、図7Bに示すように寸法a~g及びjを定義する。寸法a~g及びjは、ノート型PC10の仕様から決まる値である。
 寸法aはベース部32の左側の端辺32Aから静脈センサ15の中心までの横方向の長さである。寸法bはベース部32のカバー部31との境界の端辺32Bから静脈センサ15の中心までの縦方向の長さである。
 寸法cはカバー部31の横方向の長さであり、寸法dはカバー部31の縦方向の長さである。寸法eはカバー部31のディスプレイ14の横にある枠部31Aの横方向の長さであり、寸法fはカバー部31のディスプレイ14の上にある枠部31Bの縦方向の長さである。
 寸法gはカバー部31の端からCCDカメラ230のレンズの中央までの距離である。本実施の形態では、CCDカメラ230はカバー部31の幅方向における中央に配設されるため、寸法gはカバー部31の左端又は右端のいずれから図った距離であってもよい。
 寸法jは、静脈センサ15の上に誘導用の虚像500を表示する際の静脈センサ15からの高さである。寸法jは、利用者が静脈センサ15の上に手をかざす際の手本となる高さである。本実施の形態の認証装置100は、静脈センサ15の表面から高さjの位置に、誘導用の虚像500を表示する。
 ここで、ディスプレイ14と枠部31A、31Bの間には段差がなく、同一平面上にあるものとする。
 これらの値を表すデータは、ノート型PC10の仕様を表す仕様データとして、仕様DB22(図5B参照)に格納されている。
 なお、ノート型PC10の各部の寸法をxyz座標で表す際には、xyz座標系の原点を図7Aに示すベース部32上の左奥の角35にとる。また、x軸はベース部32の端辺32Bに沿っており、図7A中において右方向を正とする。y軸はベース部32の端辺32Aに沿っており、図7A中において奥から手前に来る方向を正とする。z軸は、x軸及びy軸にともに直角な軸であり、鉛直上方を正とする。
 また、以下では、利用者が装着する3D眼鏡300の右眼用のレンズの表面の中心の座標を(x,y,z)=(p,q,r)とする。
 また、図7Bに示す距離iは、CCDカメラ230と、3D眼鏡300の右眼用のレンズの表面の中心との距離を表す。
 また、図7Bに示す距離hは、直線ACで表されるCCDカメラ230の撮影中心と、3D眼鏡300の右眼用のレンズの表面の中心との高さ方向の距離を表す。
 3D眼鏡300とCCDカメラ230との間の相対位置関係は、寸法a~g及びj、角度θ、距離i、h等によって求まる。
 なお、距離i、h等については、図8を用いてCCDカメラ230と利用者が装着する3D眼鏡300との間の距離等について説明した後に、説明を行う。
 次に、図8を用いて、本実施の形態の認証装置100を搭載したノート型PC10の利用者400とノート型PC10のCCDカメラ230との間の距離と、CCDカメラ230によって撮影される画像に含まれる3D眼鏡300のサイズとの関係について説明する。
 図8は、ノート型PC10の利用者400とノート型PC10のCCDカメラ230との間の距離と、CCDカメラ230によって撮影される画像に含まれる3D眼鏡300のサイズとの関係を示す図である。
 図8(A)及び図8(C)には、CCDカメラ230によって撮影された画像231、232に含まれる利用者400の顔面を示す。図8(A)に示す画像231は、図8(B)に示すように、ノート型PC10と利用者400が比較的離れた状態で撮影した画像である。図8(B)に示す利用者400の3D眼鏡300の右眼用のレンズ300Rの中心300RCとCCDカメラ230との間の距離はnとする。
 図8(C)に示す画像232は、図8(D)に示すように、ノート型PC10と利用者400が比較的接近した状態で撮影した画像である。図8(D)に示す利用者400の3D眼鏡300の右眼用のレンズ300Rの中心300RCとCCDカメラ230との間の距離はN(<n)とする。なお、図8(B)、図8(D)ではCCDカメラ230の図示を省略する。
 ここで、図8(A)に示す画像231内における3D眼鏡300の右眼用のレンズ300Rの横幅をmとし、図8(C)に示す画像232内における3D眼鏡300の左眼用のレンズ300Lの横幅をM(<m)とすると、以下の式(1)の関係が成り立つ。
   n = M × N / m ・・・(1)
 本実施の形態では、ノート型PC10を出荷する前に、CCDカメラ230と3D眼鏡300との間がある基準の距離NにあるときにCCDカメラ230で撮影した画像内における右眼用のレンズ300Rの横幅Mを記憶しておく。
 そして、ノート型PC10のユーザーログオンの認証を行うときに、CCDカメラ230で撮影した画像に含まれる右眼用のレンズ300Rの横幅に基づいて、CCDカメラ230と3D眼鏡300との間の距離を計算する。
 なお、ここでは一例として右眼用のレンズ300Rの横幅を用いるが、左眼用のレンズ300Lの横幅でもよいし、右眼用のレンズ300R又は左眼用のレンズ300Lの縦の長さでもよいし、3D眼鏡300のその他の寸法であってもよい。
 また、ここでは、3D眼鏡300の右眼用のレンズ300Rの表面の中心を300RCとCCDカメラ230との間の距離について説明したが、左眼用のレンズ300Lの表面の中心300LCとCCDカメラ230との距離を用いても同様に計算することができる。
 右眼用のレンズ300Rの中心300RCの座標は、図7Bに示したように(x,y,z)=(p,q,r)である。
 なお、ノート型PC10とセットで販売される3D眼鏡300の右眼用のレンズ300Rの横幅の実際の寸法をkとし、右眼用のレンズ300Rの中心300RCと左眼用のレンズ300Lの中心300LCとの間の寸法をsとする。寸法k及び寸法sについては、図10を用いて説明する。
 図9は、ノート型PC10の仕様DB22に格納される仕様データを示す図である。
 仕様データは、製品名(notepc_ABC001)、寸法a(dimension_a_ABC001)、寸法b(dimension_b_ABC001)、寸法c(dimension_c_ABC001)、寸法d(dimension_d_ABC001)、寸法e(dimension_e_ABC001)、及び寸法f(dimension_f_ABC001)を含む。
 仕様データは、さらに、寸法g(dimension_g_ABC001)、寸法j(dimension_j_ABC001)、ピクセル数(pixel_ABC001)、寸法k(dimension_k_ABC001)、寸法s(dimension_s_ABC001)、及び関係式(ratio_ABC001)を含む。なお、関係式のデータは、上述の式(1)を表すデータである。
 寸法a~寸法g,寸法j、ピクセル数、寸法k、寸法s、及び関係式を表すデータは、製品名を表すデータと関連付けられている。寸法a~g、及びjは、ノート型PC10の仕様から決まる値である(図7A及び図7B参照)。また、ピクセル数、寸法k、寸法s、及び関係式もノート型PC10の仕様から決まる値である。
 この仕様DB22には、複数の製品について、それぞれの製品名に対応付けて各種データが格納される。
 仕様データは認証装置100によって製品名に基づいて識別され、各寸法a~g、j、k、s、ピクセル数、及び関係式を表すデータが読み出される。
 なお、図8には、製品名をnotepc_ABC001と記すが、実際には、ABC001の部分にはノート型PC10の型式名等が用いられる。また、説明の便宜上、各寸法a~g、j、k、sをdimension_a_ABC001等とアルファベットと数字を用いて記すが、実際には各寸法を表す数値のデータである。
 また、ピクセル数をpixel_ABC001と記すが、実際には、CCDカメラ230が撮影した画像をカメラドライバ222が画像データに変換する際のピクセル数を表す。
 また、関係式ratio_ABC001は、実際には、画像中における3D眼鏡300の右眼用のレンズ300Rの幅mと、幅mを得る距離nとの比例関係を示す関係式を表すデータである。
 関係式のデータは、上述の式(1)を表すデータであり、CCDカメラ230と3D眼鏡300との間が距離NにあるときにCCDカメラ230で撮影した画像内における右眼用のレンズ300Rの横幅が寸法Mであるという関係を含んでいる。
 次に、図10を用いて、CCDカメラ230によって撮影される中心の位置と、利用者400の顔の中心との位置関係について説明する。
 図10は、実施の形態の認証装置100を搭載したノート型PC10のCCDカメラ230と3D眼鏡300の位置関係を示す図である。
 図10には、ディスプレイ14、3D眼鏡300、及び利用者400を平面視的に示す。ディスプレイ14の表面は垂直面に対して角度を有するため、図10中において縦方向に幅(d-2f)を有する。
 図10に示すように、3D眼鏡300の右眼用のレンズ300Rの表面の中心300RCと、CCDカメラ230との距離をiとする。図10において、距離iを二次元における距離のように示すが、距離iは実際には三次元空間における3D眼鏡300の右眼用のレンズ300Rの表面の中心300RCと、CCDカメラ230との距離である。
 右眼用のレンズ300Rの表面の中心300RCは、3D眼鏡300を正面から見たときの右眼用のレンズ300Rの表面の中心である(図8(A)参照)。
 なお、3D眼鏡300の形状は左右対称であるため、3D眼鏡300の左眼用のレンズ300Lの表面の中心300RCと、CCDカメラ230との距離もiである。このように、3D眼鏡300の形状は左右対称であるため、以下では、右眼用のレンズ300Rについて説明を行う。
 図10に示すように、右眼用のレンズ300Rの幅をkとし、右眼用のレンズ300Rの中心300RCと左眼用のレンズ300Lの中心300LCとの間の寸法をsとする。
 また、CCDカメラ230の撮影範囲の中心線を230Cで表す。中心線230Cは、CCDカメラ230から正面に延びる直線であり、画像の幅方向における中心を貫通するように延びる直線である。図10には、CCDカメラ230の正面に利用者400が位置している。
 ここで、中心線230Cと、右眼用のレンズ300Rの中心300RCとの間の距離をlとする。この距離lは、水平方向における距離であり、利用者400の顔が左右にずれると変動する変数である。この距離lの求め方については後述する。
 レンズ300Rの中心300RCの座標は、(x,y,z)=(p,q,r)であるため、xyz座標系における利用者400の3D眼鏡300の右眼用のレンズ300Rの中心300RCのx座標であるpは、式(2)のように表すことができる。
   p = g + l ・・・(2)
 次に、図11を用いて、画像231の中心からの利用者400の顔の位置ずれについて説明する。
 図11は、画像231の中心からの利用者400の顔の位置ずれを示す図である。画像231は、実施の形態の認証装置100を搭載したノート型PC10のCCDカメラ230によって撮影される画像である。
 画像231の横方向を二分する中心線をC1、縦方向を二分する中心線をC2とする。中心線C1とC2の交点は、CCDカメラ230が撮影する画像の中心点である。
 ここで、図10に示す中心線230Cは、CCDカメラ230の撮影範囲の中心線であり、図11に示す中心線C1は画像231の横方向を二分する中心線である。
 このため、図11に示す画像231において、中心線C1と、3D眼鏡300の右眼用のレンズ300Rの中心300RCとの間の距離l'は、図10に示す中心線230Cと中心300RCとの間の距離lに対応する。
 また、図11に示す画像231内における3D眼鏡300の右眼用のレンズ300Rの横幅k'は、実際の寸法がkである右眼用のレンズ300Rの横幅に対応する。
 また、図11に示す画像231内において、中心線C2と、右眼用のレンズ300Rの中心との高さ方向の距離h'は、図7Bに示す距離hに対応する。距離hは、直線ACで表されるCCDカメラ230の撮影中心と、3D眼鏡300の右眼用のレンズ300Rの中心との高さ方向の距離である。
 ここで、距離hは、図11に示す横幅k'及び距離h'と、実際の3D眼鏡300の右眼用のレンズ300Rの横幅kを用いると式(3)で表すことができる。
  h = (h'/ k') × k ・・・(3)
 また、図10に示す3D眼鏡300の右眼用のレンズ300Rの表面の中心300RCと、CCDカメラ230との距離iは、式(4)で表すことができる。
   i = M×N / k ・・・(4)
 式(4)は、画像231(図8(A)参照)内における右眼用のレンズ300Rの横幅mとして、実際の右眼用のレンズ300Rの横幅kを代入することにより、距離n(図8(B)参照)を距離iとして求める式である。
 また、式(2)に含まれる距離lは、図11に示す距離l'及び横幅k'と、実際の3D眼鏡300の右眼用のレンズ300Rの横幅kを用いると式(5)で表すことができる。
   l = (l'/ k') × k ・・・(5)
 本実施の形態の認証装置100は、これらの式によって表される3D眼鏡300の撮影中心からの位置ずれを求めて、誘導用の虚像500(図7B参照)を表示する位置を決定する。
 以下、誘導用の虚像500(図7B参照)を表示する位置の導出方法について説明する。
 レンズ300Rの中心300RCのx座標pは、式(2)及び式(5)から、次の式(6)のように求まる。
   p = g + (l'/ k') × k ・・・(6)
 次に、レンズ300Rの中心300RCのy座標q及びz座標rについて説明する。
 図7Bにおいて、直角三角形ABC、ADO、FECを定義する。y座標qは、三角形辺ABから辺ADを引き、辺EFを加えることによって得られるため、式(7)で表すことができる
 また、図7Bにおいて、z座標rは、辺ODに辺BCを加えたものから辺CEを引くことによって得られるため、式(8)で表すことができる。
Figure JPOXMLDOC01-appb-M000002
 また、図7Bに示すように、誘導用の虚像500を表示する位置の座標は(x,y,z)=(a,b,j)である。
 次に、誘導用の虚像500をxyz座標(a,b,j)に表示するために、ディスプレイ14上に右眼用の誘導用の画像を表示する位置を求める。
 ここで、本実施の形態のように、ディスプレイが右眼用と左眼用の2つの誘導用の画像を表示することにより三次元的な虚像を表示する3Dディスプレイの場合、左眼用の誘導用の画像を表示する位置も求める必要がある。左眼用の誘導用の画像を表示する位置については、最後に説明する。
 誘導用の虚像500を表示する点と、利用者400の3D眼鏡300の右眼用のレンズ300Rの中心300RCとの2点を通る直線を求める。誘導用の虚像500を表示する点の座標は(a,b,j)であり、中心300RCの座標は(p,q,r)であるため、これら2点を通る直線は式(9)で表すことができる。
Figure JPOXMLDOC01-appb-M000003
 この直線の式(9)をx、y、zの各成分に分解すると式(10)~(12)が得られる。ここで、tは媒介変数である。
   x=(p-a)t+a ・・・(10)
   y=(q-b)t+b ・・・(11)
   z=(r-j)t+j ・・・(12)
 ここで、xyz空間における平面の式は一般的に式(13)で表すことができる。
   Ax+By+Cz+D=0 ・・・(13)
 ディスプレイ14の表面を含む平面は、xyz座標系において、3点(0,0,0)、(c、0,0)、(0,-dsin(θ-90),dcos(θ-90))を通るため、これらの点を式(13)に代入すると、以下の連立方程式が成り立つ。
   A・0+B・0+C・0=0 ・・・(14)
   A・c+B・0+C・0=0 ・・・(15)
   A・0-B・dsin(θ-90)+C・dcos(θ-90)=0 ・・・(16)
 式(14)~(16)を解くと、ディスプレイ14の表面を含む平面を表す式として、式(17) が得られ、式(17)をBについて解くと式(18)が得られる。
Figure JPOXMLDOC01-appb-M000004
 また、A=0、D=0であるから、式(18)を用いると一般式(13)を式(19)のように変形することができる。
 cos(θ-90)y+sin(θ-90)z=0 ・・・(19)
 次に、式(9)で表される直線と、式(19)で表される平面との交点を求めると、式(20)が得られる。
   {(q-b)t+b}cos(θ-90)+{(r-j)t+j}sin(θ-90)=0 ・・・(20)
 式(20)より、媒介変数tは、式(21)のように求まる。
Figure JPOXMLDOC01-appb-M000005
 式(21)で表される媒介変数tを式(9)で表される直線の式に代入することにより、誘導用の虚像500を表示する点と利用者400の3D眼鏡300の右眼用のレンズ300Rの中心300RCとの2点を通る直線と、ディスプレイ14との交点が求まる。この交点の座標(x,y,z)=(u,v,w)は、右眼用の誘導用の画像をディスプレイ14上に表示する位置を表し、式(22)~(24)によって表される。
Figure JPOXMLDOC01-appb-M000006
 なお、左眼用の画像を表示する位置は、右眼用の画像を表示する位置とx軸方向にs(図10参照)異なるだけである。左眼用の画像は、ディスプレイ14上において右眼用の画像よりも右側(x軸における正の方向)に表示されるので、x座標は式(22)で表される値にsを加えた値となる。
 次に、式(22)~(24)で表される交点の座標(u,v,w)をディスプレイ14の表面上のXY座標系における座標に変換する。
 ここで、xyz座標系における座標(x,y,z)=(u,v,w)と、XY座標系における座標(X1,Y1)の変換式は式(25)、(26)の通りであるが、この変換式を図12A及び図12Bを用いて説明する。
 図12A及び図12Bは、xyz座標系とXY座標系の変換を説明する図である。
 図12Aに示すように、実施の形態1の認証装置100は、ディスプレイ14の左上の角14Aを原点とし、ディスプレイ14の表面上に規定されるX、Y座標系を用いて、ディスプレイ14に誘導用の画像600R、600Lと認証ウィンドウ140を表示する座標を演算する。
 ここでは、XY座標系のX、Y座標を大文字で表すことにより、xyz座標系と区別する。誘導用の画像600R、600Lと認証ウィンドウ140を表示する座標を求める演算は、演算部102(図4参照)によって行われる。
 ノート型PC10の認証装置100は、誘導用の画像600Rの中心が位置Pに表示されるようにディスプレイ14上にモデル化した手の画像を表示する。位置Pは、ディスプレイ14上において、ディスプレイ14の左上の角14Aを原点として、座標(X1、Y1)で表される位置である。
 位置Pの座標(X1、Y1)は、右眼用の誘導用の画像600Rの中心を表示する位置として、上述したxyz座標系において、式(22),(23),(24)によって得られる交点の座標(x,y,z)=(u,v,w)をXY座標系に変換した座標である。
 座標X1は、図12Aに示すように、座標uから枠31Aの幅eを減算することによって求まる。このため、座標X1は式(25)によって求めることができる。
 また、図12Bに示すように、xyz座標系における座標v及び座標wと、XY座標系における座標Y1との間には、d=f+Y1+√(v2+w2)+fの関係がある。このため、座標Y1は式(26)で表すことができる。
Figure JPOXMLDOC01-appb-M000007
 ここで、例えばディスプレイ14のピクセル数が1920×1200である場合、X1、Y1の範囲は、0≦X1<1920、0≦Y1<1200である。
 以上より、式(22)~(24)及び式(25)、(26)を用いれば、右眼用の誘導用の画像600Rをディスプレイ14のXY座標系で表示する位置Pを求めることができる。右眼用の誘導用の画像600Rは、式(25)、(26)によって表される座標(X1,Y1)で表される位置Pに中心を合わせて表示すればよい。
 また、左眼用の誘導用の画像600Lについては、上述のように、式(22)で表される値にsを加えた値をx座標の値として用いて、式(25)でXY座標系におけるX座標を求めればよい。左眼用の誘導用の画像600LのY座標については、右眼用の誘導用の画像600Rと同一のY座標(Y1)を用いればよい。
 以上により、利用者400が装着する3D眼鏡300の位置に応じて、ディスプレイ14上の適切な位置に誘導用の画像600R及び600Lを表示することができる。
 そして、この結果、3D眼鏡300を装着した利用者400に対して、利用者400の手のひらを静脈センサ15の上の手本となる位置に誘導するための誘導用の虚像500を表示することができる。誘導用の虚像500は、利用者400が見ると、ディスプレイ14から飛び出して静脈センサ15の上方に存在する立体的な虚像である。
 次に、図13を用いて、誘導用の虚像500、誘導用の画像600R、600L、及び利用者400の平面的な位置関係について説明する。
 図13は、本実施の形態の認証装置100を搭載したノート型PC10による誘導用の虚像500、誘導用の画像600R、600L、及び利用者400の平面的な位置関係を示す図である。
 図13に示すように、式(22)~(24)及び式(25)、(26)よって求まる座標(X1,Y1)に誘導用の画像600R及び600Lを表示すれば、3D眼鏡300を装着した利用者400に対して、ディスプレイ14から飛び出して静脈センサ15の上方に存在する立体的な誘導用の虚像500を表示することができる。
 実施の形態のノート型PC10の認証装置100が誘導用の画像600R、600Lをディスプレイ14上の座標(X1,Y1)に表示すると、ディスプレイ14の手前側の空間には、静脈センサ15の真上の手本となる高さに、誘導用の虚像500が表示される。
 誘導用の虚像500は、立体的な手の形状(図12B参照)をしており、利用者400が装着する3D眼鏡300とCCDカメラ230との相対位置関係によって表示される位置(座標(X1,Y1))が調整される。
 3D眼鏡300とCCDカメラ230との相対位置関係は、CCDカメラ230によって撮影される利用者400の3D眼鏡300の画像に基づき、上述した式(1)~(26)によって演算される。
 このため、ノート型PC10の利用者400は、ノート型PC10の利用を開始するために静脈認証によるユーザーログオンの認証を行う際に、静脈センサ15の上の適切な位置に自己の手のひらを容易に合わせることができる。
 次に、図14を用いて、ディスプレイ14に表示する他の誘導用の画像について説明する。
 図14は、実施の形態のノート型PC10に表示される認証ウィンドウ140と誘導用の画像600R、600Lを示す図である。
 ここで、図14には認証装置100(図6参照)を示さないが、ノート型PC10内に認証装置100があるものとして説明を行う。 実施の形態のノート型PC10の認証装置100は、誘導用の画像600R及び600Lに加えて、認証ウィンドウ140を表示する。
 認証ウィンドウ140は、ノート型PC10のユーザーログオンの認証を行うときに、ディスプレイ14に表示される。
 認証ウィンドウ140には、静脈センサ15で取得された手のひらの画像が映し出される。
 認証装置100は、静脈センサ15で取得される手のひらの画像から、手のひらの高さを算出し、手のひらの高さが焦点距離に相当する高さjの上下20%の範囲内にないと判定すると、利用者に手のひらを上又は下に移動するように促すメッセージを表示する。
 静脈センサ15が利用者の手のひらの静脈の画像を取得できる距離は、焦点距離を中心としてある程度の幅を有する。
 静脈センサ15の焦点距離に相当する高さjの上下20%の範囲は、焦点距離を中心として静脈センサ15が手のひらの画像を取得可能な許容範囲である。
 静脈センサ15は、焦点距離の上下20%(±20%)の範囲であれば、静脈センサ15は、手のひらの静脈の画像を取得することができる。焦点距離の±20%は、例えば、約5cmである。なお、ここに示す許容範囲(±20%)は一例としての数値であり、許容範囲を±20%に限る趣旨ではない。
 例えば、認証装置100は、手のひらの高さが許容範囲の下限を下回っている場合には「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ140内に表示する。一方、認証装置100は、手のひらの高さが許容範囲の上限を上回っている場合には、認証装置は「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ140内に表示する。
 また、認証装置100は、静脈センサ15で取得される手のひらの画像から、手のひらの高さが適切であっても、手のひらの位置が静脈センサ15に対して前後左右のいずれかの方向にずれていると判定すると、利用者に手のひらを静脈センサ15に対して前後左右のいずれかの方向に移動するように促すメッセージを表示する。
 また、認証装置100は、手のひらの位置が画面内で左側に寄っている場合には「手のひらをもう少し右側に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、認証装置100は、手のひらの位置が画面内で右側に寄っている場合には「手のひらをもう少し左側に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 また、認証装置100は、手のひらの画面内で前方に寄っている場合には「手のひらをもう少し後方に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、認証装置100は、手のひらの位置が規定の位置よりも画面内で後方に寄っている場合には「手のひらをもう少し前方に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 手のひらの高さが高いか低いかの判定と、画面の中心に対して前後左右のどちらに寄っているかの判定は、例えば、画像処理により、認証ウィンドウ140に表示される手のひらの四方にある背景の部分の長さX5、X6、Y5、Y6が基準値と比べて長いか短いかを認証装置100が判定することによって行えばよい。
 ここで、長さX5は手のひらの画像中における左側の背景のX軸方向の長さであり、長さX6は手のひらの画像中における右側の背景のX軸方向の長さである。長さY5は手のひらの画像中における下側の背景のY軸方向の長さであり、長さY6は中指の先端の画像中における上側の背景のY軸方向の長さである。
 例えば、利用者が認証ウィンドウ140を見ながら自分の手のひらが認証ウィンドウ140の中央に位置するように手のひらを静脈センサ15にかざす。この状態で、利用者の手のひらの高さが焦点距離にあるときに、静脈センサ15が取得する画像では、四方の距離X5、X6、Y5、Y6が2cmになるように設定されているとする。
 認証装置100は、利用者の手のひらが静脈センサ15にかざされたときに、四方の距離X5、X6、Y5、Y6の分布に基づいて、手のひらの位置が高いか低いか、又は、前後左右のどちらに寄っているかの判定を行えばよい。
 例えば、四方の距離X5、X6、Y5、Y6のうちのいずれか2つ以上が2cmよりも長ければ、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲の上限より高いと判定し、「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 一方、四方の距離X5、X6、Y5、Y6のうちのいずれか2つ以上が2cmよりも短ければ、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲の下限より低いと判定し、「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 認証装置100は、上述のようにして、利用者の手のひらの高さが焦点距離の許容範囲内にあるか否かを判定すればよい。
 また、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲内に収まったときに、四方の距離X5、X6、Y5、Y6の分布に基づいて、手のひらの位置が静脈センサ15に対して、前後左右のどちらにずれているか否かを判定すればよい。
 例えば、四方の距離X5、X6、Y5、Y6の中で距離X5が一番短ければ、認証装置100は、静脈センサ15に対して手が左側に寄っていると判定し、「手のひらをもう少し右側に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離X6が一番短ければ、認証装置100は、静脈センサ15に対して手が右側に寄っていると判定し、「手のひらをもう少し左側に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離Y5が一番短ければ、認証装置100は、静脈センサ15に対して手が後方に寄っていると判定し、「手のひらをもう少し前方に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離Y6が一番短ければ、認証装置100は、静脈センサ15に対して手が前方に寄っていると判定し、「手のひらをもう少し後方に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 なお、上述のような静脈センサ15に対する手のひらの位置の高さ方向と前後左右方向の位置ずれを判定する方法は一例に過ぎず、上述した以外の手法によって行ってもよい。
 静脈センサ15で取得された手のひらの画像に基づく上述のような手のひらの位置の検出は、位置検出部の一例としての認証部105(図6参照)によって行われ、メッセージの表示はメッセージ生成部の一例としての認証部105によって行われる。
 また、静脈センサ15で取得された手のひらの画像に基づく上述のような手のひらの前後左右方向の位置の検出は、認証部105(図6参照)によって行われる。
 認証ウィンドウ140は、ウィンドウの左上の角の座標(X3、Y3)、X軸方向の長さX4、及び、Y軸方向の長さY4が決められており、座標(X3、Y3)と、長さX4及び長さY4とによって定まる領域に表示される。なお、座標(X3、Y3)と、長さX4及び長さY4の値は、誘導用の画像600R及び600Lと重ならないように設定されている。
 認証装置100は、このようなメッセージをディスプレイ14の認証ウィンドウ140に表示することにより、手のひらの静脈認証を行う利用者に対して、手のひらを高さ方向に誘導する処理を行っている。
 次に、図15を用いて、実施の形態のノート型PC10における認証処理について説明する。
 図15は、実施の形態のノート型PC10の認証処理を示すフローチャートである。図15に示す処理は、図6に示す認証装置100によって実行される。
 まず、主制御部101は、BIOSに記述されているノート型PC10の製品名を取得する(ステップS1)。
 次に、主制御部101は、仕様DB22からノート型PC10の筐体各部の寸法、筐体30内におけるディスプレイ14の位置と寸法、及び静脈センサ15の筐体内における位置と寸法を表す仕様データを読み出す(ステップS2)。具体的には、主制御部101は、図9に示す仕様データに含まれる寸法a~寸法g,寸法j、ピクセル数、寸法k、寸法s、及び関係式を表すデータを読み出す。
 次に、角度演算部221は、角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力する(ステップS3)。これにより、ノート型PC10におけるディスプレイ14の角度θが取得される。
 次に、カメラドライバ222は、CCDカメラ230から画像データを取得する(ステップS4)。利用者400が装着する3D眼鏡300の画像から、CCDカメラ230と利用者400との相対位置関係を計算するためである。
 次に、演算部102は、ステップS4で取得した画像データに基づき、3D眼鏡300の右眼用のレンズ300Rの中心300RCの座標(p,q,r)を演算する(ステップS5)。演算部102は、式(1)~(8)を用いて、中心300RCの座標(p,q,r)を演算する。中心300RCの座標(p,q,r)は、それぞれ、式(6),(7),(8)によって得られる。
 次に、演算部102は、誘導用の画像600R、600Lをディスプレイ14上に表示する座標(X1,Y1)と、認証ウィンドウ140の位置を表す座標(X3、Y3)及び長さX4、Y4とを演算する(ステップS6)。誘導用の画像600R、600Lをディスプレイ14上に表示する座標(X1,Y1)は、式(9)~(26)を用いて演算される。認証ウィンドウ140の位置を表す座標(X3、Y3)及び長さX4、Y4は、仕様データに基づき、誘導用の画像600R、600Lと重複が生じないように演算される。
 ここで、重複を防ぐためには、座標(X1,Y1)を演算してから、画像600R、600Lの画像のX軸方向及びY軸方向の範囲と、認証ウィンドウ140のX軸方向及びY軸方向の範囲とに重複が生じないように、座標(X3、Y3)及び長さX4、Y4を演算すればよい。
 次に、主制御部101は、ステップS6で演算した誘導用の画像600R、600Lをディスプレイ14上に表示可能か否かを判定する(ステップS7)。例えば、ステップS6で演算した誘導用の画像600R、600Lをディスプレイ14上に表示するX、Y座標が、ディスプレイ14内にない場合は、誘導用の画像600R、600Lを表示できないため、表示可能か否かの判定を行うこととしたものである。
 なお、ディスプレイ14上に誘導用の画像600R、600Lを表示できない場合とは、例えば、利用者400の顔がディスプレイ14から大きく横方向にずれており、ステップS6で演算したX、Y座標がディスプレイ14のX軸方向の範囲を逸脱しているような場合が挙げられる。このような場合(S7:No)には、後のステップS14で表示される認証ウィンドウ140に、利用者400に横方向のずれを促すようなメッセージを表示することになる。
 ステップS7で表示可能と判定した場合は、表示制御部103は、ディスプレイ14に誘導用の画像600R、600Lと認証ウィンドウ140を表示する(ステップS8)。
 ステップS8では、誘導用の画像600R、600Lは、ステップS6で演算された座標(X1,Y1)に表示される。この結果、3D眼鏡300を装着した利用者400には、xyz座標系における座標(a,b,j)に誘導用の虚像500が表示される。また、認証ウィンドウ140は、誘導用の画像600R、600Lと重複しないようにディスプレイ14に表示される。
 誘導用の画像600R、600Lが表示されることによってディスプレイ14の手前の空間に誘導用の虚像500が表示されるとともに、ディスプレイ14に認証ウィンドウ140が表示されることにより、利用者は手のひらを静脈センサ15の上方の誘導用の虚像500に手にかざす。
 このとき、認証部105は、静脈センサ15からセンサドライバ104を通じて取得する手のひらの画像の大きさに基づいて、静脈センサ15に対する手の高さを判定する。認証部105は、手のひらの高さが許容範囲の下限を下回っている場合には、高さが許容範囲の下限を下回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ140に表示させる。
 一方、認証部105は、手のひらの高さが許容範囲の上限を上回っている場合には、高さが許容範囲の上限を上回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ140に表示させる。
 また、認証部105は、手のひらの位置が前後左右方向にずれていると判定した場合には、前後左右のいずれかの方向に手のひらが寄っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に手のひらを前方、後方、右側、又は左側に寄せることを利用者400に促すメッセージを認証ウィンドウ140に表示させる。
 なお、認証部105は、手のひらの高さが許容範囲にあると判定した場合には、主制御部101に手のひらの高さが許容範囲内であることを通知する。この場合には、主制御部101は表示制御部103への通知は行わず、認証ウィンドウ140には高さに関するメッセージは表示されない。
 次に、センサドライバ104は、静脈センサ15から静脈データを取得する(ステップS9)。具体的には、センサドライバ104が静脈センサ15を駆動して近赤外線を用いた撮影を行うことにより、人間の手のひらの静脈のパターンを表す画像を取得する。取得した画像を表す静脈データは、認証部105に入力される。
 次に、認証部105は、ステップS9で取得された静脈データが認証可能なデータであるか否かを判定する(ステップS10)。認証可能なデータであるか否かは、手のひらの形状及び位置が、図1に示したα軸、β軸、及びγ軸周りの条件と、矢印A、矢印B、矢印C軸、及び矢印D方向の条件をすべて満たしているか否かを判定することによって行われる。
 ステップS10で認証可能な静脈データであると判定されると、フローはステップS11に進行する。
 認証部105は、ステップS10で認証可能な静脈データであると判定した静脈データを用いて、静脈認証を行う(ステップS11)。静脈認証は、静脈データ25(図5(B)参照)を読み出し、静脈センサ15及びセンサドライバ104によって取得された静脈データと比較することによって行われる。このとき、認証ウィンドウ140には、静脈センサ15及びセンサドライバ104によって取得された静脈データが表示される。
 認証部105は、静脈センサ15及びセンサドライバ104によって取得された静脈データを静脈データ25(図5(B)参照)と比較し、一致するか否かを判定する(ステップS12)。
 主制御部101は、ステップS12において認証部105が一致したと判定した場合は、フローをステップS13に進行させ、静脈センサ15及びセンサドライバ104によって取得された静脈データを削除する(ステップS13)。
 以上により、認証処理が終了し、ノート型PC10は利用可能な状態になる。
 なお、ステップS7において、ディスプレイ14上に誘導用の画像600R、600Lを表示できないと判定された場合(S7:No)は、フローはステップS14に進行し、表示制御部103は、認証ウィンドウ140のみをディスプレイ14に表示する(ステップS14)。
 ディスプレイ14上に誘導用の画像600R、600Lを表示できない場合とは、例えば、利用者400の顔がディスプレイ14から大きく横方向にずれており、ステップS6で演算したX、Y座標がディスプレイ14のX軸方向の範囲を逸脱しているような場合が挙げられる。
 このような場合には、表示制御部103がディスプレイ14に認証ウィンドウ140を表示することにより、利用者400に横方向のずれを促すようなメッセージを表示する。この結果、利用者400の横方向のずれが緩和されることになる。
 また、ステップS10において、ステップS9で取得された静脈データが認証可能なデータではないと判定された場合は、主制御部101はフローをステップS3にリターンする。この結果、角度演算部221が角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力し、ステップS4以下の処理が再び実行される。すなわち、角度θを測定し直すことになる。
 例えば、ステップS8で誘導用の画像600R、600Lを表示した後に、利用者がカバー部31を動かしてしまった場合には、角度θが検出時と変わるため、誘導用の画像600R、600Lを表示するY軸方向の位置が利用者の手のひらを誘導するのに適切な位置ではなくなってしまう。
 このような場合には、利用者の手のひらを正しく誘導することができず、取得した静脈データが認証可能なデータでない場合があり得る。このため、再度角度θを検出して、誘導用の画像600R、600Lを表示する高さ方向の位置を計算し直し、利用者の手のひらを正しい高さに誘導するためである。
 また、ステップS12において、一致しないと判定された場合においても、主制御部101はフローをステップS3にリターンする。この結果、ステップS3以下の処理が再び実行される。この場合においても、角度θを測定し直して、ステップS3以下の処理を再び実行することになる。
 例えば、ステップS8で誘導用の画像600R、600Lを表示した後に、利用者がカバー部31を動かしてしまった場合には、角度θが検出時と変わるため、誘導用の画像600R、600Lを表示するY軸方向の位置が利用者の手のひらを誘導するのに適切な位置ではなくなってしまう。
 このような場合には、ステップS10で認証可能な静脈データであると判定されてステップS12にフローが進んだ場合でも、利用者の手のひらを高さ方向に適切に誘導できていないために、取得した静脈データが静脈データ25と一致しない場合があり得る。
 このため、再度角度θを検出して、誘導用の画像600R、600Lを表示する高さ方向の位置を計算し直し、利用者の手のひらを正しい高さに誘導するためである。
 なお、ステップS12において一致しないと判定される場合は、本人以外の者が静脈認証を行っている場合もあり得る。
 以上のように、実施の形態のノート型PC10の認証装置100は、ステップS8において、ディスプレイ14に誘導用の画像600R、600L、及び認証ウィンドウ140を表示する。ディスプレイ14への誘導用の画像600R、600Lの表示により、ディスプレイ14の手前側の空間には、静脈センサ15の真上の手本となる高さに、誘導用の虚像500が表示される。
 誘導用の虚像500は、立体的な手の形状をしており、利用者400が装着する3D眼鏡300とCCDカメラ230との相対位置関係によって表示される位置が調整される。
 このため、ノート型PC10の利用者は、ノート型PC10の利用を開始するために静脈認証を行う際に、静脈センサ15の上の適切な高さに自己の手のひらを容易に合わせることができる。
 さらに、ノート型PC10の認証装置100は、誘導用の画像600R、600Lに加えて認証ウィンドウ140をディスプレイ14に表示するため、利用者は誘導用の虚像500に加えて認証ウィンドウ140を見ながら手のひらの正しい姿勢を作ることができる。
 このため、利用者は静脈認証に必要な手のひらの高さ及び姿勢を容易に実現できる。
 このように、実施の形態によれば、利用者に適切な誘導情報を提供できる認証装置100と、認証装置100を搭載したノート型PC10を提供することができる。
 また、以上では、仕様DB22は、複数の製品について各仕様データを格納している。しかしながら、認証装置100が搭載されているノート型PC10だけの仕様データをノート型PC10に登録しておくようにしてもよい。この場合には、仕様データを取得する処理においては、製品名を基に仕様DB22から仕様データを読み出すという処理は必要なくなり、ノート型PC10に登録されている仕様データを単に読み出すという処理が行われることになる。
 また、以上では、認証装置100をノート型PC10に搭載した形態について説明したが、ディスプレイ14、静脈センサ15、及びCCDカメラ230の相対位置を決まっていれば、デスクトップ型のPCに認証装置100を搭載することは可能である。
 同様に、利用者400が3D眼鏡を装着していれば、認証装置100をPC以外の電子装置に搭載することは可能である。
 以上の実施の形態においては、CPU11が上記プログラムを実行して、本実施の形態における上記機能の実現や上記処理の実行を行っているが、CPU11は本実施の形態において上記機能の実現や上記処理の実行を行う処理回路の一例である。本実施の形態における処理回路は、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、その他の専用のハードウェアであってもよい。
 コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能の実現または処理を実行させるプログラムは、コンピュータ等が読み取り可能な記録媒体に記録すればよい。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、プログラムによって実現される機能・処理が提供される。
 ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としては、ハードディスクやROM(リードオンリーメモリ)等がある。
 以上、本発明の例示的な実施の形態の認証装置及び電子装置について説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
 10 ノート型PC
 11 CPU
 12 RAM
 13 HDD
 14 ディスプレイ
 15 静脈センサ
 16 バス
 17 フラッシュメモリ
 21 認証プログラム
 22 仕様DB
 24 表示位置演算プログラム
 25 静脈データ
 30 筐体
 31 カバー部
 31A 枠部
 31B 枠部
 32 ベース部
 32A 端辺
 32B 端辺
 100 認証装置
 101 主制御部
 102 演算部
 103 表示制御部
 104 センサドライバ
 105 認証部
 106 メモリ
 140 認証ウィンドウ
 220 角度センサ
 221 角度演算部
 222 カメラドライバ
 230 CCDカメラ
 230C 中心線
 231、232 画像
 300 3D眼鏡
 300R 右眼用のレンズ
 300RC 中心
 300L 左眼用のレンズ
 300LC 中心
 400 利用者
 500 誘導用の虚像
 600R、600L 誘導用の画像

Claims (10)

  1.  利用者に装着された3D眼鏡を含む画像を撮影する撮像部と、
     表示部の角度を検出する角度検出部と、
     利用者の身体の部位の生体情報を取得するセンサと、
     前記画像に含まれる前記3D眼鏡の位置及び大きさと前記表示部の角度とに基づき、前記撮像部と前記3D眼鏡との相対位置を演算する位置演算部と、
     前記相対位置に基づいて、前記センサに対して利用者の身体の部位を位置する際の手本となる位置に前記3D眼鏡を通じて利用者が視認する誘導用の虚像を表示するのに用いる誘導用の画像を前記表示部に表示する表示制御部と
     を含む、認証装置。
  2.  前記表示制御部は、前記3D眼鏡及び前記誘導用の虚像を通る直線と、前記表示部との交点となる前記表示部の座標に前記誘導用の画像を表示する、請求項1記載の認証装置。
  3.  前記直線は、前記3D眼鏡の基準点と、前記誘導用の虚像の中心点を通る、請求項2記載の認証装置。
  4.  前記位置演算部は、前記撮像部が撮影する画像に含まれる前記3D眼鏡の位置に基づき、基準点からの利用者の位置ずれを演算する、請求項1記載の認証装置。
  5.  前記位置演算部は、前記撮像部が撮影する画像に含まれる前記3D眼鏡の大きさと、前記3D眼鏡の実際の大きさとに基づき、前記撮像部と利用者との間の距離を演算する、請求項1記載の認証装置。
  6.  前記表示部は、ベース部に軸支され、
     前記角度検出部は、前記ベース部に対する前記表示部の表示面の角度を検出する、請求項1記載の認証装置。
  7.  前記センサによって取得される画像に基づき、前記センサに対する利用者の手の位置を検出する位置検出部と、
     前記位置検出部によって検出された手の位置に基づき、利用者に手の位置の変更を促すメッセージを生成するメッセージ生成部と
     さらに含み、
     前記表示制御部は、前記メッセージ生成部によって生成される前記メッセージを前記表示部に表示する、請求項1記載の認証装置。
  8.  請求項1記載の認証装置と、
     前記認証装置によって認証が行われると、所定の処理を実行する処理部と
     を含む、電子装置。
  9.  利用者の身体の部位の生体情報を取得するセンサを用いる装置によって実行される方法において、
     撮像部によって撮影し、
     前記撮影により取得された画像に含まれる3D眼鏡の位置及び大きさと表示部の角度とに基づき、前記撮像部と前記3D眼鏡との相対位置を演算し、
     前記相対位置に基づいて、前記センサに対して利用者の身体の部位を位置する際の手本となる位置に前記3D眼鏡を通じて利用者が視認する誘導用の虚像を表示するのに用いる誘導用の画像を前記表示部に表示する、方法。
  10.  センサにより利用者の身体の部位の生体情報を取得するコンピュータに、
     撮像部によって撮影された画像を取得し、
     前記画像に含まれる前記3D眼鏡の位置及び大きさと表示部の角度とに基づき、前記撮像部と前記3D眼鏡との相対位置を演算し、
     前記相対位置に基づいて、前記センサに対して利用者の身体の部位を位置する際の手本となる位置に前記3D眼鏡を通じて利用者が視認する誘導用の虚像を表示するのに用いる誘導用の画像を前記表示部に表示する、ことを実行させるためのプログラム。
PCT/JP2011/065380 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム WO2013005306A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/065380 WO2013005306A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/065380 WO2013005306A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2013005306A1 true WO2013005306A1 (ja) 2013-01-10

Family

ID=47436679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/065380 WO2013005306A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2013005306A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024016809A1 (zh) * 2022-07-18 2024-01-25 腾讯科技(深圳)有限公司 刷掌验证的引导方法、装置、终端、存储介质及程序产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101665A (ja) * 2002-09-06 2004-04-02 Sony Corp 立体像撮影方法及びその装置
JP2004318041A (ja) * 2003-02-28 2004-11-11 Sony Corp 空中像表示装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2008071030A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 生体認証装置
JP2008070926A (ja) * 2006-09-12 2008-03-27 Hitachi Omron Terminal Solutions Corp 生体認証装置及び操作案内通知方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101665A (ja) * 2002-09-06 2004-04-02 Sony Corp 立体像撮影方法及びその装置
JP2004318041A (ja) * 2003-02-28 2004-11-11 Sony Corp 空中像表示装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2008070926A (ja) * 2006-09-12 2008-03-27 Hitachi Omron Terminal Solutions Corp 生体認証装置及び操作案内通知方法
JP2008071030A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 生体認証装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024016809A1 (zh) * 2022-07-18 2024-01-25 腾讯科技(深圳)有限公司 刷掌验证的引导方法、装置、终端、存储介质及程序产品

Similar Documents

Publication Publication Date Title
US20230367366A1 (en) Wearable devices for courier processing and methods of use thereof
JP6074494B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
CN106575039B (zh) 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
US9311883B2 (en) Recalibration of a flexible mixed reality device
US11747915B2 (en) Smart ring for manipulating virtual objects displayed by a wearable device
US10459237B2 (en) System, head mounted device (HMD) and method for adjusting a position of an HMD worn by a user
CN106662919A (zh) 安全可佩戴计算机接口
JP2017188766A (ja) カメラを備える電子機器、撮影映像の補正方法および記憶媒体
US20210398306A1 (en) Dense depth computations aided by sparse feature matching
US20190369807A1 (en) Information processing device, information processing method, and program
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2013005305A1 (ja) 認証装置、電子装置、方法及びプログラム
JP2006285531A (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の視線方法を実行させるためのプログラム
WO2013005306A1 (ja) 認証装置、電子装置、方法及びプログラム
KR20240032107A (ko) 시력 검사 시스템 및 방법과 그 용도
KR20080055622A (ko) 인간친화형 컴퓨터입출력 시스템
TW201533609A (zh) 以輔助燈光相對位置為基礎之瞳孔定位方法、其系統以及其電腦程式產品
US20200219307A1 (en) System and method for co-registration of sensors
WO2020095400A1 (ja) 特徴点抽出装置、特徴点抽出方法およびプログラム記憶媒体
US20240045491A1 (en) Medical image overlays for augmented reality experiences
US20210134004A1 (en) Information processing device, information processing method, and program
KR101591038B1 (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법
WO2024049580A1 (en) Authenticating a selective collaborative object
KR20160002620U (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11868882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11868882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP