WO2013005305A1 - 認証装置、電子装置、方法及びプログラム - Google Patents

認証装置、電子装置、方法及びプログラム Download PDF

Info

Publication number
WO2013005305A1
WO2013005305A1 PCT/JP2011/065379 JP2011065379W WO2013005305A1 WO 2013005305 A1 WO2013005305 A1 WO 2013005305A1 JP 2011065379 W JP2011065379 W JP 2011065379W WO 2013005305 A1 WO2013005305 A1 WO 2013005305A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
image
display
sensor
height
Prior art date
Application number
PCT/JP2011/065379
Other languages
English (en)
French (fr)
Inventor
廣志 吉田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2011/065379 priority Critical patent/WO2013005305A1/ja
Publication of WO2013005305A1 publication Critical patent/WO2013005305A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • the present invention relates to an authentication device, an electronic device, a method, and a program.
  • a virtual image serving as a model based on the shape of the object is placed at an appropriate position in order to guide the object to an appropriate position for measuring the object.
  • a guidance device that displays and calculates the difference between the position, posture, and shape of the object and the virtual image, and displays the calculated difference at the same location as the virtual image of the model.
  • An aerial image display device that forms a predetermined image in the air and displays an aerial image, the display unit displaying an image showing an object to be displayed as an aerial image, and the light emitted from the display unit in the air
  • an aerial image display device including an optical member that forms an image and a light reducing unit that reduces external light incident from the outside.
  • a concave mirror is required to display an image showing an object as an aerial image, and the size of the image showing the object or There was a problem that it was difficult to change the position.
  • the conventional guidance device or aerial image display device has a problem that proper guidance information may not be provided to the user of the device.
  • an object is to provide an authentication device, an electronic device, a method, and a program that can provide appropriate guidance information to a user.
  • An authentication apparatus is an example of a display unit, a sensor that acquires biological information of a part of the user's body, and a position of the user's body relative to the sensor.
  • a display control unit that displays a guidance image at a position in the display unit corresponding to the height.
  • FIG. 3 is a diagram illustrating functional blocks of an authentication device 100 mounted on the notebook PC 10 according to the first embodiment.
  • FIG. It is a front view which shows the state which opened notebook type PC10 of Embodiment 1.
  • FIG. 3 is a flowchart illustrating authentication processing of the notebook PC 10 according to the first embodiment. It is a figure which shows the notebook type PC10 by which the authentication apparatus of Embodiment 2 is mounted. It is a front view which shows the state which opened notebook type PC20 of Embodiment 2. FIG. It is a side view which shows the state which opened notebook type PC20 of Embodiment 2.
  • FIG. 6 is a diagram illustrating functional blocks of an authentication device 200 mounted on a notebook PC 20 according to Embodiment 2.
  • FIG. 10 is a flowchart illustrating an authentication process of the notebook PC 20 according to the second embodiment.
  • vein authentication in the authentication device of the comparative example will be described with reference to FIGS. 1 and 2.
  • FIG. 1 is a diagram illustrating a state in which a user holds a hand over an exemplary vein sensor 1 of a comparative example.
  • the vein sensor 1 shown in FIG. 1 is connected to a PC (Personal Computer) and captures a vein image necessary for biometric authentication of a user who uses the PC.
  • PC Personal Computer
  • the vein sensor 1 emits near infrared rays. Near-infrared light emitted from the vein sensor 1 is reflected by the palm of the user. The vein sensor 1 receives near infrared light reflected by the palm of the user.
  • hemoglobin in the red blood cells flowing in the veins loses oxygen, so it absorbs near-infrared light more than the part other than the veins. For this reason, when near infrared rays are irradiated to a palm, the reflected light of a part with a vein becomes weaker than the reflected light of a part other than a vein.
  • vein sensor 1 Since the vein image varies depending on the person, biometric authentication using the palm vein of the human body becomes possible by storing the palm vein image in the authentication device.
  • vein sensor 1 captures an image of the palm vein as described above, the user holds the palm above the vein sensor 1 in accordance with the focal length of the vein sensor 1.
  • the vein image of the palm is different between when the finger is opened and when the finger is closed. Also, the vein image of the palm is different between a state where the palm is horizontal and a state where the palm is inclined.
  • the vein sensor 1 is installed in a horizontal place, and the reading surface of the reading unit 1A of the vein sensor 1 is also horizontal.
  • the ⁇ axis is an axis extending in a horizontal direction in a plan view of the vein sensor 1 on a horizontal plane at a predetermined height above the vein sensor 1.
  • the user is required to place the palm in the width direction of the palm parallel to the ⁇ axis and hold it over the vein sensor 1 (make the angle in the width direction of the palm horizontal).
  • the ⁇ axis is an axis extending in a vertical direction in a plan view of the vein sensor 1 on a horizontal plane at a predetermined height above the vein sensor 1.
  • the user is required to hold the vein sensor 1 in the palm length direction (the direction connecting the wrist and the base of the finger) parallel to the ⁇ axis (make the palm length direction horizontal).
  • the ⁇ axis is orthogonal to the ⁇ axis in the horizontal plane.
  • the ⁇ axis is an axis orthogonal to the ⁇ axis and the ⁇ axis, and is an axis representing the height with respect to the vein sensor 1.
  • the user is required to position the palm at a height that is within ⁇ 20% that is the allowable range of the focal length of the vein sensor 1 in the ⁇ -axis direction.
  • the permissible range ( ⁇ 20%) shown here is a numerical value as an example, and is not intended to limit the permissible range to ⁇ 20%.
  • the direction indicated by the arrow A is a direction representing the degree of finger opening.
  • the user is required to hold the palm of the hand over the vein sensor 1 in a state where the finger is released and the finger is naturally opened.
  • the direction indicated by the arrow B is a direction indicating the degree of opening of the hand.
  • the user is required to hold the palm over the vein sensor 1 with the hand open so that the palm and fingers are all flat.
  • the direction indicated by arrow C is a direction representing the rotation of the arm.
  • the user is required to hold the palm over the vein sensor 1 so that the palm is horizontal without rotating the arm.
  • the direction indicated by the arrow D is a direction representing rotation around the ⁇ axis.
  • the user is required to hold the palm over the vein sensor 1 without rotating the palm around the ⁇ axis.
  • the user in order to obtain a vein image by holding the hand over the vein sensor 1, the user can adjust the position of the palm around the ⁇ axis, the ⁇ axis, and the ⁇ axis in addition to the arrow. Adjustments in the directions of A, arrow B, arrow C, and arrow D are required.
  • the main cause is considered to be that it is difficult to grasp the sense of distance in the height direction ( ⁇ -axis direction) of the vein sensor 1.
  • the vein sensor 1 is installed in a horizontal place and the reading surface of the reading unit 1A of the vein sensor 1 is horizontal has been described.
  • the reading surface of the vein sensor 1 and the reading unit 1A is not horizontal but has an angle with respect to the horizontal plane, the palm is required to match the angle of the reading surface of the vein sensor 1 and the reading unit 1A.
  • FIG. 2 is a diagram illustrating an example of an authentication window 2A displayed on the display 2 of the authentication device of the comparative example.
  • the authentication window 2A is displayed on the display 2 of the authentication device of the comparative example.
  • An image of the palm acquired by the vein sensor 1 is displayed on the authentication window 2A.
  • the palm image displayed in the authentication window 2 ⁇ / b> A represents the outline of the palm obtained by the vein sensor 1.
  • the image acquired by the vein sensor 1 includes the outline of the palm.
  • the authentication device of the comparative example extracts the outline of the palm from the image acquired by the vein sensor 1 and displays it on the authentication window 2A.
  • the authentication apparatus calculates the height of the palm from the palm image acquired by the vein sensor 1, and if the palm height is not within the allowable range (range of 20% ( ⁇ 20%) above and below the focal length). When the determination is made, a message prompting the user to move the palm up or down is displayed.
  • the authentication device displays a message “Please raise your palm a little more” in the authentication window 2A.
  • the authentication apparatus displays a message “Please lower your palm a little more” in the authentication window 2A.
  • the message for guiding the palm displayed in the height direction displayed by the authentication device of the comparative example may be difficult to understand how much the height should be shifted by this message alone.
  • the problem that it was difficult to adjust the height was not solved.
  • the authentication device of the comparative example displays a message for guiding the height of the palm, but does not perform guidance for items other than the height of the palm such as the angle of the palm, the degree of opening of the fingers or the hand. It was.
  • the authentication device of the comparative example has a problem that it is difficult for the user to match the palm height to the vein sensor 1 and a problem that it is not possible to provide a model for items other than the palm height. there were.
  • FIG. 3A is a diagram illustrating a hardware-side configuration of a notebook PC (Notebook Personal Computer) 10 in which the authentication apparatus according to the first embodiment is mounted.
  • FIG. 3B is a diagram showing a software-side configuration of the notebook PC 10 on which the authentication device according to Embodiment 1 is mounted.
  • a notebook PC 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, an HDD (Hard). Disk Drive) 13, display 14, and vein sensor 15.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • the CPU 11, the RAM 12, the HDD 13, the display 14, and the vein sensor 15 are connected by a bus 16, and a flash memory 17 connected to the bus 16 has a BIOS (Basic Input / Output). System) program is stored.
  • BIOS Basic Input / Output
  • the notebook PC 10 includes an authentication program 21, a specification DB (Data Base: database) 22, a 3D model DB (Data Base: database) 23, a display position calculation program 24, and a vein in the HDD 13. Data 25 is included.
  • DB Data Base: database
  • 3D model DB Data Base: database
  • Data 25 is included.
  • the authentication program 21, the specification DB 22, the 3D model DB 23, the display position calculation program 24, and the vein data 25 have a hierarchical structure as shown in FIG. 3B.
  • the authentication program 21 is a program used by the notebook PC 10 to execute an authentication process using biometric information of veins.
  • the specification DB 22 is a database including data representing dimensions of each part of the casing of the notebook PC 10, the position and dimensions of the display 14 in the casing, and the positions and dimensions of the vein sensor 15 in the casing. In the specification DB 22, various data are stored in association with each product name for a plurality of products.
  • the 3D model DB 23 is a database including data representing a hand image modeled three-dimensionally (3D (Three Dimension)) as a polygon model.
  • the modeled hand image is not an image that appears three-dimensionally protruding from the display 14, but is an image that is displayed three-dimensionally inside the display 14, and is an image that three-dimensionally represents the shape of a human hand. It is.
  • the modeled hand image is an example of an image for guiding the height of the palm (hereinafter referred to as an image for guidance), and details thereof will be described later with reference to FIG.
  • the display position calculation program 24 is a program used for calculating the position at which the guidance image is displayed on the display 14 of the notebook PC 10. The guidance image will be described later with reference to FIG.
  • the vein data 25 is data representing the vein image of the palm of the hand registered by the user of the notebook PC 10. For example, after purchasing the notebook PC 10, the user registers his / her palm vein data in the notebook PC 10 using the vein sensor 15 as an initial setting. In this manner, the vein data 25 is registered in the HDD 13.
  • FIG. 4 is a diagram illustrating functional blocks of the authentication device 100 mounted on the notebook PC 10 according to the first embodiment.
  • the functional block of the authentication device 100 shown in FIG. 4 is realized by the CPU 11 (see FIG. 3A) executing the authentication program 21 (see FIG. 3B).
  • the CPU 11 When executing the authentication program 21, the CPU 11 uses the data stored in the specification DB 22 and the 3D model DB 23 and the vein data 25 through the authentication program 21 and executes the display position calculation program 24.
  • the authentication device 100 includes a main control unit 101, a calculation unit 102, a display control unit 103, a sensor driver 104, an authentication unit 105, and a memory 106, and executes an authentication process.
  • the main control unit 101 is a control unit that supervises the authentication processing of the notebook PC 10.
  • the calculation unit 102 is an example of a position calculation unit that calculates a position where an image for guidance is displayed on the display 14 (see FIG. 3A).
  • the display control unit 103 displays an image for guidance at a position on the display 14 calculated by the calculation unit 102.
  • the sensor driver 104 acquires vein data from the image acquired by the vein sensor 15 (see FIG. 3A), and outputs the acquired vein data to the authentication unit.
  • the authentication unit 105 performs authentication based on the vein data input from the sensor driver 104.
  • the memory 106 is an example of the RAM 12 shown in FIG. 3A.
  • the memory 106 stores data necessary for the main control unit 101, the calculation unit 102, the display control unit 103, the sensor driver 104, and the authentication unit 105 to execute processing.
  • FIG. 5A is a front view showing a state in which the notebook PC 10 is opened
  • FIG. 5B is a side view showing a state in which the notebook PC 10 is opened.
  • the notebook PC 10 includes a housing 30 having a cover part 31 and a base part 32.
  • the cover unit 31 holds the display 14.
  • the cover part 31 includes frame parts 31 ⁇ / b> A and 31 ⁇ / b> B of the display 14.
  • the frame portion 31 ⁇ / b> A is located in the vertical direction on the left and right of the display 14 in a state where the cover portion 31 is opened with respect to the base portion 32.
  • the frame portion 31 ⁇ / b> B is positioned across the display 14 in the horizontal direction with the cover portion 31 opened with respect to the base portion 32.
  • the base part 32 is provided with a vein sensor 15, a touch pad 33, and a keyboard 34.
  • the keyboard 34 is indicated by a broken line.
  • the base unit 32 is placed on the installation surface when the notebook PC 10 is installed on a desk or the like that is a horizontal plane.
  • the base portion 32 has an upper surface parallel to the installation surface, and a touch pad 33 and a keyboard 34 are provided on the upper surface.
  • the cover part 31 is pivotally supported so that it can be opened and closed by rotating with respect to the base part 32.
  • 5A and 5B show a state in which the cover 31 is opened.
  • the display 14 faces the keyboard 34.
  • the display 14 may be a liquid crystal display, for example.
  • the display 14 displays a guidance image for guiding the user's palm to a position serving as a model of information of the vein sensor 15, and authentication. A window is displayed.
  • the vein sensor 15 is the same as the vein sensor 1 of the comparative example, and is an example of a sensor that acquires a vein image as biological information.
  • the vein sensor 15 according to the first embodiment is incorporated in the base portion 32 of the notebook PC 10.
  • the vein sensor 15 is disposed so as to be located on the left side of the touch pad 33 on the front side of the display 14 when viewed from the user of the notebook PC 10.
  • the palm is an example of a body part used in biometric authentication using the vein sensor 15, and the object held over the vein sensor 15 may be another part of the body.
  • the near side in the positional relationship between the vein sensor 15 and the display 14 means that the vein sensor 15 is viewed from the user of the notebook PC 10 with the cover 31 of the notebook PC 10 being opened from the base 32. It means that it is located in front of the display 14.
  • the touch pad 33 is disposed at the center of the base portion 32 in the width direction (lateral direction in FIG. 5A) on the front side of the keyboard 34 of the base portion 32.
  • dimensions a to f are defined as shown in FIGS. 5A and 5B.
  • the dimensions a to f are values determined from the specifications of the notebook PC 10.
  • Dimension a is the length in the lateral direction from the left side 32A of the base portion 32 to the center of the vein sensor 15.
  • the dimension b is the length in the vertical direction from the end side 32 ⁇ / b> B of the boundary between the base portion 32 and the cover portion 31 to the center of the vein sensor 15.
  • Dimension c is the length of the cover portion 31 in the horizontal direction
  • dimension d is the length of the cover portion 31 in the vertical direction
  • the dimension e is the horizontal length of the frame part 31 ⁇ / b> A on the side of the display 14 of the cover part
  • the dimension f is the length of the frame part 31 ⁇ / b> B on the display 14 of the cover part 31 in the vertical direction.
  • step difference between the display 14 and frame part 31A, 31B there is no level
  • the data representing these values is stored in the specification DB 22 (see FIG. 3B) as specification data representing the specifications of the notebook PC 10.
  • FIG. 6 is a diagram showing specification data stored in the specification DB 22 of the notebook PC 10.
  • the specification data includes a product name (notepc_ABC001), a dimension a (dimension_a_ABC001), a dimension b (dimension_b_ABC001), a dimension c (dimension_c_ABC001), a dimension d (dimension_d_ABC001), a dimension e (dimension_e_ABC001), and a dimension f (dimension_f_ABC001).
  • Dimension a (dimension_a_ABC001), dimension b (dimension_b_ABC001), dimension c (dimension_c_ABC001), dimension d (dimension_d_ABC001), dimension e (dimension_e_ABC001), and dimension f (dimension_f_ABC001) are associated with the product name (notepc_ABC001).
  • the specification data is identified by the authentication device 100 based on the product name, and the dimensions a to f are read out.
  • the product name is written as notepc_ABC001, but in reality, the model name of the notebook PC 10 is used for ABC001.
  • the dimensions a to f are described using dimension_a_ABC001 and the like and alphabets and numbers, but are actually numerical data representing the dimensions.
  • the authentication device 100 of the notebook PC 10 displays two images, which are an image for guiding the height of the palm and an image of the modeled hand, as guidance images.
  • the authentication device 100 uses the X and Y coordinate system defined on the surface of the display 14 with the upper left corner 14A of the display 14 as an origin, A position P at which the modeled hand image is displayed is calculated. The calculation for obtaining the position P is performed by the calculation unit 102 (see FIG. 4).
  • the authentication device 100 of the notebook PC 10 displays the modeled hand image on the display 14 so that the center of the palm of the modeled hand image is displayed at the position P.
  • the center of the palm is a point on the surface of the palm, which means the center of the palm in plan view.
  • the position P is a position represented by coordinates (X1, Y1) on the display 14 with the upper left corner 14A of the display 14 as the origin.
  • the coordinate X1 is a dimension obtained by subtracting the dimension e from the dimension a as shown in the equation (1), and represents the same position as the center of the vein sensor 15 in the lateral direction of the housing 30.
  • the coordinate Y1 corresponds to the position in the height direction in the display 14 corresponding to the height Z1 above the vein sensor 15, as shown in FIG. 5B.
  • the height Z1 is a focal length of the vein sensor 15, and is an ideal height when a user of vein authentication holds his hand over the vein sensor 15.
  • the authentication apparatus 100 is configured so that the center of the palm of the modeled hand image is displayed at the position P on the display 14 represented by the coordinates (X1, Y1) obtained by the equations (1) and (3). Displays a phantom hand image.
  • the position P is a position in the display 14 corresponding to a height serving as a model when the hand is held over the vein sensor 15, and is the same as the center of the vein sensor 15 in the lateral direction of the display 14. Position.
  • a user who performs vein authentication adjusts the height of his / her palm in accordance with the modeled hand image displayed on the display 14, whereby the palm is adjusted to an appropriate height above the vein sensor 15. Can be held over.
  • the user adjusts the height of his / her eyes E in addition to the height of his / her palm, and his / her palm and his / her eyes E are displayed on the display 14. If the height is set to the same height as the modeled hand image, the palm height can be accurately adjusted to the height Z1.
  • the distance that the vein sensor 15 can acquire the image of the vein of the palm of the user has a certain width around the focal length.
  • the vein sensor 15 can acquire an image of the veins of the palm within a range of 20% ( ⁇ 20%) above and below the focal length.
  • ⁇ 20% of the focal length is, for example, about 5 cm.
  • the permissible range ( ⁇ 20%) shown here is a numerical value as an example, and is not intended to limit the permissible range to ⁇ 20%.
  • the range in which the vein sensor 15 can acquire an image of the palm around the focal length is referred to as an allowable range.
  • the authentication device 100 of the notebook PC 10 represents an allowable range in the palm height direction in vein authentication as an image for guiding the palm height in addition to the modeled hand image described above.
  • a belt-like image is displayed on the display 14.
  • FIG. 7 is a diagram showing a display on the display 14 of the notebook PC 10 on which the authentication device 100 according to the first embodiment is mounted.
  • the X and Y coordinates defined on the surface of the display 14 have the upper left corner 14A of the display 14 as the origin, and have an X axis in the horizontal direction and a Y axis in the downward direction as shown in FIG.
  • a modeled hand image 120, a band-shaped image 130 representing an allowable range, and an authentication window 140 are displayed on the display 14 when the user logon of the notebook PC 10 is authenticated.
  • the modeled hand image 120 represents the appearance of the right hand modeled as a polygon model.
  • the hand image 120 is a polygon model representing the shape of a hand held over the vein sensor 15. In addition to the position adjustment about the ⁇ axis, ⁇ axis, and ⁇ axis described in the comparative example with reference to FIG. 1, the hand image 120 is adjusted in the directions of the arrows A, B, C, and D. Has an ideal shape.
  • the hand image 120 is displayed such that the center of the palm is located at a position P represented by coordinates (X1, Y1) with the upper left corner 14A of the display 14 as the origin.
  • the center of the palm is a point on the surface of the palm, which means the center of the palm in plan view.
  • the band-shaped image 130 representing the allowable range has a width Y2 with the same Y coordinate Y1 as the position P in the height direction of the display 14, and is displayed from the left end to the right end of the display 14 in the X-axis direction. This is a strip-shaped image.
  • the width Y2 of the belt-like image 130 is obtained by converting a width of ⁇ 20% of the height Z1 corresponding to the focal length of the vein sensor 15 (see FIGS. 5A and 5B) into a width on the display 14. .
  • the width Y2 of the belt-like image 130 is expressed by the equation (4). expressed.
  • Y2 (Z1 / sin ⁇ ) ⁇ 0.4 (4)
  • a message 131 “Move your hand to this height” is displayed at the center of the strip-shaped image 130 in the X-axis direction.
  • the authentication window 140 is the same as the authentication window 2A shown in FIG. 2, and an image of the palm acquired by the vein sensor 15 is displayed.
  • the authentication device 100 calculates the palm height from the palm image acquired by the vein sensor 15 and determines that the palm height is not within the range of 20% above and below the height Z1 corresponding to the focal length. A message is displayed prompting the user to move the palm up or down.
  • the authentication device 100 displays a message “Please raise your palm a little more” in the authentication window 140.
  • the authentication apparatus 100 displays a message “Please lower your palm a little more” in the authentication window 140.
  • the authentication device 100 determines that the palm position is shifted in any of the front, rear, left and right directions with respect to the vein sensor 15 from the palm image acquired by the vein sensor 15 even if the palm height is appropriate. If it is determined that the user is present, a message prompting the user to move his / her palm in the forward / backward / left / right direction relative to the vein sensor 15 is displayed.
  • the authentication device 100 displays a message “Please move your palm to the right a little more” in the authentication window 2A when the palm position is on the left side in the screen.
  • the authentication device 100 displays a message in the authentication window 2A that “please bring your palm closer to the left” if the palm position is on the right side in the screen.
  • the authentication device 100 displays a message “Please move the palm a little further backward” in the authentication window 2A.
  • the authentication apparatus 100 displays a message “Please move the palm a little further forward” in the authentication window 2A.
  • the determination of whether the height of the palm is high or low and the determination of whether the palm is closer to the front, back, left or right with respect to the center of the screen are performed by, for example, image processing on the background in the four sides of the palm
  • the authentication apparatus 100 may determine whether the lengths X5, X6, Y5, and Y6 of the part are longer or shorter than the reference value.
  • the length X5 is the length in the X-axis direction of the left background in the palm image
  • the length X6 is the length in the X-axis direction of the right background in the palm image
  • the length Y5 is the length of the lower background in the Y-axis direction in the palm image
  • the length Y6 is the length of the upper background in the Y-axis direction in the tip image of the middle finger.
  • the user while looking at the authentication window 140, the user holds the palm over the vein sensor 15 so that his / her palm is positioned at the center of the authentication window 140. In this state, when the height of the palm of the user is at the focal length, it is assumed that the four distances X5, X6, Y5, and Y6 are set to 2 cm in the image acquired by the vein sensor 15. .
  • the authentication device 100 determines whether the palm position is high or low based on the distribution of the distances X5, X6, Y5, and Y6 in the four directions. It may be determined which side is approaching.
  • the authentication apparatus 100 determines that the palm height of the user is higher than the upper limit of the allowable range of the focal length. A message “Please lower your palm a little more” may be displayed in the authentication window 140.
  • the authentication apparatus 100 determines that the palm height of the user is lower than the lower limit of the allowable range of the focal length.
  • the message “Please raise your palm a little more” may be displayed in the authentication window 140.
  • the authentication device 100 may determine whether or not the palm height of the user is within the allowable range of the focal length as described above.
  • the authentication apparatus 100 determines that the palm position is the vein sensor 15 based on the distribution of the four distances X5, X6, Y5, and Y6. On the other hand, it may be determined whether it is shifted to the front, back, left or right.
  • the authentication apparatus 100 determines that the hand is closer to the left side with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the authentication apparatus 100 determines that the hand is closer to the right side with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the authentication device 100 determines that the hand is behind the vein sensor 15 and determines that “the palm is slightly forward. "Please send it to” in the authentication window 140.
  • the authentication apparatus 100 determines that the hand is closer to the front with respect to the vein sensor 15, and " "Please send it to” in the authentication window 140.
  • the above-described method for determining the positional deviation of the palm position relative to the vein sensor 15 in the vertical direction (height direction) and the front-rear and left-right directions is merely an example, and may be performed by a method other than those described above.
  • Detection of the palm height as described above based on the palm image acquired by the vein sensor 15 is performed by the authentication unit 105 (see FIG. 4) as an example of the height detection unit, and the message display is a message generation. This is performed by the authentication unit 105 as an example of the unit.
  • the authentication window 140 has coordinates (X3, Y3) of the upper left corner of the window, a length X4 in the X-axis direction, and a length Y4 in the Y-axis direction. It is displayed in an area determined by the length X4 and the length Y4.
  • the coordinates (X3, Y3) and the values of the length X4 and the length Y4 are set so as not to overlap with the hand image 120 and the belt-like image 130.
  • the authentication apparatus 100 displays such a message on the authentication window 140 of the display 14 to perform a process of guiding the palm in the height direction to a user who performs palm vein authentication.
  • the notebook PC 10 is used in a state where the cover portion 31 is opened with respect to the base portion 32.
  • angle ⁇ (see FIG. 5B) of the cover part 31 with respect to the base part 32 is often used between 85 degrees and 120 degrees, for example.
  • the notebook PC 10 sets the angle ⁇ of the cover portion 31 with respect to the base portion 32 to 102.5 degrees, calculates the value of the Y coordinate Y1 of the position P from Expression (2), and The value of the width Y2 of the belt-like image 130 is calculated from the equation (4).
  • 102.5 degrees is a median value from 85 degrees to 120 degrees.
  • the notebook PC 10 uses the equations (1), (3-1), and (4-1) to represent the hand image 120 that is modeled as a polygon model and a belt-like shape that represents an allowable range.
  • a Y-coordinate value Y1 necessary for displaying the image 130 and the width Y2 of the belt-like image 130 are calculated. These calculations are realized by the CPU 11 executing the display position calculation program 24 (see FIG. 3B).
  • the authentication window 140 is displayed on the display 14, thereby guiding the user to the appropriate height of the palm. To do.
  • FIG. 8 is a flowchart showing authentication processing of the notebook PC 10 according to the first embodiment. The process shown in FIG. 8 is executed by the authentication apparatus 100 shown in FIG.
  • the main control unit 101 obtains the product name of the notebook PC 10 described in the BIOS (step S1).
  • the main control unit 101 reads from the specification DB 22 data representing the dimensions of each part of the casing of the notebook PC 10, the position and dimensions of the display 14 in the casing 30, and the position and dimensions of the vein sensor 15 in the casing. (Step S2). Specifically, the main control unit 101 reads the dimensions a to f included in the specification data shown in FIG.
  • the calculation unit 102 includes X1 and Y1 representing the coordinates (X1, Y1) of the position P, the width Y2 of the band-shaped image 130, the coordinates (X3 and Y3) representing the position of the authentication window 140, and the length X4. , Y4 are calculated (step S3).
  • the calculation unit 102 uses the specification data read by the main control unit 101 in step S2 and the equations (1), (3-1), and (4-1) to calculate the coordinates (X1, Y1) of the position P. X1 and Y1 to be expressed and the width Y2 of the belt-like image 130 are calculated.
  • the calculation unit 102 calculates the coordinates (X3, Y3) and the values of the length X4 and the length Y4 using the specification data read by the main control unit 101 in step S2.
  • the area for displaying the authentication window 140 is set so as not to overlap the hand image 120 and the band-shaped image 130.
  • the display control unit 103 displays the hand image 120 and the band-shaped image 130 on the display 14 using the coordinates (X1, Y1) and the width Y2 calculated in step S3, and the coordinates (X3, Y3). And the lengths X4 and Y4 are used to display the authentication window 140 on the display 14 (step S4).
  • the hand image 120, the band-shaped image 130, and the authentication window 140 are displayed on the display 14, the position of the hand is guided by the hand image 120, the band-shaped image 130, and the authentication window 140. Hold the palm of your hand over the vein sensor 15.
  • the authentication unit 105 determines the height of the hand relative to the vein sensor 15 based on the size of the palm image acquired from the vein sensor 15 through the sensor driver 104. If the palm height is below the lower limit of the allowable range, the authentication unit 105 notifies the main control unit 101 that the height is below the lower limit of the allowable range. As a result, the main control unit 101 causes the display control unit 103 to display a message 131 “Please raise your palm a little more” on the display 14.
  • the authentication unit 105 notifies the main control unit 101 that the height exceeds the upper limit of the allowable range. Accordingly, the main control unit 101 causes the display control unit 103 to display a message 131 “Please lower your palm a little more” on the display 14.
  • the authentication unit 105 determines that the palm height is within the allowable range, the authentication unit 105 notifies the main control unit 101 that the palm height is within the allowable range. In this case, the main control unit 101 does not notify the display control unit 103 and the height window message 131 is not displayed in the authentication window 140.
  • the sensor driver 104 acquires vein data from the vein sensor 15 (step S5). Specifically, the sensor driver 104 drives the vein sensor 15 to perform imaging using near infrared rays, thereby acquiring an image representing a vein pattern of a human palm. The vein data representing the acquired image is input to the authentication unit 105.
  • the authentication unit 105 determines whether or not the vein data acquired in step S5 is data that can be authenticated (step S6). Whether or not the data is authentic can be determined by determining whether the palm shape and position are the conditions around the ⁇ -axis, ⁇ -axis, and ⁇ -axis shown in FIG. 1, the arrows A, the arrow B, the arrow C-axis, and the arrow D. This is done by determining whether all the direction conditions are satisfied. The process for determining whether or not each condition is satisfied is executed by the authentication unit 105 performing image processing on the palm image acquired by the vein sensor 15.
  • step S6 If it is determined in step S6 that the vein data can be authenticated, the flow proceeds to step S7.
  • the authentication unit 105 performs vein authentication using the vein data determined as the vein data that can be authenticated in step S6 (step S7).
  • the vein authentication is performed by reading the vein data 25 (see FIG. 3B) and comparing it with the vein data acquired by the vein sensor 15 and the sensor driver 104. At this time, vein data acquired by the vein sensor 15 and the sensor driver 104 is displayed in the authentication window 140.
  • the authentication unit 105 compares the vein data acquired by the vein sensor 15 and the sensor driver 104 with the vein data 25 (see FIG. 3B) and determines whether or not they match (step S8).
  • step S8 If the main control unit 101 determines in step S8 that the authentication unit 105 matches, the main control unit 101 advances the flow to step S9, and acquires the vein data acquired by the vein sensor 15 and the sensor driver 104 and displayed in the authentication window. Delete (step S9).
  • step S6 If it is determined in step S6 that the vein data acquired in step S5 is not authenticable, the main control unit 101 returns the flow to step S5. As a result, vein data is acquired from the vein sensor 15 by the sensor driver 104.
  • step S4 even if the hand image 120 and the belt-like image 130 are displayed in step S4, the user moves the hand height when the vein sensor 15 captures the palm vein image. In some cases, appropriate vein data may not have been acquired.
  • step S6 the flow is returned to step S5 to acquire vein data again, and in step S6, it is again determined whether the vein data is data that can be authenticated.
  • step S8 Even when it is determined in step S8 that they do not match, the main control unit 101 returns the flow to step S5. As a result, the processing after step S5 is executed again.
  • vein data when vein data cannot be acquired correctly, the acquired vein data does not match the vein data 25. In such a case, the flow is returned to step S5 to acquire vein data again, and in step S6, it is determined again whether the vein data is data that can be authenticated.
  • step S8 If it is determined in step S8 that they do not match, there may be a case where a person other than the person is performing vein authentication.
  • the authentication device 100 of the notebook PC 10 displays the hand image 120, the band-shaped image 130, and the authentication window 140 on the display 14 in step S4.
  • the hand image 120 is an image representing a hand modeled as a polygon model, and is displayed at a height serving as a model for holding the hand over the vein sensor 15.
  • the belt-like image 130 is an image having a width Y2 corresponding to the allowable range of the focal length of the vein sensor 15, and is displayed on the display 14 together with the hand image 120 as shown in FIG.
  • the user of the notebook PC 10 can easily adjust his / her palm to an appropriate height above the vein sensor 15 when performing vein authentication in order to start using the notebook PC 10.
  • the hand image 120 is an image representing a hand modeled as a polygon model, not only the height of the palm but also how to open the finger, how to open the palm, the angle of the palm, etc. By combining them, it becomes easy to make the correct palm posture necessary for vein authentication.
  • the authentication device 100 of the notebook PC 10 displays the authentication window 140 on the display 14 in addition to the hand image 120 and the band-shaped image 130, the user authenticates in addition to the hand image 120 and the band-shaped image 130.
  • the correct posture of the palm can be created while looking at the window 140.
  • the authentication device 100 that can provide appropriate guidance information to the user and the notebook PC 10 on which the authentication device 100 is mounted.
  • the authentication device 100 of the notebook PC 10 displays the hand image 120 and the belt-shaped image 130 at a position on the display 14 corresponding to the height required for vein authentication.
  • the horizontal position of the hand image 120 coincides with the position of the vein sensor 15 of the notebook PC 10, and the hand image 120 is an image that three-dimensionally represents the ideal hand posture as a polygon model.
  • a band-shaped image 130 representing the allowable range of authentication by the vein sensor 15 is displayed on the display 14.
  • the authentication device 100 of the first embodiment is significantly improved in user convenience compared to the authentication device of the comparative example, and the user can easily touch the vein sensor 15 with the correct height and posture. Can be held over.
  • the hand image 120 is an image using a polygon model.
  • the hand image 120 can represent the shape of the hand as a model three-dimensionally
  • the polygon model It is not limited to the image used.
  • the authentication device 100 is mounted on the notebook PC 10 .
  • the relative position between the vein sensor 15 and the display 14 is determined, the authentication device 100 can be mounted on a desktop PC. Is possible.
  • the authentication device 100 can be mounted on an electronic device other than a PC.
  • an electronic device include an entry / exit management system, ATM (Automated Teller Machine), and the like.
  • the notebook PC 20 according to the second embodiment includes an angle sensor that detects an angle of the cover unit 31 with respect to the base unit 32, and a position (Y coordinate) for displaying the hand image 120 and the belt-shaped image 130 on the display 14 according to the angle. Is different from the notebook type PC 20 of the first embodiment.
  • FIG. 9 is a diagram showing a notebook PC 20 on which the authentication apparatus according to the second embodiment is mounted.
  • the notebook PC 20 includes an angle sensor 220 in addition to the CPU 11, RAM 12, HDD 13, display 14, and vein sensor 15.
  • the angle sensor 220 is connected to the CPU 11, RAM 12, HDD 13, display 14, and vein sensor 15 through the bus 16.
  • FIG. 10A is a front view showing a state in which the notebook PC 20 is opened
  • FIG. 10B is a side view showing a state in which the notebook PC 20 is opened.
  • the notebook PC 20 of the second embodiment is different from the notebook PC 10 of the first embodiment (see FIGS. 5A and 5B) in that it includes an angle sensor 220 in appearance.
  • the angle sensor 220 may be any sensor that can detect the angle ⁇ at which the cover portion 31 is opened with respect to the base portion 32.
  • the angle sensor 220 can be opened and closed by rotating the cover portion 31 with respect to the base portion 32. What is necessary is just to attach to the rotating shaft attached.
  • the angle sensor 220 may be any sensor as long as it can detect the angle ⁇ at which the cover portion 31 is opened with respect to the base portion 32.
  • a rotary potentiometer may be used.
  • FIG. 11 is a diagram illustrating functional blocks of the authentication device 200 mounted on the notebook PC 20 according to the second embodiment.
  • the functional block of the authentication device 200 shown in FIG. 11 is realized by the CPU 11 executing the authentication program 21 (see FIG. 3B).
  • the CPU 11 When executing the authentication program 21, the CPU 11 uses the data stored in the specification DB 22 and the 3D model DB 23 and the vein data 25 through the authentication program 21 and executes the display position calculation program 24.
  • the authentication device 200 includes a main control unit 101, a calculation unit 102, a display control unit 103, a sensor driver 104, an authentication unit 105, a memory 106, and an angle calculation unit 221, and executes an authentication process. .
  • the main control unit 101, the calculation unit 102, the display control unit 103, the sensor driver 104, the authentication unit 105, and the memory 106 are the same as those included in the authentication device 100 of the first embodiment.
  • the angle calculation unit 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220.
  • the authentication device 200 of the notebook PC 20 of the second embodiment has a hand image 120, a belt-like image 130, and an authentication window 140 as guidance images. Is displayed on the display 14.
  • the authentication device 200 of the notebook PC 20 changes the position Y1 in the Y-axis direction where the hand image 120 and the band-shaped image 130 are displayed according to the angle ⁇ detected by the angle sensor 220.
  • the width Y2 of the band-like image 130 displayed on the display 14 is also changed according to the angle ⁇ detected by the angle sensor 220.
  • the width Y2 of the band-like image 130 is calculated by the equation (4) described in the first embodiment.
  • the authentication device 200 of the notebook PC 20 according to the second embodiment is a hand modeled at a position P (see FIG. 7) on the display 14 represented by the coordinates (X1, Y1) obtained by the equations (1) and (3).
  • the modeled hand image 120 is displayed so that the center of the palm of the image is displayed.
  • the authentication device 200 of the notebook PC 20 displays the belt-like image 130 at the position Y1 in the Y-axis direction obtained by Expression (3).
  • the angle ⁇ detected by the angle sensor 220 is substituted for ⁇ in Expression (3), and the position Y1 in the Y-axis direction is obtained by the calculation unit 102.
  • the angle ⁇ detected by the angle sensor 220 is substituted into Expression (4) for obtaining the width Y2 of the belt-shaped image 130 in the Y-axis direction, and the arithmetic unit 102 calculates the width ⁇ 2 of the belt-shaped image 130 in the Y-axis direction.
  • the width Y2 is calculated.
  • the display 14 corresponding to the height Z1 above the vein sensor 15 according to the angle ⁇ whatever the angle ⁇ of the cover portion 31 with respect to the base portion 32 is between 0 degrees and 180 degrees.
  • the hand image 120 and the belt-like image 130 can be accurately displayed at the inner height.
  • the Y axis of the belt-like image 130 matches the allowable range of the focal length of the vein sensor 15 regardless of the angle ⁇ of the cover portion 31 with respect to the base portion 32 between 0 ° and 180 °.
  • the direction width Y2 can be set accurately.
  • the hand image 120 and the band-shaped image 130 are accurately displayed at positions that are more appropriate examples. be able to.
  • FIG. 12 is a flowchart showing authentication processing of the notebook PC 20 according to the second embodiment. The process shown in FIG. 12 is executed by the authentication apparatus 200 shown in FIG.
  • the main control unit 101 obtains the product name of the notebook PC 20 described in the BIOS (step S21).
  • the main control unit 101 reads from the specification DB 22 data representing the dimensions of each part of the casing of the notebook PC 20, the position and dimensions of the display 14 in the casing 30, and the position and dimensions of the vein sensor 15 in the casing. (Step S22). Specifically, the main control unit 101 reads the dimensions a to f included in the specification data shown in FIG.
  • the angle calculator 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220 (step S23).
  • the calculation unit 102 includes X1 and Y1 representing the coordinates (X1, Y1) of the position P, the width Y2 of the band-shaped image 130, the coordinates (X3 and Y3) representing the position of the authentication window 140, and the length X4. , Y4 are calculated (step S24).
  • the calculation unit 102 uses the specification data read by the main control unit 101 in step S22, the expressions (1), (3), and (4), and the data representing the angle ⁇ calculated in step S23.
  • X1 and Y1 representing the coordinates (X1, Y1) of P and the width Y2 of the band-shaped image 130 are calculated.
  • the calculation unit 102 calculates the coordinates (X3, Y3) and the values of the length X4 and the length Y4 using the specification data read by the main control unit 101 in step S22.
  • the area for displaying the authentication window 140 is set so as not to overlap the hand image 120 and the band-shaped image 130.
  • the display control unit 103 displays the hand image 120 and the band-shaped image 130 on the display 14 using the coordinates (X1, Y1) and the width Y2 calculated in step S24, and the coordinates (X3, Y3). And the lengths X4 and Y4 are used to display the authentication window 140 on the display 14 (step S25).
  • the position in the Y-axis direction where the hand image 120 and the belt-shaped image 130 are displayed is determined according to the angle ⁇ of the cover portion 31 with respect to the base portion 32. .
  • the user By displaying the hand image 120, the band-shaped image 130, and the authentication window 140 on the display 14, the user holds the palm over the vein sensor 15.
  • the authentication unit 105 determines the height of the hand relative to the vein sensor 15 based on the size of the palm image acquired from the vein sensor 15 through the sensor driver 104. If the palm height is below the lower limit of the allowable range, the authentication unit 105 notifies the main control unit 101 that the height is below the lower limit of the allowable range. As a result, the main control unit 101 causes the display control unit 103 to display a message 131 “Please raise your palm a little more” on the display 14 (see FIG. 7).
  • the authentication unit 105 notifies the main control unit 101 that the height exceeds the upper limit of the allowable range.
  • the main control unit 101 causes the display control unit 103 to display a message 131 “Please lower your palm a little more” on the display 14 (see FIG. 7).
  • the authentication unit 105 determines that the palm height is within the allowable range, the authentication unit 105 notifies the main control unit 101 that the palm height is within the allowable range. In this case, the main control unit 101 does not notify the display control unit 103 and the height window message 131 is not displayed in the authentication window 140.
  • the sensor driver 104 acquires vein data from the vein sensor 15 (step S26). Specifically, the sensor driver 104 drives the vein sensor 15 to perform imaging using near infrared rays, thereby acquiring an image representing a vein pattern of a human palm. The vein data representing the acquired image is input to the authentication unit 105.
  • the authentication unit 105 determines whether or not the vein data acquired in step S26 is data that can be authenticated (step S27). Whether or not the data is authentic can be determined by determining whether the palm shape and position are the conditions around the ⁇ -axis, ⁇ -axis, and ⁇ -axis shown in FIG. 1, the arrows A, the arrow B, the arrow C-axis, and the arrow D. This is done by determining whether all the direction conditions are satisfied.
  • step S27 If it is determined in step S27 that the vein data can be authenticated, the flow proceeds to step S28.
  • the authentication unit 105 performs vein authentication using the vein data determined as the vein data that can be authenticated in step S27 (step S28).
  • the vein authentication is performed by reading the vein data 25 (see FIG. 3B) and comparing it with the vein data acquired by the vein sensor 15 and the sensor driver 104. At this time, vein data acquired by the vein sensor 15 and the sensor driver 104 is displayed in the authentication window 140.
  • the authentication unit 105 compares the vein data acquired by the vein sensor 15 and the sensor driver 104 with the vein data 25 (see FIG. 3B) and determines whether or not they match (step S29).
  • step S30 If the main control unit 101 determines that the authentication unit 105 matches in step S29, the main control unit 101 advances the flow to step S30 and deletes the vein data acquired by the vein sensor 15 and the sensor driver 104 (step S30).
  • step S27 when it is determined that the vein data acquired in step S26 is not authenticable data, the main control unit 101 returns the flow to step S23.
  • the angle calculation unit 221 calculates and outputs a digital signal representing the angle ⁇ based on the analog signal representing the angle ⁇ output from the angle sensor 220, and the processes in and after step S24 are executed again. That is, the angle ⁇ is measured again.
  • the angle ⁇ changes from that at the time of detection.
  • the position Y1 in the Y-axis direction for displaying the image 130 is not an appropriate position for guiding the palm of the user.
  • the angle ⁇ is detected again, the position Y1 in the height direction where the hand image 120 and the belt-like image 130 are displayed is recalculated, and the palm of the user is guided to the correct height.
  • step S29 Even when it is determined in step S29 that they do not match, the main control unit 101 returns the flow to step S23. As a result, the processing after step S23 is executed again. Even in this case, the angle ⁇ is measured again, and the processes in and after step S23 are executed again.
  • the angle ⁇ changes from that at the time of detection.
  • the position Y1 in the Y-axis direction for displaying the image 130 is not an appropriate position for guiding the palm of the user.
  • step S27 even if it is determined that the vein data can be authenticated in step S27 and the flow proceeds to step S29, the palm of the user cannot be properly guided in the height direction, and thus the acquisition is performed. There is a case where the vein data thus obtained does not match the vein data 25.
  • the angle ⁇ is detected again, the position Y1 in the height direction where the hand image 120 and the belt-like image 130 are displayed is recalculated, and the palm of the user is guided to the correct height.
  • step S29 If it is determined in step S29 that they do not match, there is a possibility that a person other than the person is performing vein authentication.
  • the authentication device 200 of the notebook PC 20 displays the hand image 120, the band-shaped image 130, and the authentication window 140 on the display 14 in step S25.
  • the hand image 120 is an image representing a hand modeled as a polygon model, and is displayed at a height that serves as a model for holding the hand over the vein sensor 15 (see FIG. 7).
  • the belt-like image 130 is an image having a width Y2 corresponding to the allowable range of the focal length of the vein sensor 15, and is displayed on the display 14 together with the hand image 120 (see FIG. 7).
  • the hand image 120 and the band-shaped image 130 are obtained by adjusting the position Y1 in the Y-axis direction according to the angle ⁇ of the cover portion 31 with respect to the base portion 32 detected by the angle sensor 220. Yes.
  • the user of the notebook PC 20 can easily adjust his / her palm to an appropriate height above the vein sensor 15 when performing vein authentication in order to start using the notebook PC 20.
  • the hand image 120 is an image representing a hand modeled as a polygon model, not only the height of the palm but also how to open the finger, how to open the palm, the angle of the palm, etc. By combining them, it becomes easy to make the correct palm posture necessary for vein authentication.
  • the authentication device 200 of the notebook PC 20 displays the authentication window 140 on the display 14 in addition to the hand image 120 and the band-shaped image 130, the user authenticates in addition to the hand image 120 and the band-shaped image 130.
  • the correct posture of the palm can be created while looking at the window 140.
  • the authentication device 200 that can provide appropriate guidance information to the user and the notebook PC 20 on which the authentication device 200 is mounted.
  • the hand image 120 and the belt-shaped image 130 are obtained by adjusting the position Y1 in the Y-axis direction according to the angle ⁇ of the cover portion 31 with respect to the base portion 32 detected by the angle sensor 220. Yes.
  • the specification DB 22 stores each specification data for a plurality of products.
  • specification data only for the notebook PC 10 on which the authentication device 100 is mounted may be registered in the notebook PC 10.
  • the process of reading the specification data from the specification DB 22 based on the product name is not necessary, and the process of simply reading the specification data registered in the notebook PC 10 is performed. It will be.
  • the CPU 11 executes the above program to realize the above functions and execute the above processing in the present embodiment.
  • the CPU 11 realizes the above functions and the above in the present embodiment.
  • the processing circuit in the present embodiment may be an MPU (Micro Processing Unit), an FPGA (Field-Programmable Gate Array), or other dedicated hardware.
  • a program that causes a computer or other machine or device (hereinafter referred to as a computer or the like) to realize or process any of the above functions may be recorded on a computer-readable recording medium. Then, by causing a computer or the like to read and execute the program of the recording medium, functions and processing realized by the program are provided.
  • a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like.
  • Examples of such recording media that can be removed from a computer or the like include memories such as a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disc, a DAT, an 8 mm tape, and a flash memory.
  • cards As a recording medium fixed to a computer or the like, there are a hard disk, a ROM (read only memory), and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することを課題とする。 認証装置は、表示部と、利用者の身体の部位の生体情報を取得するセンサと、前記センサに対して利用者の身体の部位を位置する際の手本となる高さに対応する前記表示部内の位置に、誘導用の画像を表示する表示制御部とを含む。

Description

認証装置、電子装置、方法及びプログラム
 本願発明は、認証装置、電子装置、方法及びプログラムに関する。
 従来より、非接触で対象物をかざして測定を行う装置において、対象物を測定するのに適切な位置に誘導するために、適切な位置に対象物の形状に基づいた手本となる虚像を表示し、対象物と虚像の位置・姿勢・形状の差を算出し、手本の虚像と同じ場所に算出した差を示す表示を行う誘導装置があった。
 また、所定の画像を空中で結像させて空中像を表示する空中像表示装置であって、空中像として表示する物体を示す画像を表示する表示手段と、表示手段から出射された光線を空中像として結像させる光学部材と、外部から入射される外光を減光する減光手段とを含む空中像表示装置があった。
国際公開2007/141860号 特開2004-318041号公報
 ところで、従来の誘導装置では、例えば、利用者の眼の位置が予め定められた適切な位置にない場合、又は、ディスプレイ等の表示面の角度が予め定められた角度と異なる場合には、虚像を適切な位置に表示できないという問題があった。
 また、従来の空中像表示装置では、例えば、物体を示す画像を空中像として表示するために凹面鏡が必要になるなど、大がかりな装置が必要になるという問題と、物体を示す画像の大きさ又は位置を変更することが困難であるという問題があった。
 このように従来の誘導装置又は空中像表示装置では、装置の利用者に適切な誘導情報を提供できない場合があるという問題があった。
 そこで、利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することを目的とする。
 本発明の実施の形態の認証装置は、表示部と、利用者の身体の部位の生体情報を取得するセンサと、前記センサに対して利用者の身体の部位を位置する際の手本となる高さに対応する前記表示部内の位置に、誘導用の画像を表示する表示制御部とを含む。
 利用者に適切な誘導情報を提供できる認証装置、電子装置、方法及びプログラムを提供することができる。
比較例の例示的な静脈センサ1に利用者が手をかざしている状態を示す図である。 比較例の認証装置のディスプレイ2に表示される認証ウィンドウ2Aの一例を示す図である。 実施の形態1の認証装置が実装されるノート型PC10のハードウェア側の構成を示す図である。 実施の形態1の認証装置が実装されるノート型PC10のソフトウェア側の構成を示す図である。 実施の形態1のノート型PC10に搭載される認証装置100の機能ブロックを表す図である。 実施の形態1のノート型PC10を開いた状態を示す正面図である。 実施の形態1のノート型PC10を開いた状態を示す側面図である。 実施の形態1のノート型PC10の仕様DB22に格納される仕様データを示す図である。 実施の形態1の認証装置を搭載したノート型PC10のディスプレイ14の表示を示す図である。 実施の形態1のノート型PC10の認証処理を示すフローチャートである。 実施の形態2の認証装置が実装されるノート型PC10を示す図である。 実施の形態2のノート型PC20を開いた状態を示す正面図である。 実施の形態2のノート型PC20を開いた状態を示す側面図である。 実施の形態2のノート型PC20に搭載される認証装置200の機能ブロックを表す図である。 実施の形態2のノート型PC20の認証処理を示すフローチャートである。
 以下、本発明の認証装置を適用した実施の形態について説明する。
 実施の形態1、2の認証装置及び電子装置について説明する前に、図1及び図2を用いて、比較例の認証装置における静脈認証について説明する。
 図1は、比較例の例示的な静脈センサ1に利用者が手をかざしている状態を示す図である。
 図1に示す静脈センサ1は、PC(Personal Computer)に接続されており、PCを利用する利用者の生体認証を行うのに必要な静脈の画像を撮影する。
 静脈センサ1は、近赤外線を発光する。静脈センサ1から発光された近赤外線は、利用者の手のひらで反射される。静脈センサ1は、利用者の手のひらで反射された近赤外線を受光する。
 ここで、静脈に流れている赤血球の中のヘモグロビンは酸素を失っているため、静脈以外の部分よりも近赤外線を吸収する。このため、手のひらに近赤外線を照射すると、静脈がある部分の反射光は静脈以外の部分の反射光よりも弱くなる。
 従って、静脈センサ1で得られる画像には、静脈の部分だけが暗く映し出される。この静脈の画像は人によって異なるため、手のひらの静脈の画像を認証装置に記憶させておくことにより、人体の手のひらの静脈を利用した生体認証が可能になる。
 ところで、静脈センサ1は上述のように手のひらの静脈の画像を撮影するため、利用者は静脈センサ1の焦点距離に合わせて静脈センサ1の上方に手のひらをかざすことになる。
 ここで、手のひらの静脈の画像は、指を開いた状態と、指を閉じた状態とで異なる。また、手のひらを水平にした状態と、斜めにした状態とでは、手のひらの静脈の画像は異なる。
 このため、静脈センサ1で手のひらの静脈の撮影を行う場合には、利用者はある一定のルールに従って手のひらを静脈センサ1にかざす必要がある。
 例えば、利用者が静脈センサ1に手のひらをかざす際には、図1に示すように、α軸、β軸、及びγ軸周りの位置調整に加えて、矢印A、矢印B、矢印C、及び矢印Dの各方向における位置調整が求められる。ここで、静脈センサ1は、水平な場所に設置されており、静脈センサ1の読み取り部1Aの読み取り面も水平であることとする。
 α軸は静脈センサ1の上方の所定の高さにある水平面上で、静脈センサ1の平面視における横方向に延びる軸である。利用者には、手のひらの幅方向をα軸に平行にして静脈センサ1にかざすこと(手のひらの幅方向の角度を水平にすること)が求められる。
 β軸は静脈センサ1の上方の所定の高さにある水平面上で、静脈センサ1の平面視における縦方向に延びる軸である。利用者には、手のひらの長さ方向(手首と指の付け根を結ぶ方向)をβ軸に平行にして静脈センサ1にかざすこと(手のひらの長さ方向の角度を水平にすること)が求められる。なお、β軸は、水平面において、α軸と直交する。
 γ軸はα軸及びβ軸に直交する軸であり、静脈センサ1に対する高さを表す軸である。利用者には、γ軸方向において、静脈センサ1の焦点距離の許容範囲である±20%以内となる高さに手のひらを位置させることが求められる。なお、ここに示す許容範囲(±20%)は一例としての数値であり、許容範囲を±20%に限る趣旨ではない。
 矢印Aが示す方向は、指の開き具合を表す方向である。利用者には、例えば、力を抜いて指を自然に開いた状態で手のひらを静脈センサ1にかざすことが求められる。
 矢印Bが示す方向は、手の開き具合を示す方向である。利用者には、例えば、手のひらと指がすべて平らになるように、手を開いた状態で手のひらを静脈センサ1にかざすことが求められる。
 矢印Cが示す方向は、腕の回転を表す方向である。利用者には、例えば、腕を回転させずに、手のひらが水平になるようにして手のひらを静脈センサ1にかざすことが求められる。
 矢印Dが示す方向は、γ軸周りの回転を表す方向である。利用者には、例えば、手のひらをγ軸周りに回転させずに静脈センサ1にかざすことが求められる。
 以上のように、静脈センサ1に手をかざして静脈の画像を得るためには、利用者には、手のひらの位置をα軸、β軸、及びγ軸周りの調整することに加えて、矢印A、矢印B、矢印C軸、及び矢印D方向に調整することが求められる。
 このような手のひらの位置調整のうち、α軸、β軸、矢印A、矢印B、矢印C軸、及び矢印D方向の調整に比べて、γ軸方向の調整は、利用者にとって比較的難しい調整であった。
 この主な原因は、静脈センサ1の高さ方向(γ軸方向)において、距離感を掴みにくいことであると考えられる。
 なお、ここでは、静脈センサ1が水平な場所に設置され、静脈センサ1の読み取り部1Aの読み取り面も水平である場合について説明した。しかしながら、静脈センサ1及び読み取り部1Aの読み取り面が水平でなく水平面に対して角度を有する場合には、手のひらも静脈センサ1及び読み取り部1Aの読み取り面の角度に合わせることが要求される。
 次に、比較例の認証装置のディスプレイ2に表示される認証ウィンドウ2Aを用いた高さ方向の誘導について説明する。
 図2は、比較例の認証装置のディスプレイ2に表示される認証ウィンドウ2Aの一例を示す図である。
 比較例の認証装置のディスプレイ2には、認証ウィンドウ2Aが表示される。認証ウィンドウ2Aには、静脈センサ1で取得された手のひらの画像が映し出される。認証ウィンドウ2Aに映し出される手のひらの画像は、静脈センサ1で得られる手のひらの輪郭を表したものである。静脈センサ1で取得される画像には手のひらの輪郭が含まれている。比較例の認証装置は、静脈センサ1が取得した画像から手のひらの輪郭を抽出して、認証ウィンドウ2Aに表示する。
 認証装置は、静脈センサ1で取得される手のひらの画像から、手のひらの高さを算出し、手のひらの高さが許容範囲(焦点距離の上下20%(±20%)の範囲)内にないと判定すると、利用者に手のひらを上又は下に移動するように促すメッセージを表示する。
 例えば、認証装置は、手のひらの高さが許容範囲の下限を下回っている場合には「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、手のひらの高さが許容範囲の上限を上回っている場合には、認証装置は「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 このようなメッセージをディスプレイ2の認証ウィンドウ2Aに表示することにより、手のひらの静脈認証を行う利用者に対して、手のひらを高さ方向(上下方向)に誘導する処理を行っている。
 ところで、比較例の認証装置が表示する手のひらを高さ方向に誘導するためのメッセージは、このメッセージ単独では高さをどの程度ずらせば良いのか分かりにくい場合があり、利用者が静脈センサ1に対して高さを合わせにくいという問題は解決されていなかった。
 また、比較例の認証装置は、手のひらの高さを誘導するためのメッセージを表示するが、手のひらの角度、指又は手の開き具合等の手のひらの高さ以外の項目についての誘導は行っていなかった。
 以上より、比較例の認証装置には、利用者が手のひらの高さを静脈センサ1に対して合わせにくいという問題と、手のひらの高さ以外の項目についての手本を示すことができないという問題があった。
 このため、以下では、上述の問題点を解決した実施の形態1、2の認証装置及び電子装置について説明する。
 <実施の形態1>
 図3Aは、実施の形態1の認証装置が実装されるノート型PC(Notebook Personal Computer)10のハードウェア側の構成を示す図である。図3Bは、実施の形態1の認証装置が実装されるノート型PC10のソフトウェア側の構成を示す図である。
 図3Aに示すように、ノート型PC10は、CPU(Central Processing Unit:中央演算処理装置)11、RAM(Random Access Memory:ランダムアクセスメモリ)12、HDD(Hard
Disk Drive)13、ディスプレイ14、及び静脈センサ15を含む。
 CPU11、RAM12、HDD13、ディスプレイ14、及び静脈センサ15は、バス16によって接続されており、バス16に接続されるフラッシュメモリ17にはBIOS(Basic Input/Output
System)プログラムが格納されている。
 図3Bに示すように、ノート型PC10は、HDD13の内部に、認証プログラム21、仕様DB(Data Base:データベース)22、3DモデルDB(Data Base:データベース)23、表示位置演算プログラム24、及び静脈データ25を含む。
 認証プログラム21、仕様DB22、3DモデルDB23、表示位置演算プログラム24、及び静脈データ25は、図3Bに示すような階層構造になっている。
 認証プログラム21は、ノート型PC10が静脈の生体情報を利用した認証処理を実行するために用いるプログラムである。
 仕様DB22は、ノート型PC10の筐体各部の寸法、筐体内におけるディスプレイ14の位置と寸法、及び静脈センサ15の筐体内における位置と寸法を表すデータを含むデータベースである。この仕様DB22には、複数の製品について、それぞれの製品名に対応付けて各種データが格納される。
 3DモデルDB23は、ポリゴンモデルとして三次元(3D(Three Dimension))的にモデル化した手の画像を表すデータを含むデータベースである。モデル化した手の画像は、ディスプレイ14から三次元的に飛び出して見える画像ではなく、ディスプレイ14の内部に三次元的に表示される画像であり、人間の手の形状を立体的に表現した画像である。モデル化した手の画像は、手のひらの高さを誘導する画像(以下、誘導用の画像と称す)の一例であるが、その詳細については図7を用いて後述する。
 表示位置演算プログラム24は、ノート型PC10のディスプレイ14に誘導用の画像を表示する位置を演算するために用いられるプログラムである。誘導用の画像については、図7を用いて後述する。
 静脈データ25は、ノート型PC10の利用者が登録した自己の手のひらの静脈の画像を表すデータである。利用者は、例えば、ノート型PC10を購入した後に、初期設定として静脈センサ15を用いて自己の手のひらの静脈データをノート型PC10に登録する。このようにして静脈データ25がHDD13内に登録される。
 次に、図4を用いて、実施の形態1のノート型PC10に搭載される認証装置100の機能ブロックについて説明する。
 図4は、実施の形態1のノート型PC10に搭載される認証装置100の機能ブロックを表す図である。
 図4に示す認証装置100の機能ブロックは、CPU11(図3A参照)が認証プログラム21(図3B参照)を実行することにより実現される。
 CPU11は、認証プログラム21を実行するに際し、認証プログラム21を通じて、仕様DB22及び3DモデルDB23に格納されるデータと静脈データ25を利用するとともに、表示位置演算プログラム24を実行する。
 図4に示すように、認証装置100は、主制御部101、演算部102、表示制御部103、センサドライバ104、認証部105、及びメモリ106を含み、認証処理を実行する。
 主制御部101は、ノート型PC10の認証処理を統括する制御部である。
 演算部102は、ディスプレイ14(図3A参照)に、誘導用の画像を表示する位置を算出する位置算出部の一例である。
 表示制御部103は、演算部102によって演算されたディスプレイ14上の位置に、誘導用の画像を表示する。
 センサドライバ104は、静脈センサ15(図3A参照)によって取得された画像から静脈データを取得し、取得した静脈データを認証部に出力する。
 認証部105は、センサドライバ104から入力される静脈データに基づき、認証を行う。
 メモリ106は、図3Aに示すRAM12の一例である。メモリ106には、主制御部101、演算部102、表示制御部103、センサドライバ104、及び認証部105が処理を実行するにあたって必要なデータが格納される。
 次に、図5A及び図5Bを用いて、ノート型PC10のディスプレイ14に、誘導用の画像を表示する位置について説明する。
 図5Aは、ノート型PC10を開いた状態を示す正面図であり、図5Bは、ノート型PC10を開いた状態を示す側面図である。
 ノート型PC10は、カバー部31とベース部32とを有する筐体30を含む。カバー部31はディスプレイ14を保持する。カバー部31はディスプレイ14の枠部31A、31Bを含む。枠部31Aは、カバー部31をベース部32に対して開いた状態で、ディスプレイ14の左右に縦方向にわたって位置する。枠部31Bは、カバー部31をベース部32に対して開いた状態で、ディスプレイ14の上下に横方向にわたって位置する。
 ベース部32には、静脈センサ15、タッチパッド33、及びキーボード34が設けられている。なお、後に寸法を説明する便宜上、キーボード34を破線で示す。ベース部32は、ノート型PC10が水平面である机上等に設置される際にその設置面に載置される。ベース部32は、設置面と平行となる上面を備え、その上面にタッチパッド33及びキーボード34が設けられている。
 カバー部31は、ベース部32に対して回動することにより開閉できるように軸支されている。図5A、図5Bにはカバー部31を開いた状態を示すが、カバー部31を閉じるとディスプレイ14がキーボード34と向かい合う。
 図5A、図5Bに示す状態では、カバー部31はベース部32に対して角度θだけ開かれている。つまり、これら状態は、水平面に対するディスプレイ14の表示面の傾斜角度(仰角)がθであることを示す。
 ディスプレイ14は、例えば、液晶ディスプレイであればよい。実施の形態1のノート型PC10のユーザーログオンの認証時には、ディスプレイ14には、利用者の手のひらを静脈センサ15の情報の手本となる位置に誘導するための誘導用の画像と、認証用のウィンドウが表示される。
 静脈センサ15は、比較例の静脈センサ1と同様のものであり、生体情報としての静脈の画像を取得するセンサの一例である。実施の形態1の静脈センサ15はノート型PC10のベース部32に組み込まれている。静脈センサ15は、ノート型PC10の利用者から見て、ディスプレイ14の手前側でタッチパッド33の左脇に位置するように配設されている。なお、手のひらは、静脈センサ15を使った生体認証で利用する身体の部位の一例であり、静脈センサ15にかざす対象は身体の他の部位としてもよい。
 ここで、静脈センサ15とディスプレイ14との位置関係における手前側とは、ノート型PC10のカバー部31をベース部32から開いた状態で、ノート型PC10の利用者から見て、静脈センサ15がディスプレイ14よりも手前側に位置していることをいう。
 タッチパッド33は、ベース部32のキーボード34の手前側において、ベース部32の幅方向(図5Aにおける横方向)の中央に配設されている。
 ここで、図5A、図5Bに示すように寸法a~fを定義する。寸法a~fは、ノート型PC10の仕様から決まる値である。
 寸法aはベース部32の左側の端辺32Aから静脈センサ15の中心までの横方向の長さである。寸法bはベース部32のカバー部31との境界の端辺32Bから静脈センサ15の中心までの縦方向の長さである。
 寸法cはカバー部31の横方向の長さであり、寸法dはカバー部31の縦方向の長さである。寸法eはカバー部31のディスプレイ14の横にある枠部31Aの横方向の長さであり、寸法fはカバー部31のディスプレイ14の上にある枠部31Bの縦方向の長さである。
 なお、ディスプレイ14と枠部31A、31Bの間には段差がなく、同一平面上にあるものとする。
 これらの値を表すデータは、ノート型PC10の仕様を表す仕様データとして、仕様DB22(図3B参照)に格納されている。
 なお、図5A、図5Bに示す寸法X1、Y1、Z1については、図6を用いてノート型PC10の仕様DB22に格納される仕様データのデータ構造について説明した後に、説明する。
 図6は、ノート型PC10の仕様DB22に格納される仕様データを示す図である。
 仕様データは、製品名(notepc_ABC001)、寸法a(dimension_a_ABC001)、寸法b(dimension_b_ABC001)、寸法c(dimension_c_ABC001)、寸法d(dimension_d_ABC001)、寸法e(dimension_e_ABC001)、及び寸法f(dimension_f_ABC001)を含む。
 寸法a(dimension_a_ABC001)、寸法b(dimension_b_ABC001)、寸法c(dimension_c_ABC001)、寸法d(dimension_d_ABC001)、寸法e(dimension_e_ABC001)、及び寸法f(dimension_f_ABC001)は、製品名(notepc_ABC001)と関連付けられている。
 仕様データは認証装置100によって製品名に基づいて識別され、各寸法a~fが読み出される。
 なお、図6には、製品名をnotepc_ABC001と記すが、実際には、ABC001の部分にはノート型PC10の型式名等が用いられる。また、説明の便宜上、各寸法a~fをdimension_a_ABC001等とアルファベットと数字を用いて記すが、実際には各寸法を表す数値のデータである。
 次に、図5及び図7を用いて、ディスプレイ14に表示する誘導用の画像について説明する。ここで、図5及び図7には認証装置100(図4参照)を示さないが、ノート型PC10内に認証装置100があるものとして説明を行う。
 実施の形態1のノート型PC10の認証装置100は、誘導用の画像として、手のひらの高さを誘導する画像と、モデル化した手の画像との2つの画像を表示する。
 まず、モデル化した手の画像をディスプレイ14上に表示する位置について説明する。
 図5Aに示すように、実施の形態1の認証装置100は、ディスプレイ14の左上の角14Aを原点とし、ディスプレイ14の表面上に規定されるX、Y座標系を用いて、ディスプレイ14に、モデル化した手の画像を表示する位置Pを演算する。位置Pを求める演算は、演算部102(図4参照)によって行われる。
 ノート型PC10の認証装置100は、モデル化した手の画像の手のひらの中心が位置Pに表示されるようにディスプレイ14上にモデル化した手の画像を表示する。ここで、手のひらの中心とは、手のひらの表面上の点であり、平面視における手のひらの中心をいう。また、位置Pは、ディスプレイ14上において、ディスプレイ14の左上の角14Aを原点として、座標(X1、Y1)で表される位置である。
 座標X1は、式(1)に示すように、寸法aから寸法eを減算することによって求まる寸法であり、筐体30の横方向において、静脈センサ15の中心と同一の位置を表す。
 X1=a-e ・・・(1)
 また、座標Y1は、図5Bに示すように、静脈センサ15の上方の高さZ1に対応するディスプレイ14内の高さ方向の位置に対応する。
 高さZ1は、静脈センサ15の焦点距離であり、静脈認証の利用者が静脈センサ15の上に手をかざす際の理想的な手本となる高さである。
 このようなY1と高さZ1との間には、図5Bに示すθを用いると、式(2)の関係が成立する。
 Z1=(d-f-Y1)×cos(θ-90) ・・・(2)
 ここで、cos(θ-90)=sinθの関係があるため、この関係を用いて式(2)をY1について解くと、式(3)が得られる。
 Y1=d-f-(Z1/sinθ) ・・・(3)
 認証装置100は、式(1)、(3)で求まる座標(X1、Y1)で表されるディスプレイ14上の位置Pにモデル化した手の画像の手のひらの中心が表示されるように、モデル化した手の画像を表示する。
 すなわち、位置Pは、静脈センサ15の上に手をかざす際の手本となる高さに対応するディスプレイ14内の位置であるとともに、ディスプレイ14の横方向において、静脈センサ15の中心と同一の位置である。
 このため、静脈認証を行う利用者がディスプレイ14に表示されたモデル化された手の画像に合わせて自分の手のひらの高さを調節することにより、静脈センサ15の上の適切な高さに手のひらをかざすことができる。
 特に、このとき、図5Aに示すように、利用者が自分の手のひらの高さに加えて自分の眼Eの高さを調節し、自分の手のひらと自分の眼Eとが、ディスプレイ14に表示されたモデル化された手の画像と同じ高さになるようにすれば、手のひらの高さを正確に高さZ1に調節できる。
 また、静脈センサ15が利用者の手のひらの静脈の画像を取得できる距離は、焦点距離を中心としてある程度の幅を有する。例えば、焦点距離の上下20%(±20%)の範囲であれば、静脈センサ15は、手のひらの静脈の画像を取得することができる。焦点距離の±20%は、例えば、約5cmである。なお、ここに示す許容範囲(±20%)は一例としての数値であり、許容範囲を±20%に限る趣旨ではない。
 ここで、このように焦点距離を中心として静脈センサ15が手のひらの画像を取得可能な範囲を許容範囲と称する。
 実施の形態1のノート型PC10の認証装置100は、上述のモデル化された手の画像に加えて、手のひらの高さを誘導する画像として、静脈認証における手のひらの高さ方向の許容範囲を表す帯状の画像をディスプレイ14に表示する。
 次に、図7を用いて、モデル化された手の画像と、許容範囲を表す帯状の画像とについて説明する。
 図7は、実施の形態1の認証装置100を搭載したノート型PC10のディスプレイ14の表示を示す図である。ディスプレイ14の表面上に規定されるX、Y座標は、ディスプレイ14の左上の角14Aを原点とし、図7に示すように横方向にX軸、下方向にY軸を有する。
 ディスプレイ14には、モデル化された手の画像120、許容範囲を表す帯状の画像130、及び認証ウィンドウ140が表示されている。モデル化された手の画像120、許容範囲を表す帯状の画像130、及び認証ウィンドウ140は、ノート型PC10のユーザーログオンの認証を行うときに、ディスプレイ14に表示される。
 モデル化された手の画像120は、ポリゴンモデルとしてモデル化した右手の外観を表している。
 手の画像120は、静脈センサ15にかざす手の手本となる形状をポリゴンモデルで表したものである。手の画像120は、図1を用いて比較例で説明したα軸、β軸、及びγ軸周りの位置調整に加えて、矢印A、矢印B、矢印C軸、及び矢印D方向における位置調整が理想的な形状を有する。
 手の画像120は、ディスプレイ14の左上の角14Aを原点として、座標(X1、Y1)で表される位置Pに、手のひらの中心が位置するように表示されている。ここで、手のひらの中心とは、手のひらの表面上の点であり、平面視における手のひらの中心をいう。
 また、許容範囲を表す帯状の画像130は、ディスプレイ14の高さ方向において、位置Pと同一のY座標Y1を中心として幅Y2を有し、X軸方向においてディスプレイ14の左端から右端まで表示される帯状の画像である。
 ここで、帯状の画像130の幅Y2は、静脈センサ15(図5A、図5B参照)の焦点距離に相当する高さZ1の±20%の幅をディスプレイ14上の幅に換算したものである。
 図5A、図5Bに示すように、ディスプレイ14は、ベース部32に対して角度θだけ開かれたカバー部31に収納されているため、帯状の画像130の幅Y2は、式(4)で表される。
 Y2=(Z1/sinθ)×0.4 ・・・(4)
 また、帯状の画像130のX軸方向における中央部には、「手をこの高さにあわせてください」というメッセージ131が表示される。
 また、認証ウィンドウ140は、図2に示した認証ウィンドウ2Aと同様であり、静脈センサ15で取得された手のひらの画像が映し出される。
 認証装置100は、静脈センサ15で取得される手のひらの画像から、手のひらの高さを算出し、手のひらの高さが焦点距離に相当する高さZ1の上下20%の範囲内にないと判定すると、利用者に手のひらを上又は下に移動するように促すメッセージを表示する。
 例えば、認証装置100は、手のひらの高さが許容範囲の下限を下回っている場合には「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ140内に表示する。一方、認証装置100は、手のひらの高さが許容範囲の上限を上回っている場合には、認証装置は「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ140内に表示する。
 また、認証装置100は、静脈センサ15で取得される手のひらの画像から、手のひらの高さが適切であっても、手のひらの位置が静脈センサ15に対して前後左右のいずれかの方向にずれていると判定すると、利用者に手のひらを静脈センサ15に対して前後左右のいずれかの方向に移動するように促すメッセージを表示する。
 また、認証装置100は、手のひらの位置が画面内で左側に寄っている場合には「手のひらをもう少し右側に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、認証装置100は、手のひらの位置が画面内で右側に寄っている場合には「手のひらをもう少し左側に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 また、認証装置100は、手のひらの画面内で前方に寄っている場合には「手のひらをもう少し後方に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。一方、認証装置100は、手のひらの位置が規定の位置よりも画面内で後方に寄っている場合には「手のひらをもう少し前方に寄せて下さい」というメッセージを認証ウィンドウ2A内に表示する。
 手のひらの高さが高いか低いかの判定と、画面の中心に対して前後左右のどちらに寄っているかの判定は、例えば、画像処理により、認証ウィンドウ140に表示される手のひらの四方にある背景の部分の長さX5、X6、Y5、Y6が基準値と比べて長いか短いかを認証装置100が判定することによって行えばよい。
 ここで、長さX5は手のひらの画像中における左側の背景のX軸方向の長さであり、長さX6は手のひらの画像中における右側の背景のX軸方向の長さである。長さY5は手のひらの画像中における下側の背景のY軸方向の長さであり、長さY6は中指の先端の画像中における上側の背景のY軸方向の長さである。
 例えば、利用者が認証ウィンドウ140を見ながら自分の手のひらが認証ウィンドウ140の中央に位置するように手のひらを静脈センサ15にかざす。この状態で、利用者の手のひらの高さが焦点距離にあるときに、静脈センサ15が取得する画像では、四方の距離X5、X6、Y5、Y6が2cmになるように設定されているとする。
 認証装置100は、利用者の手のひらが静脈センサ15にかざされたときに、四方の距離X5、X6、Y5、Y6の分布に基づいて、手のひらの位置が高いか低いか、又は、前後左右のどちらに寄っているかの判定を行えばよい。
 例えば、四方の距離X5、X6、Y5、Y6のうちのいずれか2つ以上が2cmよりも長ければ、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲の上限より高いと判定し、「手のひらをもう少し下げて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 一方、四方の距離X5、X6、Y5、Y6のうちのいずれか2つ以上が2cmよりも短ければ、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲の下限より低いと判定し、「手のひらをもう少し上げて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 認証装置100は、上述のようにして、利用者の手のひらの高さが焦点距離の許容範囲内にあるか否かを判定すればよい。
 また、認証装置100は、利用者の手のひらの高さが焦点距離の許容範囲内に収まったときに、四方の距離X5、X6、Y5、Y6の分布に基づいて、手のひらの位置が静脈センサ15に対して、前後左右のどちらにずれているか否かを判定すればよい。
 例えば、四方の距離X5、X6、Y5、Y6の中で距離X5が一番短ければ、認証装置100は、静脈センサ15に対して手が左側に寄っていると判定し、「手のひらをもう少し右側に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離X6が一番短ければ、認証装置100は、静脈センサ15に対して手が右側に寄っていると判定し、「手のひらをもう少し左側に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離Y5が一番短ければ、認証装置100は、静脈センサ15に対して手が後方に寄っていると判定し、「手のひらをもう少し前方に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 また、四方の距離X5、X6、Y5、Y6の中で距離Y6が一番短ければ、認証装置100は、静脈センサ15に対して手が前方に寄っていると判定し、「手のひらをもう少し後方に寄せて下さい」というメッセージを認証ウィンドウ140内に表示すればよい。
 なお、上述のような静脈センサ15に対する手のひらの位置の上下方向(高さ方向)と前後左右方向の位置ずれを判定する方法は一例に過ぎず、上述した以外の手法によって行ってもよい。
 静脈センサ15で取得された手のひらの画像に基づく上述のような手のひらの高さの検出は、高さ検出部の一例としての認証部105(図4参照)によって行われ、メッセージの表示はメッセージ生成部の一例としての認証部105によって行われる。
 また、静脈センサ15で取得された手のひらの画像に基づく上述のような手のひらの前後左右方向の位置の検出は、認証部105(図4参照)によって行われる。
 認証ウィンドウ140は、ウィンドウの左上の角の座標(X3、Y3)、X軸方向の長さX4、及び、Y軸方向の長さY4が決められており、座標(X3、Y3)と、長さX4及び長さY4とによって定まる領域に表示される。なお、座標(X3、Y3)と、長さX4及び長さY4の値は、手の画像120及び帯状の画像130と重ならないように設定されている。
 認証装置100は、このようなメッセージをディスプレイ14の認証ウィンドウ140に表示することにより、手のひらの静脈認証を行う利用者に対して、手のひらを高さ方向に誘導する処理を行っている。
 ところで、ノート型PC10は、ベース部32に対してカバー部31を開いた状態で利用される。
 また、ベース部32に対するカバー部31の角度θ(図5B参照)は、例えば、85度から120度の間で利用されることが多い。
 そこで、実施の形態1のノート型PC10は、ベース部32に対するカバー部31の角度θを102.5度に設定して、式(2)から位置PのY座標Y1の値を算出するとともに、式(4)から帯状の画像130の幅Y2の値を算出する。102.5度は、85度から120度の中央値である。
 従って、式(3)、(4)にθ=102.5度を代入すると、式(3-1)、(4-1)を得る。ここで、式(3-1)、(4-1)を式(1)とともに示す。
 X1=a-e ・・・(1)
 Y1=d-f-(Z1/sin102.5) ・・・(3-1)
 Y2=(Z1/sin102.5)×0.4 ・・・(4-1)
 このように、実施の形態1のノート型PC10は、式(1)、(3-1)、(4-1)を用いて、ポリゴンモデルとしてモデル化した手の画像120と許容範囲を表す帯状の画像130とを表示する際に必要なY座標の値Y1と、帯状の画像130の幅Y2とを演算する。これらの演算は、CPU11が表示位置演算プログラム24(図3B参照)を実行することによって実現される。
 また、図7に示すように、手の画像120と帯状の画像130に加えて、認証ウィンドウ140をディスプレイ14に表示することにより、利用者に対して、手のひらの高さを適切な位置に誘導する。
 次に、図8を用いて、実施の形態1のノート型PC10における認証処理について説明する。
 図8は、実施の形態1のノート型PC10の認証処理を示すフローチャートである。図8に示す処理は、図4に示す認証装置100によって実行される。
 まず、主制御部101は、BIOSに記述されているノート型PC10の製品名を取得する(ステップS1)。
 次に、主制御部101は、仕様DB22からノート型PC10の筐体各部の寸法、筐体30内におけるディスプレイ14の位置と寸法、及び静脈センサ15の筐体内における位置と寸法を表すデータを読み出す(ステップS2)。具体的には、主制御部101は、図6に示す仕様データに含まれる寸法a~fを読み出す。
 次に、演算部102は、位置Pの座標(X1、Y1)を表すX1、Y1と、帯状の画像130の幅Y2と、認証ウィンドウ140の位置を表す座標(X3、Y3)及び長さX4、Y4とを演算する(ステップS3)。
 演算部102は、主制御部101がステップS2で読み出した仕様データと、式(1)、(3-1)、(4-1)とを用いて、位置Pの座標(X1、Y1)を表すX1、Y1と、帯状の画像130の幅Y2とを算出する。
 また、演算部102は、主制御部101がステップS2で読み出した仕様データを用いて、座標(X3、Y3)と、長さX4及び長さY4の値を演算する。認証ウィンドウ140を表示する領域は、手の画像120及び帯状の画像130と重ならないように設定されている。
 次に、表示制御部103は、ステップS3で演算された座標(X1、Y1)と幅Y2を用いて手の画像120と帯状の画像130をディスプレイ14に表示するとともに、座標(X3、Y3)と長さX4、Y4を用いて、認証ウィンドウ140をディスプレイ14に表示する(ステップS4)。
 ディスプレイ14に手の画像120、帯状の画像130、及び認証ウィンドウ140が表示されると、手の画像120、帯状の画像130、及び認証ウィンドウ140によって手の位置が誘導されるため、利用者は手のひらを静脈センサ15の上に手にかざす。
 このとき、認証部105は、静脈センサ15からセンサドライバ104を通じて取得する手のひらの画像の大きさに基づいて、静脈センサ15に対する手の高さを判定する。認証部105は、手のひらの高さが許容範囲の下限を下回っている場合には、高さが許容範囲の下限を下回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し上げて下さい」というメッセージ131をディスプレイ14に表示させる。
 一方、認証部105は、手のひらの高さが許容範囲の上限を上回っている場合には、高さが許容範囲の上限を上回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し下げて下さい」というメッセージ131をディスプレイ14に表示させる。
 なお、認証部105は、手のひらの高さが許容範囲にあると判定した場合には、主制御部101に手のひらの高さが許容範囲内であることを通知する。この場合には、主制御部101は表示制御部103への通知は行わず、認証ウィンドウ140には高さに関するメッセージ131は表示されない。
 次に、センサドライバ104は、静脈センサ15から静脈データを取得する(ステップS5)。具体的には、センサドライバ104が静脈センサ15を駆動して近赤外線を用いた撮影を行うことにより、人間の手のひらの静脈のパターンを表す画像を取得する。取得した画像を表す静脈データは、認証部105に入力される。
 次に、認証部105は、ステップS5で取得された静脈データが認証可能なデータであるか否かを判定する(ステップS6)。認証可能なデータであるか否かは、手のひらの形状及び位置が、図1に示したα軸、β軸、及びγ軸周りの条件と、矢印A、矢印B、矢印C軸、及び矢印D方向の条件をすべて満たしているか否かを判定することによって行われる。各条件を満たすか否かの判定処理は、静脈センサ15によって取得された手のひらの画像に対して認証部105が画像処理を行うことによって実行される。
 ステップS6で認証可能な静脈データであると判定されると、フローはステップS7に進行する。
 認証部105は、ステップS6で認証可能な静脈データであると判定した静脈データを用いて、静脈認証を行う(ステップS7)。静脈認証は、静脈データ25(図3B参照)を読み出し、静脈センサ15及びセンサドライバ104によって取得された静脈データと比較することによって行われる。このとき、認証ウィンドウ140には、静脈センサ15及びセンサドライバ104によって取得された静脈データが表示される。
 認証部105は、静脈センサ15及びセンサドライバ104によって取得された静脈データを静脈データ25(図3B参照)と比較し、一致するか否かを判定する(ステップS8)。
 主制御部101は、ステップS8において認証部105が一致したと判定した場合は、フローをステップS9に進行させ、静脈センサ15及びセンサドライバ104によって取得され、認証ウィンドウに表示している静脈データを削除する(ステップS9)。
 以上により、認証処理が終了し、ノート型PC10は利用可能な状態になる。
 なお、ステップS6において、ステップS5で取得された静脈データが認証可能なデータではないと判定された場合は、主制御部101はフローをステップS5にリターンする。この結果、センサドライバ104によって静脈センサ15から静脈データが取得される。
 例えば、ステップS4で手の画像120と帯状の画像130とを表示しても、静脈センサ15で手のひらの静脈の画像を撮影するときに、利用者が手の高さを動かしてしまったような場合には、適切な静脈データを取得できていないことがあり得る。
 このような場合に、フローをステップS5にリターンさせて再度静脈データを取得して、ステップS6において再度静脈データが認証可能なデータであるか否かを判定するためである。
 また、ステップS8において、一致しないと判定された場合においても、主制御部101はフローをステップS5にリターンする。この結果、ステップS5以下の処理が再び実行される。
 例えば、静脈データを正しく取得できていないような場合には、取得した静脈データは静脈データ25と一致しない。このような場合に、フローをステップS5にリターンさせて再度静脈データを取得して、ステップS6において再度静脈データが認証可能なデータであるか否かを判定するためである。
 なお、ステップS8において一致しないと判定される場合は、本人以外の者が静脈認証を行っている場合もあり得る。
 以上のように、実施の形態1のノート型PC10の認証装置100は、ステップS4において、ディスプレイ14に手の画像120、帯状の画像130、及び認証ウィンドウ140を表示する。
 手の画像120は、図7に示すように、ポリゴンモデルとしてモデル化した手を表す画像であり、静脈センサ15に手をかざす手本となる高さに表示される。
 また、帯状の画像130は、静脈センサ15の焦点距離の許容範囲に対応する幅Y2を有する画像であり、図7に示すように手の画像120とともにディスプレイ14に表示される。
 このため、ノート型PC10の利用者は、ノート型PC10の利用を開始するために静脈認証を行う際に、静脈センサ15の上の適切な高さに自己の手のひらを容易に合わせることができる。
 また、手の画像120はポリゴンモデルとしてモデル化した手を表す画像であるため、手のひらの高さだけではなく、指の開き方、手のひらの開き方、及び手のひらの角度等を手の画像120に合わせることにより、静脈認証に必要な正しい手のひらの姿勢を作りやすくなる。
 さらに、ノート型PC10の認証装置100は、手の画像120及び帯状の画像130に加えて認証ウィンドウ140をディスプレイ14に表示するため、利用者は手の画像120及び帯状の画像130に加えて認証ウィンドウ140を見ながら手のひらの正しい姿勢を作ることができる。
 このため、利用者は静脈認証に必要な手のひらの高さ及び姿勢を容易に実現できる。
 このように、実施の形態1によれば、利用者に適切な誘導情報を提供できる認証装置100と、認証装置100を搭載したノート型PC10を提供することができる。
 比較例の認証装置のように、認証ウィンドウ2A(図2参照)だけでは、手のひらの高さを静脈認証に必要な高さに合わせることが容易ではなく、また、手のひらの姿勢を正すことも容易ではなかった。
 これに対して、実施の形態1のノート型PC10の認証装置100は、静脈認証に必要な高さに対応するディスプレイ14上の位置に、手の画像120と帯状の画像130を表示する。手の画像120の横方向の位置は、ノート型PC10の静脈センサ15の位置と一致しており、手の画像120はポリゴンモデルとして理想的な手の姿勢を三次元的に表す画像である。
 また、これに加えて、静脈センサ15による認証の許容範囲を表す帯状の画像130をディスプレイ14に表示する。
 このため、実施の形態1の認証装置100は、比較例の認証装置に比べて、利用者の使い勝手は大幅に改善されており、利用者は容易に正しい高さと姿勢で静脈センサ15に手をかざすことができる。
 なお、以上では、手の画像120がポリゴンモデルを用いた画像である形態について説明したが、手の画像120は、手本となる手の形状を三次元的に表すことができれば、ポリゴンモデルを用いた画像に限定されるものではない。
 また、以上では、認証装置100をノート型PC10に搭載した形態について説明したが、静脈センサ15とディスプレイ14との相対位置を決まっていれば、デスクトップ型のPCに認証装置100を搭載することは可能である。
 同様に、静脈センサ15とディスプレイ14との相対位置が決まっていれば、認証装置100をPC以外の電子装置に搭載することは可能である。このような電子装置としては、例えば、入退出管理システム、ATM(Automated Teller Machine:自動出納機)等が挙げられる。
 <実施の形態2>
 実施の形態2のノート型PC20は、ベース部32に対するカバー部31の角度を検出する角度センサを含み、角度に応じて手の画像120と帯状の画像130をディスプレイ14に表示する位置(Y座標の値)を変える点が実施の形態1のノート型PC20と異なる。
 その他の構成は、実施の形態1のノート型PC10と同様であるため、同様の構成要素には同一符号を付し、その説明を省略する。また、以下では、実施の形態1のノート型PC10との相違点を中心に説明を行う。
 図9は、実施の形態2の認証装置が実装されるノート型PC20を示す図である。
 図9に示すように、ノート型PC20は、CPU11、RAM12、HDD13、ディスプレイ14、及び静脈センサ15に加えて、角度センサ220を含む。
 角度センサ220は、CPU11、RAM12、HDD13、ディスプレイ14、及び静脈センサ15とともにバス16によって接続されている。
 図10Aは、ノート型PC20を開いた状態を示す正面図であり、図10Bは、ノート型PC20を開いた状態を示す側面図である。
 図10A及び図10Bに示すように、実施の形態2のノート型PC20は、外観上、角度センサ220を含む点が実施の形態1のノート型PC10(図5A及び図5B参照)と異なる。
 角度センサ220は、ベース部32に対してカバー部31が開かれた角度θを検出できるセンサであればよく、例えば、ベース部32に対してカバー部31が回動することにより開閉できるように取り付けられる回転軸に取り付ければよい。
 角度センサ220は、ベース部32に対してカバー部31が開かれた角度θを検出できるセンサであれば、どのようなセンサであってもよいが、例えば、ロータリポテンショメータを用いればよい。
 次に、図11を用いて、実施の形態2のノート型PC20に搭載される認証装置200の機能ブロックについて説明する。
 図11は、実施の形態2のノート型PC20に搭載される認証装置200の機能ブロックを表す図である。
 図11に示す認証装置200の機能ブロックは、CPU11が認証プログラム21(図3B参照)を実行することにより実現される。
 CPU11は、認証プログラム21を実行するに際し、認証プログラム21を通じて、仕様DB22及び3DモデルDB23に格納されるデータと静脈データ25を利用するとともに、表示位置演算プログラム24を実行する。
 図11に示すように、認証装置200は、主制御部101、演算部102、表示制御部103、センサドライバ104、認証部105、メモリ106、及び角度演算部221を含み、認証処理を実行する。
 主制御部101、演算部102、表示制御部103、センサドライバ104、認証部105、及びメモリ106は、実施の形態1の認証装置100に含まれるものと同様である。
 角度演算部221は、角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力する。
 実施の形態2のノート型PC20の認証装置200は、実施の形態1のノート型PC10の認証装置100と同様に、誘導用の画像として、手の画像120、帯状の画像130、及び認証ウィンドウ140をディスプレイ14に表示する。
 実施の形態2のノート型PC20の認証装置200は、手の画像120と帯状の画像130を表示するY軸方向の位置Y1を角度センサ220によって検出される角度θに応じて変化させる。
 ディスプレイ14に手の画像120と帯状の画像130を表示するY軸方向の位置Y1の計算は、実施の形態1で説明した式(3)を用いる。ここで、式(3)を式(1)とともに示す。
 X1=a-e ・・・(1)
 Y1=d-f-(Z1/sinθ) ・・・(3)
 また、実施の形態2のノート型PC20では、ディスプレイ14に表示する帯状の画像130の幅Y2についても、角度センサ220によって検出される角度θに応じて変化させる。帯状の画像130の幅Y2は、実施の形態1において説明した式(4)によって計算される。
 Y2=(Z1/sinθ)×0.4 ・・・(4)
 実施の形態2のノート型PC20の認証装置200は、式(1)、(3)で求まる座標(X1、Y1)で表されるディスプレイ14上の位置P(図7参照)にモデル化した手の画像の手のひらの中心が表示されるように、モデル化した手の画像120を表示する。
 また、実施の形態2のノート型PC20の認証装置200は、式(3)で求まるY軸方向の位置Y1に帯状の画像130を表示する。
 式(3)のθには、角度センサ220で検出される角度θが代入され、演算部102によってY軸方向の位置Y1が求められる。
 また、帯状の画像130のY軸方向の幅Y2を求めるための式(4)には、角度センサ220で検出される角度θが代入され、演算部102によって帯状の画像130のY軸方向の幅Y2が演算される。
 このため、ベース部32に対するカバー部31の角度θが0度から180度の間でどのような角度になっても、角度θに応じて静脈センサ15の上方の高さZ1に対応するディスプレイ14内の高さに、手の画像120と帯状の画像130を正確に表示することができる。
 また、ベース部32に対するカバー部31の角度θが0度から180度の間でどのような角度になっても、静脈センサ15の焦点距離の許容範囲に合わせて、帯状の画像130のY軸方向の幅Y2を正確に設定することができる。
 このため、特に、角度θが85度未満である場合、又は、120度よりも大きいような場合に、より適切な手本となる位置に手の画像120と帯状の画像130を正確に表示することができる。
 次に、図12を用いて、実施の形態2のノート型PC20における認証処理について説明する。
 図12は、実施の形態2のノート型PC20の認証処理を示すフローチャートである。図12に示す処理は、図11に示す認証装置200によって実行される。
 まず、主制御部101は、BIOSに記述されているノート型PC20の製品名を取得する(ステップS21)。
 次に、主制御部101は、仕様DB22からノート型PC20の筐体各部の寸法、筐体30内におけるディスプレイ14の位置と寸法、及び静脈センサ15の筐体内における位置と寸法を表すデータを読み出す(ステップS22)。具体的には、主制御部101は、図6に示す仕様データに含まれる寸法a~fを読み出す。
 次に、角度演算部221は、角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力する(ステップS23)。
 次に、演算部102は、位置Pの座標(X1、Y1)を表すX1、Y1と、帯状の画像130の幅Y2と、認証ウィンドウ140の位置を表す座標(X3、Y3)及び長さX4、Y4とを演算する(ステップS24)。
 演算部102は、主制御部101がステップS22で読み出した仕様データと、式(1)、(3)、(4)と、ステップS23で演算された角度θを表すデータとを用いて、位置Pの座標(X1、Y1)を表すX1、Y1と、帯状の画像130の幅Y2とを算出する。
 また、演算部102は、主制御部101がステップS22で読み出した仕様データを用いて、座標(X3、Y3)と、長さX4及び長さY4の値を演算する。認証ウィンドウ140を表示する領域は、手の画像120及び帯状の画像130と重ならないように設定されている。
 次に、表示制御部103は、ステップS24で演算された座標(X1、Y1)と幅Y2を用いて手の画像120と帯状の画像130をディスプレイ14に表示するとともに、座標(X3、Y3)と長さX4、Y4を用いて、認証ウィンドウ140をディスプレイ14に表示する(ステップS25)。
 実施の形態2のノート型PC20の認証装置200では、ベース部32に対するカバー部31の角度θに応じて、手の画像120と帯状の画像130が表示されるY軸方向の位置が決定される。
 ディスプレイ14に手の画像120、帯状の画像130、及び認証ウィンドウ140が表示されることにより、利用者は手のひらを静脈センサ15の上方に手にかざす。
 このとき、認証部105は、静脈センサ15からセンサドライバ104を通じて取得する手のひらの画像の大きさに基づいて、静脈センサ15に対する手の高さを判定する。認証部105は、手のひらの高さが許容範囲の下限を下回っている場合には、高さが許容範囲の下限を下回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し上げて下さい」というメッセージ131をディスプレイ14(図7参照)に表示させる。
 一方、認証部105は、手のひらの高さが許容範囲の上限を上回っている場合には、高さが許容範囲の上限を上回っていることを主制御部101に通知する。これにより、主制御部101は、表示制御部103に「手のひらをもう少し下げて下さい」というメッセージ131をディスプレイ14(図7参照)に表示させる。
 なお、認証部105は、手のひらの高さが許容範囲にあると判定した場合には、主制御部101に手のひらの高さが許容範囲内であることを通知する。この場合には、主制御部101は表示制御部103への通知は行わず、認証ウィンドウ140には高さに関するメッセージ131は表示されない。
 次に、センサドライバ104は、静脈センサ15から静脈データを取得する(ステップS26)。具体的には、センサドライバ104が静脈センサ15を駆動して近赤外線を用いた撮影を行うことにより、人間の手のひらの静脈のパターンを表す画像を取得する。取得した画像を表す静脈データは、認証部105に入力される。
 次に、認証部105は、ステップS26で取得された静脈データが認証可能なデータであるか否かを判定する(ステップS27)。認証可能なデータであるか否かは、手のひらの形状及び位置が、図1に示したα軸、β軸、及びγ軸周りの条件と、矢印A、矢印B、矢印C軸、及び矢印D方向の条件をすべて満たしているか否かを判定することによって行われる。
 ステップS27で認証可能な静脈データであると判定されると、フローはステップS28に進行する。
 認証部105は、ステップS27で認証可能な静脈データであると判定した静脈データを用いて、静脈認証を行う(ステップS28)。静脈認証は、静脈データ25(図3(B)参照)を読み出し、静脈センサ15及びセンサドライバ104によって取得された静脈データと比較することによって行われる。このとき、認証ウィンドウ140には、静脈センサ15及びセンサドライバ104によって取得された静脈データが表示される。
 認証部105は、静脈センサ15及びセンサドライバ104によって取得された静脈データを静脈データ25(図3(B)参照)と比較し、一致するか否かを判定する(ステップS29)。
 主制御部101は、ステップS29において認証部105が一致したと判定した場合は、フローをステップS30に進行させ、静脈センサ15及びセンサドライバ104によって取得された静脈データを削除する(ステップS30)。
 以上により、認証処理が終了し、ノート型PC20は利用可能な状態になる。
 なお、ステップS27において、ステップS26で取得された静脈データが認証可能なデータではないと判定された場合は、主制御部101はフローをステップS23にリターンする。この結果、角度演算部221が角度センサ220から出力される角度θを表すアナログ信号に基づき、角度θを表すデジタル信号を演算して出力し、ステップS24以下の処理が再び実行される。すなわち、角度θを測定し直すことになる。
 例えば、ステップS25で手の画像120と帯状の画像130とを表示した後に、利用者がカバー部31を動かしてしまった場合には、角度θが検出時と変わるため、手の画像120と帯状の画像130とを表示するY軸方向の位置Y1が利用者の手のひらを誘導するのに適切な位置ではなくなってしまう。
 このような場合には、利用者の手のひらを正しく誘導することができず、取得した静脈データが認証可能なデータでない場合があり得る。このため、再度角度θを検出して、手の画像120と帯状の画像130を表示する高さ方向の位置Y1を計算し直し、利用者の手のひらを正しい高さに誘導するためである。
 また、ステップS29において、一致しないと判定された場合においても、主制御部101はフローをステップS23にリターンする。この結果、ステップS23以下の処理が再び実行される。この場合においても、角度θを測定し直して、ステップS23以下の処理を再び実行することになる。
 例えば、ステップS25で手の画像120と帯状の画像130とを表示した後に、利用者がカバー部31を動かしてしまった場合には、角度θが検出時と変わるため、手の画像120と帯状の画像130とを表示するY軸方向の位置Y1が利用者の手のひらを誘導するのに適切な位置ではなくなってしまう。
 このような場合には、ステップS27で認証可能な静脈データであると判定されてステップS29にフローが進んだ場合でも、利用者の手のひらを高さ方向に適切に誘導できていないために、取得した静脈データが静脈データ25と一致しない場合があり得る。
 このため、再度角度θを検出して、手の画像120と帯状の画像130を表示する高さ方向の位置Y1を計算し直し、利用者の手のひらを正しい高さに誘導するためである。
 なお、ステップS29において一致しないと判定される場合は、本人以外の者が静脈認証を行っている場合もあり得る。
 以上のように、実施の形態2のノート型PC20の認証装置200は、ステップS25において、ディスプレイ14に手の画像120、帯状の画像130、及び認証ウィンドウ140を表示する。
 手の画像120は、ポリゴンモデルとしてモデル化した手を表す画像であり、静脈センサ15に手をかざす手本となる高さに表示される(図7参照)。
 また、帯状の画像130は、静脈センサ15の焦点距離の許容範囲に対応する幅Y2を有する画像であり、手の画像120とともにディスプレイ14に表示される(図7参照)。
 また、実施の形態2では、手の画像120と帯状の画像130とは、角度センサ220によって検出されたベース部32に対するカバー部31の角度θに応じてY軸方向の位置Y1が調整されている。
 このため、ノート型PC20の利用者は、ノート型PC20の利用を開始するために静脈認証を行う際に、静脈センサ15の上の適切な高さに自己の手のひらを容易に合わせることができる。
 また、手の画像120はポリゴンモデルとしてモデル化した手を表す画像であるため、手のひらの高さだけではなく、指の開き方、手のひらの開き方、及び手のひらの角度等を手の画像120に合わせることにより、静脈認証に必要な正しい手のひらの姿勢を作りやすくなる。
 さらに、ノート型PC20の認証装置200は、手の画像120及び帯状の画像130に加えて認証ウィンドウ140をディスプレイ14に表示するため、利用者は手の画像120及び帯状の画像130に加えて認証ウィンドウ140を見ながら手のひらの正しい姿勢を作ることができる。
 このため、利用者は静脈認証に必要な手のひらの高さ及び姿勢を容易に実現できる。
 このように、実施の形態2によれば、利用者に適切な誘導情報を提供できる認証装置200と、認証装置200を搭載したノート型PC20を提供することができる。
 特に、実施の形態2では、手の画像120と帯状の画像130とは、角度センサ220によって検出されたベース部32に対するカバー部31の角度θに応じてY軸方向の位置Y1が調整されている。
 このため、ベース部32に対するカバー部31の角度θに応じて、ノート型PC20の利用者により適切な誘導情報を提供することができる。
 なお、以上では、仕様DB22は、複数の製品について各仕様データを格納している。しかしながら、認証装置100が搭載されているノート型PC10だけの仕様データをノート型PC10に登録しておくようにしてもよい。この場合には、仕様データを取得する処理においては、製品名を基に仕様DB22から仕様データを読み出すという処理は必要なくなり、ノート型PC10に登録されている仕様データを単に読み出すという処理が行われることになる。
 以上の実施の形態においては、CPU11が上記プログラムを実行して、本実施の形態における上記機能の実現や上記処理の実行を行っているが、CPU11は本実施の形態において上記機能の実現や上記処理の実行を行う処理回路の一例である。本実施の形態における処理回路は、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、その他の専用のハードウェアであってもよい。
 コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能の実現または処理を実行させるプログラムは、コンピュータ等が読み取り可能な記録媒体に記録すればよい。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、プログラムによって実現される機能・処理が提供される。
 ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としては、ハードディスクやROM(リードオンリーメモリ)等がある。
 以上、本発明の例示的な実施の形態の認証装置及び電子装置について説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
 10、20 ノート型PC
 11 CPU
 12 RAM
 13 HDD
 14 ディスプレイ
 15 静脈センサ
 16 バス
 17 フラッシュメモリ
 21 認証プログラム
 22 仕様DB
 23 3DモデルDB
 24 表示位置演算プログラム
 25 静脈データ
 30 筐体
 31 カバー部
 31A 枠部
 31B 枠部
 32 ベース部
 32A 端辺
 32B 端辺
 100、200 認証装置
 101 主制御部
 102 演算部
 103 表示制御部
 104 センサドライバ
 105 認証部
 106 メモリ
 220 角度センサ
 221 角度演算部

Claims (11)

  1.  表示部と、
     利用者の身体の部位の生体情報を取得するセンサと、
     前記センサに対して利用者の身体の部位を位置する際の手本となる高さに対応する前記表示部内の位置に、誘導用の画像を表示する表示制御部と
     を含む、認証装置。
  2.  前記手本となる高さに対応する前記表示部内の位置は、前記表示部の表示面の角度に応じて設定される、請求項1記載の認証装置。
  3.  前記表示部の表示面の角度は、予め決められた所定の角度である、請求項2に記載の認証装置。
  4.  前記表示部の表示面の角度を検出する角度検出部と、
     前記角度検出部が検出する角度に応じて、前記手本となる高さに対応する前記表示部内の位置を算出する位置算出部と
     をさらに含み、
     前記表示制御部は、前記位置算出部によって前記表示部の表示面の角度に応じて算出される位置に、前記誘導用の画像を表示する、請求項2記載の認証装置。
  5.  前記認証センサによって取得される画像に基づき、前記認証センサに対する利用者の手の高さを検出する高さ検出部と、
     前記高さ検出部によって検出された手の高さに基づき、利用者に手の高さの変更を促すメッセージを生成するメッセージ生成部と
     さらに含み、
     前記表示制御部は、前記メッセージ生成部によって生成される前記メッセージを前記表示部に表示する、請求項1記載の認証装置。
  6.  前記誘導用の画像は、前記認証センサの上に手をかざす際の手本となる高さに対応する前記表示部内の位置において、高さ方向の許容範囲を示す帯状の画像を含む、請求項1記載の認証装置。
  7.  前記誘導用の画像は、前記認証センサにかざす手の手本となる状態を三次元的に表す手の画像を含む、請求項1記載の認証装置。
  8.  前記手の画像は、前記表示部の横方向において、前記認証センサと同一の位置に表示される、請求項7記載の認証装置。
  9.  請求項1記載の認証装置と、
     前記認証装置によって認証が行われると、所定の処理を実行する処理部と
     を含む、電子装置。
  10.  利用者の身体の部位の生体情報を取得するセンサを用いる装置によって実行される方法において、
     表示部の表示面の角度を示す情報を取得し、
     前記表示面の角度を示す情報に応じて、前記センサに対して利用者の身体の部位を位置する際の手本となる高さを決定し、
     前記高さに対応する前記表示部内の位置に誘導用の画像を表示する、方法。
  11.  センサにより利用者の身体の部位の生体情報を取得するコンピュータに、
     表示部の表示面の角度を示す情報を取得し、
     前記表示面の角度を示す情報に応じて、前記センサに対して利用者の身体の部位を位置する際の手本となる高さを決定し
     前記高さに対応する前記表示部内の位置に誘導用の画像を表示する、ことを実行させるためのプログラム。
PCT/JP2011/065379 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム WO2013005305A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/065379 WO2013005305A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/065379 WO2013005305A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2013005305A1 true WO2013005305A1 (ja) 2013-01-10

Family

ID=47436678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/065379 WO2013005305A1 (ja) 2011-07-05 2011-07-05 認証装置、電子装置、方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2013005305A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3330888A1 (en) 2016-11-30 2018-06-06 Fujitsu Limited Biometric authentication apparatus, biometric authentication method, and biometric authentication program
US10274896B2 (en) 2016-02-10 2019-04-30 Mitsubishi Electric Corporation Floating image display device
WO2022097721A1 (ja) * 2020-11-06 2022-05-12 パナソニックIpマネジメント株式会社 生体情報取得装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352230A (ja) * 2001-05-30 2002-12-06 Nippon Signal Co Ltd:The アクセスコントロールシステム
JP2004318041A (ja) * 2003-02-28 2004-11-11 Sony Corp 空中像表示装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2008071030A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 生体認証装置
JP2008070926A (ja) * 2006-09-12 2008-03-27 Hitachi Omron Terminal Solutions Corp 生体認証装置及び操作案内通知方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352230A (ja) * 2001-05-30 2002-12-06 Nippon Signal Co Ltd:The アクセスコントロールシステム
JP2004318041A (ja) * 2003-02-28 2004-11-11 Sony Corp 空中像表示装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2008070926A (ja) * 2006-09-12 2008-03-27 Hitachi Omron Terminal Solutions Corp 生体認証装置及び操作案内通知方法
JP2008071030A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 生体認証装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10274896B2 (en) 2016-02-10 2019-04-30 Mitsubishi Electric Corporation Floating image display device
EP3330888A1 (en) 2016-11-30 2018-06-06 Fujitsu Limited Biometric authentication apparatus, biometric authentication method, and biometric authentication program
US10528805B2 (en) 2016-11-30 2020-01-07 Fujitsu Limited Biometric authentication apparatus, biometric authentication method, and computer-readable storage medium
WO2022097721A1 (ja) * 2020-11-06 2022-05-12 パナソニックIpマネジメント株式会社 生体情報取得装置

Similar Documents

Publication Publication Date Title
US11755137B2 (en) Gesture recognition devices and methods
JP6287450B2 (ja) 携帯型情報処理装置、及びプログラム
KR102408359B1 (ko) 전자 장치 및 전자 장치의 제어 방법
ES2911906T3 (es) Dispositivos ponibles para el procesamiento de mensajería y métodos de uso de los mismos
US20140184494A1 (en) User Centric Interface for Interaction with Visual Display that Recognizes User Intentions
US20190349576A1 (en) Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays
TWI617948B (zh) 用於眼部追蹤的校正模組及其方法及電腦可讀取紀錄媒體
JP6898234B2 (ja) 反射に基づくコントロールのアクティブ化
TW201830050A (zh) 追蹤系統、追蹤裝置及追蹤方法
CN110313006A (zh) 一种人脸图像检测方法及终端设备
US9317111B2 (en) Providing greater access to one or more items in response to verifying device transfer
CN107209555B (zh) 具有俯仰角放大的基于头部的定标
WO2013005305A1 (ja) 認証装置、電子装置、方法及びプログラム
US20190021611A1 (en) Apparatus and method for measuring blood pressure
US8347399B2 (en) Providing greater access to one or more items in response to determining device transfer
US9851880B2 (en) Image rotation based on touch gestures
CN111316207A (zh) 头戴式显示设备及其触摸装置的自动校准方法
US20170083157A1 (en) Projection device
US20220108000A1 (en) Permitting device use based on location recognized from camera input
US20120254740A1 (en) Marking one or more items in response to determining device transfer
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
WO2020146485A1 (en) System and method for co-registration of sensors
US8726367B2 (en) Highlighting in response to determining device transfer
WO2013005306A1 (ja) 認証装置、電子装置、方法及びプログラム
JP6898021B2 (ja) 操作入力装置、操作入力方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11868864

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11868864

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP