WO2018135459A1 - 端末装置、表示位置制御プログラム及び表示位置制御方法 - Google Patents

端末装置、表示位置制御プログラム及び表示位置制御方法 Download PDF

Info

Publication number
WO2018135459A1
WO2018135459A1 PCT/JP2018/000940 JP2018000940W WO2018135459A1 WO 2018135459 A1 WO2018135459 A1 WO 2018135459A1 JP 2018000940 W JP2018000940 W JP 2018000940W WO 2018135459 A1 WO2018135459 A1 WO 2018135459A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
size
displayed
terminal device
information
Prior art date
Application number
PCT/JP2018/000940
Other languages
English (en)
French (fr)
Inventor
正範 河原
鈴木 誠
理恵 羽佐田
幸弘 安孫子
聡史 仙波
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP18741374.5A priority Critical patent/EP3573017A4/en
Publication of WO2018135459A1 publication Critical patent/WO2018135459A1/ja
Priority to US16/444,281 priority patent/US20190302998A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Definitions

  • the present invention relates to a terminal device, a display position control program, and a display position control method.
  • Patent Document 1 discloses a terminal device in which a line camera is arranged on the side of a display instead of a camera that can read biometric information in a batch, and the biometric information is read by moving the palm over the line camera. ing. This saves space.
  • Patent Document 1 when moving the palm, in order to reduce the reading error of biological information, a touch location indicating a position where the finger is placed is displayed on the display, and the finger is moved according to the touch location.
  • the palm passes over the line camera so that biometric information of the palm can be acquired.
  • the position of the camera (reference point) arranged in the terminal device is not affected by any of the models having different display physical sizes, such as 10.1 inches and 13.3 inches.
  • the touch location may not be displayed at the same distance. For this reason, an error in reading biometric information may occur depending on the size of the display.
  • an object of the present invention is to display a specific screen at the same position as viewed from a reference point in terminal devices having different display sizes.
  • a terminal device includes a calculation unit that calculates a display position of the specific screen in accordance with each information of the size of the display, the reference point, and the resolution of the display being displayed.
  • the present invention can display a specific screen at the same position as viewed from a reference point in terminal devices having different display sizes.
  • the figure for demonstrating reading operation using the guide screen which concerns on one Embodiment. The figure for demonstrating reading operation using the guide screen which concerns on one Embodiment.
  • the figure for demonstrating reading operation using the guide screen which concerns on one Embodiment.
  • the flowchart which shows an example of the BIOS process which concerns on one Embodiment.
  • biometric authentication In the biometric authentication technology, identity verification is performed using characteristic biometric information different for each individual such as a fingerprint, a face, a palm, an iris, and a vein.
  • palm authentication performs biometric authentication using biometric information such as palm prints, palm shapes, palm veins, and the like.
  • palm authentication in a terminal device having a biometric authentication function such as a tablet terminal will be described as an example, but biometric authentication is not limited to palm authentication.
  • the terminal device can be equipped with a biometric information reading device and a biometric authentication device.
  • the biometric information reading device may be included in the biometric authentication device.
  • the terminal device includes a PC (personal computer), a tablet terminal, a smartphone, a mobile terminal, and the like.
  • the terminal device 1 is a mobile terminal such as a tablet terminal or a smartphone.
  • the terminal device 1 having a biometric authentication function photographs a living body with a camera 17 provided in the housing 1A, for example.
  • the terminal device 1 is provided with a built-in display 21 in which a touch panel is laminated on the upper surface of a housing 1A having a substantially rectangular shape in a plan view, and the lateral center position of the housing 1A surrounding the built-in display 21 is provided.
  • a camera 17 is provided.
  • the position of the camera 17 is not limited to this, and may be provided at any position of the housing 1A.
  • the terminal device 1 saves space by moving the palm of the camera 17 to read the biological information.
  • a finger touch location 425 is displayed on the built-in display 21 in order to reduce biometric information reading errors.
  • the display of the touch location 425 includes, on the built-in display 21, a circular start guide button 425S indicating a starting point for placing a finger and a circular end guide button 425E indicating an end point for placing the finger.
  • the display of the touch location 425 includes a guideline L for sliding the finger from the start guide button 425S to the end guide button 425E and an arrow indicating the direction of sliding the finger.
  • the palm passes over the camera 17 so that biological information of the palm can be acquired. I have to.
  • the physical size of the display Is different.
  • the distance to the position of the reference point St where the camera of the terminal device 1 is arranged is the same for any of the terminal devices 1 having different display sizes.
  • the touch location 425 is displayed at the location. By doing so, it is possible to reduce biometric information reading errors.
  • the physical size of the display is different, so that the distance to the position of the reference point St where the camera of the terminal device 1 is arranged is different.
  • the touch location 425 is displayed. In this case, the touch location 425 may not be displayed at an appropriate position, and biometric information reading errors increase.
  • the touch location 425 that guides the reading operation of the biological information at the same position as viewed from the reference point St where the camera is arranged. Is displayed.
  • the reading operation here refers to the touch and slide movement of the user's finger according to the guide display.
  • the terminal device 1 includes a CPU (Central Processing Unit) 11, a system controller 12, a graphic controller 13, a memory 14, an HDD (Hard Disk Drive) 15, a nonvolatile memory 16, a camera 17, a touch panel 18, and a built-in display 21.
  • CPU Central Processing Unit
  • system controller 12 a system controller 12
  • graphic controller 13 a memory 14
  • HDD Hard Disk Drive
  • the terminal device 1 may further include a known communication interface that performs transmission and reception. Further, when the terminal device 1 has a function of connecting to an external network such as the Internet, the terminal device 1 may further include a known external interface.
  • the system controller 12 controls the entire terminal device 1.
  • the system controller 12 is connected to the CPU 11.
  • the system controller 12 is connected to the graphic controller 13, the memory 14, the HDD 15, the nonvolatile memory 16, the camera 17, the touch panel 18, and the built-in display 21 via the bus B.
  • an expansion slot such as PCI Express or PCI may be connected to the bus B, for example.
  • the CPU 11 can realize various functions of the terminal device 1 including biometric authentication by executing a computer program including an authentication processing program. Further, the CPU 11 can realize a function of controlling the display position of the touch location 425 by executing a display position control program.
  • the graphic controller 13 controls the built-in display 21 according to an instruction from the CPU 11 via the system controller 12 and executes various screen displays such as a display of the touch location 425.
  • the memory 14 may store an authentication processing program executed by the CPU 11, a computer program including a display position control program, various data, and the like.
  • the memory 14 may be configured by, for example, SDRAM (Synchronous Dynamic Random Access Memory).
  • SDRAM Serial Dynamic Random Access Memory
  • the memory 14 is an example of a storage unit.
  • the HDD 15 stores various programs and various data.
  • the HDD 15 is provided with an OS 15a.
  • an application for controlling the display position of the touch location 425 is installed in the HDD 15.
  • a BIOS Basic Input / Output System
  • the BIOS 16a executes a POST (Power-On Self Test) when the terminal device 1 is powered on or restarted.
  • the POST includes a device (peripheral device) initialization process. When the device initialization process is executed, the device is enabled.
  • the nonvolatile memory 16 may be configured by, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory).
  • the camera 17 captures an image of the palm moving over the camera 17 while the user touches the touch location 425 of the built-in display 21 and operates a finger according to the guide of the touch location 425.
  • the touch panel 18 is stacked on the built-in display 21 and detects coordinates touched by a user's finger.
  • the camera 17 is an example of a biological information reading device.
  • the biometric information reader can be formed by a camera 17 that captures palm palm patterns, palm shapes, faces, and the like, for example.
  • the biological information reader includes a near-infrared light source including an image sensor (or camera) having sensitivity in the near-infrared wavelength region for imaging, for example, palm veins, finger veins, and irises. It can be formed by an infrared sensor (or a near infrared camera).
  • the biological information reader may include both a camera having sensitivity in a wavelength region other than the near-infrared wavelength region and a near-infrared sensor.
  • the built-in display 21 has a built-in LCD (Liquid crystal display) 19 and a nonvolatile memory 20, and is a display built in the terminal device 1.
  • the built-in display 21 displays, in addition to characters, diagrams, messages, and the like, a touch location 425 such as a start position and an end position of the touch position indicating the operation position of the user's finger, a movement direction of the user's finger, and a movement instruction of the touch position .
  • unique information Extended Display Identification Data, hereinafter referred to as “EDID information”
  • the nonvolatile memory 20 may be configured by a ROM.
  • the terminal device 1 includes a storage unit 31, an initialization processing unit 32, a registration unit 33, an acquisition unit 34, a comparison unit 35, a calculation unit 36, and a display unit 37.
  • the storage unit 31 has a built-in display information table 38 and a guide position information table 39.
  • An example of the built-in display information table 38 is shown in FIG. 5, and an example of the guide position information table 39 is shown in FIG.
  • the internal display information table 38 shown in FIG. 5 stores information on the camera position (horizontal) XD, the camera position (vertical) YD, the horizontal width X1 of the internal display, and the vertical width Y1.
  • FIG. 7 shows an example of the physical screen size of the built-in display of the terminal device 1 and the arrangement of the guide buttons on the screen stored in the built-in display information table 38 in millimeters.
  • the distance in the horizontal direction from the reference point St of the camera 17 to the right side of the built-in display 21 and the boundary of the housing 1 ⁇ / b> A is displayed as the camera position (horizontal) XD.
  • the vertical distance from the reference point St of the camera 17 to the boundary between the upper side of the built-in display 21 and the housing 1A is displayed as the camera position (vertical) YD. That is, (XD, YD) indicates a relative position of the camera 17 from the built-in display 21 (hereinafter referred to as “relative position (XD, YD) of the camera 17”).
  • the relative position (XD, YD) of the camera 17 is a fixed value determined in advance as a distance at which palm authentication is possible.
  • the relative position (XD, YD) of the camera 17 is an example of the position of the biological information reader.
  • the relative position (XD, YD) of the camera 17 is an example of a reference point for displaying a specific screen. An example of the specific screen is a touch location 425.
  • the physical horizontal width and vertical width of the built-in display 21 are also displayed as X1 and Y1. That is, (X1, Y1) indicates the physical screen size of the built-in display 21 (hereinafter referred to as “physical screen size (X1, Y1)”).
  • the physical screen size (X1, Y1) is an example of a display size.
  • the relative position (XD, YD) and physical screen size (X1, Y1) of the camera 17 vary depending on the type of the terminal device 1. Therefore, in this embodiment, the registration unit 33 shown in FIG. 4 uses the physical screen size (X1, Y1) stored in the non-volatile memory 16 in the BIOS process executed when the terminal device 1 is started or restarted.
  • the relative position (XD, YD) of the camera 17 is stored in the memory 14. Accordingly, the built-in display information table 38 on the memory 14 stores the correct physical screen size (X1, Y1) of the terminal device and the relative position (XD, Y1) of the camera each time the terminal device 1 is started or restarted. YD) is saved.
  • the registration unit 33 may acquire the physical screen size (X1, Y1) from the EDID information stored in the nonvolatile memory 20 of the built-in display 21 and store it in the memory 14.
  • the registration unit 33 is executed by the BIOS 16a, for example.
  • the initialization processing unit 32 is executed by the BIOS 16a, for example.
  • the initialization processing unit 32 executes POST when starting up or restarting the terminal device 1 that is powered on, and performs device initialization processing.
  • the processing of the initialization processing unit 32 and the registration unit 33 is included in the BIOS processing performed by the BIOS 16a.
  • the registration unit 33 can acquire the EDID information of the built-in display 21 by using a protocol called GOP (Graphics Output Protocol). Thereby, the physical screen size (X1, Y1) of the built-in display 21 included in the EDID information can be acquired.
  • GOP Graphics Output Protocol
  • the relative position (XD, YD) and physical screen size (X1, Y1) of the camera 17 are acquired from the nonvolatile memory 16 in the BIOS process every time the terminal device 1 is started or restarted. And stored in the memory 14. Thereby, when control is handed over from the BIOS 16a to the OS 15a, an application running on the OS 15a accesses the memory 14, and these pieces of information (XD, YD) and (X1, Y1) unique to each terminal device 1 are accessed. Can be obtained.
  • SMBIOS System Management BIOS
  • XD, YD relative position
  • X1, Y1 physical screen size
  • offset values from the camera 17 of circular guide buttons are stored. Since the guide button 425n is updated at the passing point, there is an array coordinate between the start guide button 425S indicating the start position and the end guide button 425E indicating the end position.
  • the guide position information table 39 is stored in, for example, the HDD 15.
  • 7 includes an upper guideline Y coordinate GSH1 indicating the Y coordinate of the upper touch location 425 from the reference point St, a lower guideline Y coordinate GSH2 indicating the Y coordinate of the lower touch location 425 from the reference point St, and a guide.
  • the diameter GR of the button is displayed.
  • 7 includes guide button X array (1) GSL (1), guide button X array (n) GSL (n), and guide button X array (x) arranged on the X axis of guide line L.
  • GSL (x) is displayed.
  • a start guide button 425S having a diameter GR, an end guide button 425E, and a guide button 425n are displayed as an example of the guide button.
  • the guide position information table 39 stores the display position of the touch location 425 that guides the biological information reading operation set in advance.
  • FIG. 8 shows an example of the arrangement of the guide buttons of the terminal device 1 on the screen in units of pixels.
  • the calculation unit 36 converts the position in millimeters of each guide button of the start guide button 425S, the end guide button 425E, and the guide button 425n into a position in pixel units.
  • the calculation unit 36 sets the upper left vertex of the built-in display 21 shown in FIG. 8 to (0, 0), and determines the positions (pixel units) of GX1, Gxn, and GXx on the X axis (lateral direction) of the touch location 425 as follows: Calculate using.
  • GX1 PX1- (GSL (1) -XD) / UX1
  • GXx PX1- (GSL (x) -XD) / UX1
  • the calculation unit 36 uses the following expressions for the positions (pixel units) of GY1 and GY2 on the Y axis (vertical direction) of the two touch locations 425 shown in FIG. 8 and the radius (pixel unit) of each guide button. To calculate.
  • the calculation unit 36 uses the resolution of the built-in display 21, the size of the built-in display 21, and the relative position of the built-in display 21 from the camera 17 to change the preset display position of the touch location 425 from millimeters to pixels. Convert coordinates.
  • the display unit 37 shows the touch location 425 at the coordinate-converted display position. Accordingly, the touch location 425 can be displayed at an appropriate position for the camera 17 to capture the palm image, and the camera 17 can capture the palm image that can be biometrically authenticated.
  • the acquisition unit 34 acquires information on the relative position (XD, YD) and physical screen size (X1, Y1) of the camera 17 from the memory 14.
  • the acquisition unit 34 acquires information on the size (X2, Y2) of the display area of the screen displayed on the internal display 21 and the resolution of the internal display 21 being displayed.
  • the comparison unit 35 compares the acquired physical screen size (X1, Y1) with the size (X2, Y2) of the screen display area. As a result of comparison, if the physical screen size (X1, Y1) is different from the size (X2, Y2) of the display area of the screen, the display unit 37 guides the entire display range of the built-in display 21 to be displayed. Display the screen to be used. On the other hand, as a result of the comparison, when the physical screen size (X1, Y1) is the same as the size (X2, Y2) of the display area of the screen, the display unit 37 displays the touch location 425 at the calculated display location of the touch location. Is displayed.
  • Each part of the acquisition part 34, the comparison part 35, and the calculation part 36 is realizable by the process which the display position control program 40 memorize
  • the display unit 37 can be realized by the built-in LCD 19 of the built-in display 21, for example.
  • FIG. 4 is a block diagram focusing on functions, and a processor that executes software of each unit indicated by these functional blocks is hardware.
  • the storage unit 31 may form a database that can be connected to a storage area inside the terminal device 1 or the terminal device 1 via a network.
  • the built-in display information table 38 is stored in the nonvolatile memory 16 or the nonvolatile memory 20 of the terminal device 1 and stored in the memory 14.
  • the biometric authentication device 41 according to the present embodiment includes a biometric imaging unit 42, a feature extraction unit 43, an authentication unit 44, and a storage unit 45.
  • the biological imaging unit 42 images the biological information of the user.
  • the living body imaging unit 42 can be realized by the camera 17, for example.
  • the feature extraction unit 43 extracts feature information from the image of the user's biological information captured by the biological imaging unit 42.
  • the authentication unit 44 performs biometric authentication of the user from the extracted feature information.
  • the feature information registered in the storage unit 45 in advance and the feature information extracted by the feature extraction unit 43 from the user's biometric information captured by the biometric imaging unit 42 at the time of identity verification are compared and verified by the authentication unit 44.
  • the authentication unit 44 determines whether or not the result of the comparison and collation is within a predetermined threshold range, and outputs the identity verification result.
  • the authentication unit 44 determines that the biometric authentication is successful if the results of the comparison and matching match, and outputs an identification result indicating that the user is the person.
  • the pre-registered feature information may be called a registration template 46, for example.
  • the feature extraction unit 43 extracts feature information from the image of the user's biometric information captured by the biometric imaging unit 42. Then, the registration template is registered by supplying the feature information extracted in this way to the storage unit 45. Note that the registration template registered in the storage unit 45 may be obtained by processing the feature information.
  • the storage unit 45 is provided in the biometric authentication device 41, but may be stored in a storage unit outside the biometric authentication device 41.
  • an HDD Hard Disk Drive
  • a flash memory or the like, which is an example of the storage unit 45, may be externally connected to the biometric authentication device 41 via an interface such as a USB (Universal Serial Bus).
  • the storage unit 45 may form a database that can be connected to the biometric authentication device 41 via a network.
  • the functions of the feature extraction unit 43 and the authentication unit 44 of the biometric authentication device 41 are executed by a program.
  • the program installed in the terminal device 1 is executed by the CPU 11, the authentication process is realized in the terminal device 1.
  • FIG. 10 to 12 are diagrams for explaining an example of the reading operation of the biological information.
  • FIG. 10 is a plan view of the terminal device 1 operated by the user 100.
  • two touch locations 425 where the guideline L, the start guide button 425S, the guide button 425n, and the end guide button 425E are displayed are displayed on the built-in display 21 of the terminal device 1.
  • a touch location 425 indicating a biometric information reading operation is displayed at the same position as viewed from the reference point St of the camera 17. For this reason, in any terminal device 1 having a different size of the built-in display 21, the relative angular deviation between the terminal device 1 and the user 100 hand is reduced, and the palm 100 ⁇ / b> A is stably imaged by the camera 17. it can.
  • the two guide lines L of the touch location 425 are continuously displayed on the built-in display 21, but may be displayed intermittently.
  • the display unit 37 includes a start guide button 425S indicating an operation start position, a guideline L, and an end guide button 425E indicating an operation end position on the built-in display 21 in accordance with the control of the CPU 11.
  • Each touch location 425 is displayed.
  • the touched place 425 that has been operated and the touched place 425 that has not been operated may be displayed by changing the color shades and line types of the guideline L, the start guide button 425S, the guide button 425n, and the end guide button 425E.
  • a guide button 425n indicating the point being operated is displayed at the center of the guideline L.
  • the display unit 37 displays the moving direction with arrows.
  • the guide button 425n indicating the point of the arrangement on the guideline L through which the finger operated by the user 100 has passed may be displayed with dark hatching.
  • the portion of the guideline L that has not been operated by the user 100 may be displayed with thin hatching.
  • the passed guide button 425n is darkly hatched.
  • the guide button 425n that has not been displayed may be displayed with thin hatching.
  • one of the touch locations 425 is set to a position where the imaging target of the biological imaging unit 42 is the palm 100A on the wrist side of the user 100, and the other one of the touch locations 425 is imaging of the biological imaging unit 42.
  • the target may be set to a position where the palm 100 ⁇ / b> A on the fingertip side of the user 100 becomes.
  • a single operation display 526 may be displayed as a common guide for a plurality of touch locations 425.
  • the single operation display 526 has a bar shape.
  • the palm 100A can be stably imaged by the camera 17.
  • the display of the guide screen that guides the biometric information reading operation includes a plurality of touch locations 425 and a single operation display 526.
  • the user 100 performs a touch operation along the guideline L while looking at the touch location 425.
  • the operation display 526 has a bar shape that can be seen from between the fingers of the user 100, thereby further performing the finger touch operation in accordance with the touch location 425. Can be easily. Note that the shape and display format of the operation display 526 that connects the two touch locations 425 into one are not particularly limited.
  • the touch operation on the other touch location 425 is not performed.
  • the operated guide button 425n is displayed with dark hatching and the guide button 425n not passed is displayed with light hatching for the arrangement of both guide buttons 425n of the two guide lines L. It may be done in this way. In this case, the amount of calculation can be reduced as compared with the case where the touch location 425 for guiding the next touch is updated according to the operation on each of the two touch locations 425. Further, only one touch location 425 may be displayed on the guide screen.
  • the start of imaging by the camera 17 is determined based only on an operation with respect to one guideline L, there is a possibility that the hand posture is not stable. For this reason, it is preferable that a plurality of touch locations 425 are displayed on the guide screen. In particular, the determination of the start of imaging by the camera 17 is performed on the condition that touch operations on the plurality of guide lines L are performed simultaneously. It is desirable to make it.
  • three touch locations 425 may be displayed in the vertical direction on the terminal device 1 arranged vertically.
  • the user 100 simultaneously traces the three touch locations 425 with the fingertips (in this example, the index finger, the middle finger, and the ring finger), and the camera 17 images the palm 100A within the imaging range 17A.
  • the angle of the palm 100A with respect to the touch panel 18 is stable and greatly changes while the plurality of fingertips slide on the touch panel 18 simultaneously. Absent. For this reason, the shift of the relative angle between the terminal device 1 and the hand of the user 100 is reduced, and the palm 100 ⁇ / b> A can be stably imaged by the camera 17.
  • FIG. 13 is a flowchart illustrating an example of a BIOS process according to an embodiment.
  • the BIOS processing according to the present embodiment is executed by, for example, the initialization processing unit 32 and the registration unit 33 realized by the BIOS 16a.
  • the initialization processing unit 32 executes initialization processing of various devices (step S12).
  • the initialization process for various devices includes an initialization process for the memory 14 and an initialization process for the built-in display 21.
  • the registration unit 33 acquires the physical screen size (X1, Y1) of the built-in display 21 and the relative position (XD, YD) of the camera 17 stored in the nonvolatile memory 16 (step S14).
  • the registration unit 33 stores the acquired physical screen size (X1, Y1) and the relative position (XD, YD) of the camera 17 on the memory 14 (step S16), ends the BIOS processing, and returns to the OS 15a. Deliver processing.
  • FIG. 14 is a flowchart illustrating an example of a display position control process according to an embodiment.
  • the display position control process according to the present embodiment is executed by the acquisition unit 34, the comparison unit 35, the calculation unit 36, and the display unit 37 that are realized by, for example, an application that operates on the OS 15a.
  • an application for executing the display position control process operates according to the display position control program 40 on the OS 15a, and this process is started (step S20).
  • the application is controlled by the CPU 11.
  • the acquisition unit 34 acquires the physical screen size (X1, Y1, millimeter unit) stored in the built-in display information table 38 in the memory 14 (step S22). Next, the acquisition unit 34 acquires the display area size (X2, Y2, millimeter unit) and resolution (PX1, PY1, pixel unit) of the screen of the built-in display 21 using the standard API (Application Interface) of the OS 15a (step S24). ).
  • the comparison unit 35 has the X-axis physical screen size X1 equal to the display area size X2 of the displayed X-axis screen and the Y-axis screen size Y1 of the displayed Y-axis. It is compared whether it is equal to the display area size Y2 of the screen (step S26).
  • step S26 when the condition of step S26 is not satisfied, for example, as shown in FIG. 15, for example, the physical screen size (X1, Y1) of (a) is changed to the display area size (b) of the screen (b). X2, Y2).
  • the display unit 37 displays a screen that prompts the display area of the display to be a full screen (step S28), returns to the process of step S22, and steps S22 to S26. Repeat the process.
  • step S26 if the result of comparison is that the condition of step S26 is satisfied, the calculation unit 36 calculates the size (UX1 ⁇ UY1, millimeter unit) per pixel (step S30).
  • the horizontal size UX1 per pixel is calculated by X1 / PX1, and the vertical size UY1 is calculated by Y1 / PY1.
  • the calculation unit 36 converts the position in millimeters of each guide button of the start guide button 425S, the end guide button 425E, and the guide button 425n into a position in pixel units. For example, the calculation unit 36 sets the upper left vertex of the built-in display 21 shown in FIG. 8 to (0, 0), and sets the positions (pixel units) of GX1, Gxn, and GXx on the X axis (lateral direction) of the touch location 425 as follows. Calculate using the formula.
  • GX1 PX1- (GSL (1) -XD) / UX1
  • GXx PX1- (GSL (x) -XD) / UX1
  • the calculation unit 36 uses, for example, the following expressions for the positions (pixel units) of GY1 and GY2 on the Y axis (vertical direction) of the two touch locations 425 shown in FIG. To calculate.
  • the calculation unit 36 uses the information on the resolution (PX1, PY1) of the built-in display 21, the physical screen size (X1, Y1), and the relative position (XD, YD) of the camera 17 to set a touch location in advance.
  • the coordinates of the display position 425 are converted into a display position in units of pixels.
  • the guide screen of the touch location 425 can be displayed at the same position as viewed from the reference point St of the camera 17 in any terminal device 1 of a model having a different physical screen size.
  • the camera 17 can correctly and stably capture a plurality of palm images that can be biometrically authenticated.
  • the display unit 37 displays each guide button and the guideline L at the display position coordinate-converted to the pixel unit of each guide button of the start guide button 425S, the end guide button 425E, and the guide button 425n (Step S34). The process ends.
  • each information of the position (reference point St) of the camera 17 for acquiring the resolution, the physical screen size, and the biological information of the display for displaying the touch location 425 is acquired by the application on the OS 15a. Then, the display position from the reference point St of each guide button at the touch location 425 is coordinate-converted in pixel units in accordance with the display to be displayed based on each information acquired above.
  • the display-dependent information includes the display resolution, physical screen size, and relative position of the camera 17, but the resolution of the built-in display 21 can be obtained with the standard API (APPLICATION INTERFACE) of the OS 15a.
  • the firmware (BIOS 16 a) installed in the terminal device 1 can be accessed by the application during initialization processing (POST) of the terminal device 1. Save in the memory 14.
  • the application on the OS 15a can read the information, and the display position from the reference point St of each guide button at the touch location 425 can be coordinate-converted in pixel units in accordance with the display. .
  • the display position from the reference point St of each guide button at the touch location 425 is fixed, it may be held in the guide position information table 39 and stored in the HDD 15 or the memory 14 in this embodiment.
  • each information of the physical screen size of the built-in display 21 and the relative position of the camera is stored in the memory 14 that can be referred to from the application at the time of POST, and the application reads the information from the memory 14. Then, the application converts each guide button at the touch location 425 into coordinates in pixel units in accordance with the physical screen size of the built-in display 21 to be displayed. Thereby, even in the terminal device 1 with a different display, the touch location 425 is displayed at the same position as viewed from the reference point St.
  • the BIOS 16 a stores the physical screen size of the built-in display 21 of the terminal device 1 on the memory 14. For this reason, the application need not rewrite the built-in display information table 38 for each terminal device 1.
  • specific coordinate transformation is performed for the touch location 425 shown in FIG.
  • the specific screen is not limited to the guide screen of the touch location 425 illustrated in FIG. 11, and may be the guide screen of the touch location 425 illustrated in FIG. 11 or the touch location 425 illustrated in FIG. 12.
  • the specific screen may be a screen other than the guide screen at the touch location 425 shown in FIGS.
  • the terminal device, the display position control program, and the display position control method have been described in the above embodiment.
  • the terminal device, the display position control program, and the display position control method according to the present invention are not limited to the above embodiment.
  • Various modifications and improvements are possible within the scope of the present invention.
  • Terminal device 11
  • CPU system controller 13
  • graphic controller 14
  • HDD Nonvolatile memory 17
  • Camera Touch panel 19
  • Built-in LCD DESCRIPTION OF SYMBOLS 20
  • Nonvolatile memory 21
  • storage part 32
  • Initialization process part 33
  • Registration part 34 Acquisition part 35 Comparison part 36
  • Display part 38
  • Display information table 39
  • Guide position information table 40
  • Biometric authentication apparatus 42
  • Biometric imaging unit 43
  • Feature extraction unit 44
  • Storage unit 46
  • Registration template 425 Touch location 425S Start guide button 425E End guide button 425n Guide button

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

表示されているディスプレイのサイズ及び特定の画面を表示するための基準点の各情報を記憶する記憶部を参照して、予め設定された前記特定の画面の表示位置から、前記ディスプレイのサイズ、前記基準点、及び表示されているディスプレイの解像度の各情報に合わせた前記特定の画面の表示位置を算出する算出部、を有する端末装置が提供される。

Description

端末装置、表示位置制御プログラム及び表示位置制御方法
 本発明は、端末装置、表示位置制御プログラム及び表示位置制御方法に関する。
 タブレット端末等の携帯端末の中には、生体認証機能を備えた装置がある(例えば、特許文献1参照)。特許文献1では、生体情報を一括して読み取りできるカメラに代えて、ディスプレイの横側にラインカメラを配置し、そのラインカメラの上を、手のひらを移動させて生体情報を読み取る端末装置が開示されている。これにより、省スペース化を図っている。
 特許文献1では、手のひらを移動させる際、生体情報の読み取りエラーを減らすために、ディスプレイの上に、指を置く位置を示すタッチ場所を表示して、そのタッチ場所に従って指を移動させることで、ラインカメラの上を手のひらが通過し、手のひらの生体情報を取得できるようにしている。
特開2016-212636号公報
 しかしながら、特許文献1では、10.1インチと13.3インチ等、ディスプレイの物理的なサイズが異なる機種のいずれに対しても、端末装置に配置されているカメラの位置(基準点)までの距離が同じ箇所にタッチ場所を表示することはできない場合がある。このため、ディスプレイの大きさによっては、生体情報の読み取りエラーが生じる場合がある。
 そこで、1つの側面では、本発明は、ディスプレイのサイズが異なる端末装置において、基準点から見て同じ位置に特定の画面を表示することを目的とする。
 1つの実施態様では、表示されているディスプレイのサイズ及び特定の画面を表示するための基準点の各情報を記憶する記憶部を参照して、予め設定された前記特定の画面の表示位置から、前記ディスプレイのサイズ、前記基準点、及び表示されているディスプレイの解像度の各情報に合わせた前記特定の画面の表示位置を算出する算出部、を有する端末装置が提供される。
 1つの側面では、本発明は、ディスプレイのサイズが異なる端末装置において、基準点から見て同じ位置に特定の画面を表示することができる。
一実施形態に係る端末装置のガイド画面の一例を示す図。 異なるサイズのディスプレイに表示するガイド画面の一例を示す図。 一実施形態に係る端末装置のハードウェア構成の一例を示す図。 一実施形態に係る端末装置の機能構成の一例を示す図。 一実施形態に係る内蔵ディスプレイ情報テーブルの一例を示す図。 一実施形態に係るガイド位置情報テーブルの一例を示す図。 一実施形態に係るガイド画面の配置(ミリ単位)の一例を示す図。 一実施形態に係るガイド画面の配置(ピクセル単位)の一例を示す図。 一実施形態に係る生体認証装置の機能構成の一例を示す図。 一実施形態に係るガイド画面を用いた読取操作を説明するための図。 一実施形態に係るガイド画面を用いた読取操作を説明するための図。 一実施形態に係るガイド画面を用いた読取操作を説明するための図。 一実施形態に係るBIOS処理の一例を示すフローチャート。 一実施形態に係る表示位置制御処理の一例を示すフローチャート。 一実施形態に係る全画面表示と一部画面表示を説明するための図。
 以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
 [生体認証]
 生体認証技術では、指紋、顔、手のひら、虹彩、静脈などの個人毎に異なる特徴的な生体情報を用いて本人確認が行われる。例えば、手のひら認証は、掌紋、掌形、手のひら静脈などの生体情報を用いて生体認証を行う。以下の説明では、タブレット端末など、生体認証機能を備えた端末装置における手のひら認証を例に説明するが、生体認証は手のひら認証に限定されるものではない。
 本発明の一実施形態に係る端末装置は、生体情報の読取装置及び生体認証装置を搭載可能である。生体情報の読取装置は、生体認証装置に含まれていても良い。
 端末装置には、PC(パーソナルコンピュータ)、タブレット端末、スマートフォン、携帯端末などが含まれる。以下に示す例では、端末装置1は、タブレット端末、スマートフォン等の携帯端末である。
 [ガイド画面]
 まず、本実施形態に係る端末装置1のガイド画面の一例について、図1を参照しながら説明する。生体認証機能を備えた端末装置1は、例えば筐体1Aに設けられたカメラ17で生体を撮影する。この例では、端末装置1には、平面図上で略長方形を有する筐体1Aの上面にタッチパネルが積層された内蔵ディスプレイ21が設けられ、内蔵ディスプレイ21を囲む筐体1Aの横側中央の位置に、カメラ17が設けられている。ただし、カメラ17の位置は、これに限らず、筐体1Aのいずれかの位置に設けられていればよい。端末装置1は、カメラ17の上を、手のひらを移動させて生体情報を読み取ることで、省スペース化を図っている。
 手のひらを移動させる際、生体情報の読み取りエラーを減らすために、内蔵ディスプレイ21には、指のタッチ場所425が表示されている。タッチ場所425の表示には、内蔵ディスプレイ21の上に、指を置く始点を示す円状のスタートガイドボタン425Sと、指を置く終点を示す円状のエンドガイドボタン425Eとが含まれる。また、タッチ場所425の表示には、指をスタートガイドボタン425Sからエンドガイドボタン425EまでスライドさせるガイドラインLと指をスライドさせる方向を示す矢印とが含まれる。表示の例では、2本のタッチ場所425に従って2本の指をスタートガイドボタン425Sからエンドガイドボタン425Eまで移動させることで、カメラ17の上を手のひらが通過し、手のひらの生体情報を取得できるようにしている。
 図2に示すように、例えばディスプレイのサイズが10.1インチの端末装置1の機種Aと、ディスプレイのサイズが13.3インチの端末装置1の機種Bとでは、ディスプレイの物理的な大きさが異なる。この場合、図2の上側の図に示すように、ディスプレイのサイズの異なる端末装置1のいずれに対しても、端末装置1のカメラが配置される基準点Stの位置までの距離が同じとなる箇所にタッチ場所425を表示することが理想である。そうすれば、生体情報の読み取りエラーを減らすことができる。
 しかしながら、実際には、図2の下側の図に示すように、ディスプレイの物理的な大きさが異なるために、端末装置1のカメラが配置される基準点Stの位置までの距離が異なる箇所にタッチ場所425が表示されてしまう。この場合、タッチ場所425が適正な位置に表示されない場合が生じ、生体情報の読み取りエラーが増えることになる。
 そこで、本実施形態に係る端末装置1では、内蔵ディスプレイ21のサイズが異なる端末装置1において、カメラが配置される基準点Stから見て同じ位置に、生体情報の読取操作をガイドするタッチ場所425を表示する。なお、ここでの読取操作は、ガイド表示に従ったユーザの指のタッチ及びスライド移動をいう。以下、本実施形態に係る端末装置1の構成及び端末装置1によるタッチ場所425の表示位置の制御について説明する。
 [ハードウェア構成]
 まず、本実施形態に係る端末装置1のハードウェア構成の一例について、図3を参照しながら説明する。端末装置1は、CPU(Central Processing Unit)11、システムコントローラ12、グラフィックコントローラ13、メモリ14、HDD(Hard Disk Drive)15、不揮発性メモリ16、カメラ17、タッチパネル18及び内蔵ディスプレイ21を有する。
 端末装置1が通信機能を有する場合には、送受信を行う周知の通信インターフェースをさらに有しても良い。また、端末装置1がインターネットなどの外部のネットワークと接続する機能を有する場合には、周知の外部インターフェースをさらに有しても良い。
 システムコントローラ12は、端末装置1の全体を制御する。システムコントローラ12は、CPU11と接続されている。また、システムコントローラ12は、バスBを介して、グラフィックコントローラ13、メモリ14、HDD15、不揮発性メモリ16、カメラ17、タッチパネル18及び内蔵ディスプレイ21と接続されている。更に、バスBには、例えばPCI Express又はPCI等の拡張スロットが接続されていてもよい。
 CPU11は、認証処理プログラムを含むコンピュータプログラムを実行することにより、生体認証を含む端末装置1の種々の機能を実現できる。また、CPU11は、表示位置制御プログラムを実行することにより、タッチ場所425の表示位置を制御する機能を実現できる。
 グラフィックコントローラ13は、システムコントローラ12を介してCPU11からの指示に従い、内蔵ディスプレイ21を制御し、タッチ場所425の表示等、種々の画面表示を実行する。
 メモリ14は、CPU11が実行する認証処理プログラム、表示位置制御プログラムを含むコンピュータプログラム、各種データなどを格納してもよい。メモリ14は、例えばSDRAM(Synchronous Dynamic Random Access Memory)により構成されてもよい。メモリ14は、記憶部の一例である。
 HDD15は、種々のプログラムや種々のデータを記憶する。HDD15には、OS15aが実装される。また、HDD15にはタッチ場所425の表示位置制御を行うためのアプリケーションがインストールされている。
 不揮発性メモリ16には、BIOS(Basic Input / Output System)16aが実装される。BIOS16aは、端末装置1の電源がオンされた起動時又は再起動時にPOST(Power-On Self Test:自己診断テスト)を実行する。POSTには、デバイス(周辺機器)の初期化処理が含まれる。デバイスの初期化処理が実行されると、そのデバイスは有効な状態となる。不揮発性メモリ16は、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)により構成されてもよい。
 カメラ17は、ユーザが内蔵ディスプレイ21のタッチ場所425にタッチし、タッチ場所425のガイドに従い指を操作させる間に、カメラ17の上空を移動する手のひらを撮像する。タッチパネル18は、内蔵ディスプレイ21に積層され、ユーザの指がタッチした座標を検出する。
 カメラ17は、生体情報の読取装置の一例である。生体情報の読取装置は、例えば手のひらの掌紋や掌形、顔などを撮像するカメラ17で形成可能である。また、生体情報の読取装置は、例えば手のひらの静脈、指の静脈、虹彩などを撮像する近赤外波長領域に感度を持つイメージセンサ(または、カメラ)と近赤外光照明光源とを含む近赤外センサ(または、近赤外カメラ)で形成可能である。また、生体情報の読取装置は、近赤外波長領域以外の波長領域に感度を持つカメラと、近赤外センサとの両方を含んでも良い。
 内蔵ディスプレイ21は、内蔵LCD(Liquid crystal display)19及び不揮発性メモリ20を有し、端末装置1に内蔵されたディスプレイである。内蔵ディスプレイ21は、文字、図、メッセージなどに加え、ユーザの指の操作位置を示すタッチ位置の始点や終点、ユーザの指の移動方向、タッチ位置の移動指示などのタッチ場所425等を表示する。不揮発性メモリ20には、内蔵LCD19の固有情報(Extended Display Identification Data、以下、「EDID情報」という。)が保存されている。不揮発性メモリ20は、ROMにより構成されてもよい。
 [機能構成]
 次に、本実施形態に係る端末装置1の機能構成の一例について、図4を参照しながら説明する。端末装置1は、記憶部31、初期化処理部32、登録部33、取得部34、比較部35、算出部36及び表示部37を有する。
 記憶部31は、内蔵ディスプレイ情報テーブル38及びガイド位置情報テーブル39を有する。内蔵ディスプレイ情報テーブル38の一例を図5に示し、ガイド位置情報テーブル39の一例を図6に示す。
 図5に示す内蔵ディスプレイ情報テーブル38には、カメラの位置(横)XD、カメラの位置(縦)YD、内蔵ディスプレイの横の幅X1、縦の幅Y1の各情報が記憶されている。図7には、内蔵ディスプレイ情報テーブル38に記憶された、端末装置1の内蔵ディスプレイの物理的な画面サイズとガイドボタンの画面上の配置の一例がミリ単位で示されている。端末装置1には、カメラ17の基準点Stから内蔵ディスプレイ21の右辺と筐体1Aの境界までの横方向の距離が、カメラの位置(横)XDで表示されている。また、カメラ17の基準点Stから内蔵ディスプレイ21の上辺と筐体1Aの境界までの縦方向の距離が、カメラの位置(縦)YDで表示されている。つまり、(XD,YD)は、内蔵ディスプレイ21からのカメラ17の相対位置(以下、「カメラ17の相対位置(XD,YD)」という。)を示す。カメラ17の相対位置(XD,YD)は、手のひらの認証が可能な距離として、予め定められた固定値である。カメラ17の相対位置(XD,YD)は、生体情報の読取装置の位置の一例である。また、カメラ17の相対位置(XD,YD)は、特定の画面を表示するための基準点の一例である。特定の画面の一例としては、タッチ場所425が挙げられる。
 図7には、また、内蔵ディスプレイ21の物理的な横幅及び縦幅が、X1及びY1で表示されている。つまり、(X1,Y1)は、内蔵ディスプレイ21の物理的な画面サイズ(以下、「物理画面サイズ(X1,Y1)」という。)を示す。物理画面サイズ(X1,Y1)は、ディスプレイのサイズの一例である。
 カメラ17の相対位置(XD,YD)と物理画面サイズ(X1,Y1)は、端末装置1の種別によって変わる。したがって、本実施形態では、図4に示す登録部33が、端末装置1の起動時又は再起動時に実行するBIOS処理において、不揮発性メモリ16に保存している物理画面サイズ(X1,Y1)とカメラ17の相対位置(XD,YD)を、メモリ14に記憶する。これにより、メモリ14上の内蔵ディスプレイ情報テーブル38には、端末装置1が起動又は再起動される度に、端末装置の正しい物理画面サイズ(X1,Y1)と、カメラ17の相対位置(XD,YD)が保存される。
 なお、登録部33は、物理画面サイズ(X1,Y1)を、内蔵ディスプレイ21の不揮発性メモリ20に保存されているEDID情報から取得して、メモリ14に記憶してもよい。登録部33は、例えばBIOS16aにより実行される。
 初期化処理部32も同様に、例えばBIOS16aにより実行される。初期化処理部32は、電源がオンされた端末装置1の起動時又は再起動時にPOSTを実行し、デバイスの初期化処理を行う。初期化処理部32及び登録部33の処理は、BIOS16aが行うBIOS処理に含まれる。
 なお、端末装置1のPOST処理においては、複数のディスプレイが端末装置1に接続されていても内蔵ディスプレイ21のみに表示を行うことが一般的である。このため、登録部33は、内蔵ディスプレイ21のEDID情報をGOP(Graphics Output Protocol)と呼ばれるプロトコルを使って取得することが可能である。これにより、EDID情報に含まれる内蔵ディスプレイ21の物理画面サイズ(X1,Y1)を取得することができる。
 以上に説明したように、端末装置1が起動または再起動されるたびにBIOS処理において、カメラ17の相対位置(XD,YD)と物理画面サイズ(X1,Y1)が、不揮発性メモリ16から取得され、メモリ14に保存される。これにより、BIOS16aからOS15aに制御が引き渡されたときに、OS15a上で動作するアプリケーションが、メモリ14にアクセスし、端末装置1毎に固有のこれらの情報(XD,YD)及び(X1,Y1)を取得することができる。
 メモリ14内で使用するメモリ領域としては、System Management BIOS(SMBIOS)によって定義されたメモリ領域が候補に上げられる。本実施形態ではSMBIOSによって定義したメモリ領域にカメラ17の相対位置(XD,YD)と物理画面サイズ(X1,Y1)を保存するものとし、メモリ領域への保存及び読み取りの方法についてはSMBIOSの仕様に従うものとし詳細は割愛する。
 図4のガイド位置情報テーブル39には、円状のガイドボタン(スタートガイドボタン425S、エンドガイドボタン425E、ガイドボタン425nの各ガイドボタン)のカメラ17からのオフセット値が保存されている。ガイドボタン425nは通過点で更新するため、開始位置を示すスタートガイドボタン425Sと終了位置を示すエンドガイドボタン425Eの間に配列座標を持っている。
 具体的には、図6に示すガイド位置情報テーブル39には、上部ガイドラインY座標GSH1、下部ガイドラインY座標GSH2が記憶されている。また、ガイド位置情報テーブル39には、ガイドボタンX配列(1)GSL(1)、ガイドボタンX配列(n)(n=2,3・・・、x-1)GSL(n)、ガイドボタンX配列(x)GSL(x)、ガイドボタンの直径GRの各情報が記憶されている。ガイド位置情報テーブル39は、例えばHDD15に記憶されている。
 図7の端末装置1には、基準点Stから上段のタッチ場所425のY座標を示す上部ガイドラインY座標GSH1、基準点Stから下段のタッチ場所425のY座標を示す下部ガイドラインY座標GSH2及びガイドボタンの直径GRが表示されている。また、図7の端末装置1には、ガイドラインLのX軸に配列するガイドボタンX配列(1)GSL(1)、ガイドボタンX配列(n)GSL(n)及びガイドボタンX配列(x)GSL(x)が表示されている。図7には、ガイドボタンの一例として、直径GRのスタートガイドボタン425S、エンドガイドボタン425E、ガイドボタン425nが表示されている。以上のように、ガイド位置情報テーブル39は、予め設定された生体情報の読取操作をガイドするタッチ場所425の表示位置を記憶する。
 図8には、端末装置1のガイドボタンの画面上の配置の一例がピクセル単位で示されている。(PX1,PY1)は画面の解像度である。1ピクセル当たりのサイズ(mm)を(UX1×UY1)とすると、UX1=X1/PX1、UY1=Y1/PY1となる。
 算出部36は、スタートガイドボタン425S、エンドガイドボタン425E、ガイドボタン425nの各ガイドボタンのミリ単位の位置をピクセル単位の位置に変換する。算出部36は、図8に示す内蔵ディスプレイ21の左上の頂点を(0,0)とし、タッチ場所425のX軸(横方向)のGX1、Gxn、GXxの位置(ピクセル単位)を以下の式を用いて算出する。
 GX1=PX1-(GSL(1)-XD)/UX1
 GXn=PX1-(GSL(n)-XD)/UX1(n=2,・・・,x-1)
 GXx=PX1-(GSL(x)-XD)/UX1
 また、算出部36は、図8に示す2本のタッチ場所425のY軸(縦方向)のGY1、GY2の位置(ピクセル単位)及び各ガイドボタンの半径(ピクセル単位)を以下の式を用いて算出する。
 GY1=(YD-GSH1)/UY1
 GY2=(YD+GSH2)/UY1
 GRP=GR/UX1
 以上から、算出部36は、予め設定された生体情報の読取操作をガイドするタッチ場所425の表示位置から、物理画面サイズ(X1,Y1)、カメラ17の相対位置(XD,YD)及び内蔵ディスプレイ21の解像度(PX1,PY1)に合わせたタッチ場所425の表示位置を算出する。つまり、算出部36は、内蔵ディスプレイ21の解像度、内蔵ディスプレイ21のサイズ及び内蔵ディスプレイ21のカメラ17からの相対位置を用いて、予め設定されたタッチ場所425の表示位置をミリ単位からピクセル単位に座標変換する。表示部37は、座標変換された表示位置にタッチ場所425を示す。これにより、カメラ17が手のひらの画像を撮像するために適正な位置にタッチ場所425を表示することができ、カメラ17は、生体認証が可能な手のひらの画像を撮像することができる。
 図4に戻り、取得部34は、メモリ14からカメラ17の相対位置(XD,YD)と物理画面サイズ(X1,Y1)の情報を取得する。取得部34は、内蔵ディスプレイ21に表示されている画面の表示領域のサイズ(X2,Y2)と、表示されている内蔵ディスプレイ21の解像度の情報を取得する。
 比較部35は、取得した物理画面サイズ(X1,Y1)と画面の表示領域のサイズ(X2,Y2)を比較する。比較した結果、物理画面サイズ(X1,Y1)が画面の表示領域のサイズ(X2,Y2)と異なる場合、表示部37は、表示されている内蔵ディスプレイ21の表示範囲を全面にするように案内する画面を表示する。他方、比較した結果、物理画面サイズ(X1,Y1)が画面の表示領域のサイズ(X2,Y2)と同じ場合、表示部37は、算出(座標変換)したタッチ場所の表示位置にタッチ場所425を表示する。
 取得部34、比較部35、算出部36の各部は、例えば記憶部31に記憶された表示位置制御プログラム40が、CPU11に実行させる処理により実現可能である。表示部37は、例えば内蔵ディスプレイ21の内蔵LCD19により実現可能である。
 なお、図4は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部のソフトウェアを実行するプロセッサはハードウェアである。記憶部31は、端末装置1の内部の記憶領域又は端末装置1とネットワークを介して接続可能なデータベースを形成しても良い。ただし、内蔵ディスプレイ情報テーブル38は、端末装置1の不揮発性メモリ16又は不揮発性メモリ20に保存され、メモリ14に記憶される。
 [生体認証装置]
 本実施形態に係る端末装置1に搭載されている本実施形態に係る生体認証装置41の機能構成の一例について、図9を参照しながら説明する。本実施形態に係る生体認証装置41は、生体撮像部42、特徴抽出部43、認証部44及び記憶部45を有する。
 生体撮像部42は、ユーザの生体情報を撮像する。生体撮像部42は、例えばカメラ17により実現可能である。特徴抽出部43は、生体撮像部42が撮像したユーザの生体情報の画像から特徴情報を抽出する。認証部44は、抽出した特徴情報からユーザの生体認証を行う。
 生体認証装置41が実行する生体認証処理では、予め記憶部45に登録されている特徴情報と、本人確認時に生体撮像部42が撮像したユーザの生体情報から特徴抽出部43が抽出した特徴情報とを、認証部44が比較照合する。認証部44は、比較照合の結果が所定の閾値の範囲内で一致するか否かを判定して本人確認結果を出力する。認証部44は、比較照合の結果が一致すれば生体認証が成功したと判定し、ユーザが本人であることを表す本人確認結果を出力する。
 予め登録されている特徴情報は、例えば登録テンプレート46と呼ばれる場合がある。登録テンプレートの登録処理では、上記生体認証処理の場合と同様に、生体撮像部42が撮像したユーザの生体情報の画像から特徴抽出部43が特徴情報を抽出する。そして、登録テンプレートは、このように抽出した特徴情報を記憶部45に供給することで登録される。なお、記憶部45に登録される登録テンプレートは、特徴情報に処理を施されたものであっても良い。
 記憶部45は、図9の例では生体認証装置41内に設けられているが、生体認証装置41外の記憶部に記憶されていても良い。例えば、記憶部45の一例であるHDD(Hard Disk Drive)、フラッシュメモリなどが、USB(Universal Serial Bus)などのインターフェースを介して生体認証装置41に外部接続されていても良い。また、記憶部45は、生体認証装置41とネットワークを介して接続可能なデータベースを形成しても良い。
 なお、本実施形態では、生体認証装置41の特徴抽出部43及び認証部44の機能は、プログラムにより実行される。端末装置1にインストールされた該プログラムがCPU11により実行されることにより端末装置1にて上記認証処理が実現される。
 [生体情報の読取操作]
 次に、生体情報の読取操作の一例について、図10~図12を参照しながら説明する。
 図10~図12は、生体情報の読取操作の例を説明するための図である。図10はユーザ100により操作される端末装置1の平面図を示す。図10に示す例では、端末装置1の内蔵ディスプレイ21の上に、ガイドラインLとスタートガイドボタン425S、ガイドボタン425n、エンドガイドボタン425Eが表示されたタッチ場所425が2本表示されている。
 ユーザ100は、指先(この例では親指、及び人差し指)で2本のタッチ場所425を同時になぞる。そうすると、カメラ17はその間撮像範囲17A内で手のひら100Aを撮像する。ユーザ100が複数の指先でタッチ場所425に対して同時にスライドしてタッチする操作を行う場合、複数の指先が内蔵ディスプレイ21上を同時にスライドする間、手のひら100Aの内蔵ディスプレイ21に対する角度は安定しており大きく変化することはない。このため、端末装置1とユーザ100の手との相対的な角度のずれを低減して、カメラ17により手のひら100Aを安定に撮像できる。
 加えて、本実施形態では、内蔵ディスプレイ21のサイズが異なる端末装置1において、カメラ17の基準点Stから見て同じ位置に生体情報の読取操作を示すタッチ場所425を表示する。このため、内蔵ディスプレイ21のサイズが異なるいずれの端末装置1の場合にも、端末装置1とユーザ100の手との相対的な角度のずれを低減して、カメラ17により手のひら100Aを安定に撮像できる。
 なお、図10では、タッチ場所425の2本のガイドラインLを夫々連続的に内蔵ディスプレイ21上に表示しているが、間欠的に表示しても良い。
 この例では、表示部37は、CPU11の制御に応じて、内蔵ディスプレイ21の上に、操作のスタート位置を示すスタートガイドボタン425Sと、ガイドラインLと、操作の終了位置を示すエンドガイドボタン425Eを各タッチ場所425について表示する。このとき、操作済みのタッチ場所425と未操作のタッチ場所425で、ガイドラインLやスタートガイドボタン425S、ガイドボタン425n、エンドガイドボタン425Eの色の濃淡や線種を変えて表示してもよい。
 この例では、図10に示すように、操作しているポイントを示すガイドボタン425nがガイドラインLの中央に表示されている。表示部37は、矢印で移動方向を表示する。ユーザ100が操作している指が通過したガイドラインL上の配列のポイントを示すガイドボタン425nは、濃いハッチングで表示してもよい。また、ユーザ100が未操作のガイドラインLの部分は、薄いハッチングで表示してもよい。以下同様にして、ユーザ100が操作する指がガイドラインLの配列のn個(n=2,3・・・、x-1)のポイントを通過するたびに、通過したガイドボタン425nを濃いハッチングで表示し、未通過のガイドボタン425nを薄いハッチングで表示してもよい。
 なお、タッチ場所425の1本は、生体撮像部42の撮像対象が、ユーザ100の手首側の手のひら100Aとなる位置に設定され、タッチ場所425の他の1本は、生体撮像部42の撮像対象が、ユーザ100の指先側の手のひら100Aとなる位置に設定されても良い。
 図11に示す例のように、複数のタッチ場所425について単一の操作表示526を共通のガイドとして表示してもよい。単一の操作表示526は、バー形状を有する。この場合も、カメラ17により手のひら100Aを安定に撮像できる。この場合、生体情報の読取操作をガイドするガイド画面の表示は、複数のタッチ場所425及び単一の操作表示526から構成される。
 ユーザ100は、タッチ場所425を見ながらガイドラインLに沿ってタッチ操作を行う。このとき、図11に示すガイド画面の表示によれば、操作表示526をユーザ100の指と指の間から目視可能なバー形状とすることで、タッチ場所425に合わせた指のタッチ操作をさらに容易にすることができる。なお、2本のタッチ場所425を1つに繋ぎ合わせる操作表示526の形状及び表示形式は、特に限定されない。
 図10及び図11に示すタッチ場所425では、例えば一方の1本のタッチ場所425に対してタッチ操作が行われていれば、他方の1本のタッチ場所425のタッチ操作が行われていなくても、ユーザ100が操作するいずれかの指がガイドラインLの配列のn個(n=2,3・・・、x-1)のポイントを通過するたびにタッチ場所425のガイド表示を更新してもよい。この場合、ガイド表示の更新は、2本のガイドラインLの両方のガイドボタン425nの配列に対し、操作されたガイドボタン425nを濃いハッチングで表示し、未通過のガイドボタン425nを薄いハッチングで表示するようにして行われてもよい。この場合、2本のタッチ場所425の夫々に対する操作に応じて次のタッチを誘導するタッチ場所425を更新する場合と比較すると、計算量を減らすことができる。また、ガイド画面には、1本のタッチ場所425のみが表示されてもよい。
 ただし、カメラ17による撮像開始を1本のガイドラインLに対する操作のみに基づいて判定すると、手の姿勢が安定していない状態を許容する可能性がある。このため、ガイド画面には、複数本のタッチ場所425が表示されていることが好ましく、特にカメラ17による撮像開始の判定は、複数本のガイドラインLに対するタッチ操作が同時に行われていることを条件にすることが望ましい。
 図12に示すように、縦長に配置された端末装置1に縦方向に3本のタッチ場所425が表示されてもよい。この場合、ユーザ100は、指先(この例では人差し指、中指、及び薬指)で3本のタッチ場所425を同時になぞり、カメラ17はその間撮像範囲17A内で手のひら100Aを撮像する。ユーザ100が複数の指先でタッチ場所425に対して同時にスライド指示を行う場合、複数の指先がタッチパネル18上を同時にスライドする間、手のひら100Aのタッチパネル18に対する角度は安定しており大きく変化することはない。このため、端末装置1とユーザ100の手との相対的な角度のずれを低減して、カメラ17により手のひら100Aを安定に撮像できる。
 [BIOS処理]
 次に、本実施形態に係るBIOS処理の一例について図13を参照して説明する。図13は、一実施形態に係るBIOS処理の一例を示したフローチャートである。本実施形態に係るBIOS処理は、例えばBIOS16aにて実現される初期化処理部32及び登録部33により実行される。
 端末装置1の電源がオンされ、BIOS処理が開始されると(ステップS10)、初期化処理部32は、各種デバイスの初期化処理を実行する(ステップS12)。各種デバイスの初期化処理には、メモリ14の初期化処理と内蔵ディスプレイ21の初期化処理が含まれる。
 次に、登録部33は、不揮発性メモリ16に保存されている内蔵ディスプレイ21の物理画面サイズ(X1,Y1)とカメラ17の相対位置(XD,YD)を取得する(ステップS14)。次に、登録部33は、取得した物理画面サイズ(X1,Y1)とカメラ17の相対位置(XD,YD)をメモリ14上に保存し(ステップS16)、BIOS処理を終了し、OS15aへと処理を引き渡す。
 [表示位置制御処理]
 次に、本実施形態に係る表示位置制御処理の一例について図14を参照して説明する。図14は、一実施形態に係る表示位置制御処理の一例を示したフローチャートである。本実施形態に係る表示位置制御処理は、例えばOS15a上で動作するアプリケーションにて実現される取得部34、比較部35、算出部36、表示部37により実行される。
 図13のBIOS処理が終了し、OS15aが起動されると、OS15a上にて表示位置制御プログラム40に従い表示位置制御処理を実行するアプリケーションが動作し、本処理が開始される(ステップS20)。アプリケーションは、CPU11により制御される。
 取得部34は、メモリ14内の内蔵ディスプレイ情報テーブル38に保存されている物理画面サイズ(X1,Y1,ミリ単位)を取得する(ステップS22)。次に、取得部34は、内蔵ディスプレイ21の画面の表示領域サイズ(X2,Y2,ミリ単位)と解像度(PX1,PY1,ピクセル単位)をOS15aの標準API(Application Interface)で取得する(ステップS24)。
 次に、比較部35は、X軸の物理画面サイズX1が、表示されているX軸の画面の表示領域サイズX2に等しく、かつ、Y軸の画面サイズY1が、表示されているY軸の画面の表示領域サイズY2に等しいかを比較する(ステップS26)。
 比較の結果、ステップS26の条件を満たさない場合とは、例えば、図15に一例を示すように、(a)の物理画面サイズ(X1,Y1)が、(b)の画面の表示領域サイズ(X2,Y2)と一致しない場合である。この場合、画面の表示領域が全画面になっていないため、タッチ場所425のガイド表示が画面の表示領域から外れて、タッチ場所425の一部が表示されないことが生じ得る。そこで、ステップS26の条件を満たさない場合には、表示部37は、ディスプレイの表示領域を全画面にすることを促す画面を表示し(ステップS28)、ステップS22の処理に戻り、ステップS22~S26の処理を再び行う。
 ステップS26において、比較の結果、ステップS26の条件を満たす場合、算出部36は、1ピクセル当たりのサイズ(UX1×UY1、ミリ単位)を算出する(ステップS30)。1ピクセル当たりの横のサイズUX1はX1/PX1により算出され、縦のサイズUY1はY1/PY1により算出される。
 次に、算出部36は、スタートガイドボタン425S、エンドガイドボタン425E、ガイドボタン425nの各ガイドボタンのミリ単位の位置をピクセル単位の位置に変換する。算出部36は、例えば図8に示す内蔵ディスプレイ21の左上の頂点を(0,0)とし、タッチ場所425のX軸(横方向)のGX1、Gxn、GXxの位置(ピクセル単位)を以下の式を用いて算出する。
 GX1=PX1-(GSL(1)-XD)/UX1
 GXn=PX1-(GSL(n)-XD)/UX1(n=2,・・・,x-1)
 GXx=PX1-(GSL(x)-XD)/UX1
 また、算出部36は、例えば図8に示す2本のタッチ場所425のY軸(縦方向)のGY1、GY2の位置(ピクセル単位)及びガイドボタンの半径(ピクセル単位)を以下の式を用いて算出する。
 GY1=(YD-GSH1)/UY1
 GY2=(YD+GSH2)/UY1
 GRP=GR/UX1
 以上から、算出部36は、予め設定された生体情報の読取操作をガイドするタッチ場所425の表示位置から、物理画面サイズ(X1,Y1)、カメラ17の相対位置(XD,YD)及び内蔵ディスプレイ21の解像度(PX1,PY1)に合わせたタッチ場所425の表示位置を算出する。つまり、算出部36は、内蔵ディスプレイ21の解像度(PX1,PY1)、物理画面サイズ(X1,Y1)及びカメラ17の相対位置(XD,YD)の各情報を用いて、予め設定されたタッチ場所425の表示位置をピクセル単位の表示位置に座標変換する。
 これにより、物理画面サイズが異なる機種のいずれの端末装置1においても、カメラ17の基準点Stから見て同じ位置にタッチ場所425のガイド画面を表示することができる。これにより、物理画面サイズが異なる機種のいずれの端末装置1においても、カメラ17は、生体認証が可能な複数枚の手のひらの画像を正しく安定的に撮像することができる。
 次に、表示部37は、スタートガイドボタン425S、エンドガイドボタン425E、ガイドボタン425nの各ガイドボタンのピクセル単位に座標変換した表示位置に各ガイドボタンとガイドラインLを表示し(ステップS34)、本処理を終了する。
 以上、本実施形態に係る端末装置1により実行される表示位置制御の動作について説明した。これによれば、タッチ場所425を表示するディスプレイの解像度と物理画面サイズと生体情報を取得するためのカメラ17の位置(基準点St)の各情報がOS15a上のアプリケーションにより取得される。そして、タッチ場所425の各ガイドボタンの基準点Stからの表示位置が、上述で取得した各情報に基づき、表示するディスプレイに合わせてピクセル単位に座標変換される。
 なお、ディスプレイに依存する情報としては、ディスプレイの解像度、物理画面サイズ及びカメラ17の相対位置があるが、内蔵ディスプレイ21の解像度はOS15aの標準API(APPLICATION INTERFACE)で取得できる。また、内蔵ディスプレイ21の物理画面サイズとカメラ17の相対位置については、端末装置1に搭載されるファームウエア(BIOS16a)が、端末装置1の初期化処理時(POST時)に、アプリケーションがアクセスできるメモリ14に保存する。これにより、OS15a上のアプリケーションがこれらの情報を読みとることができるようになり、タッチ場所425の各ガイドボタンの基準点Stからの表示位置を、ディスプレイに合わせてピクセル単位に座標変換することができる。また、タッチ場所425の各ガイドボタンの基準点Stからの表示位置は、固定のため、本実施形態ではガイド位置情報テーブル39で保持し、HDD15やメモリ14に記憶してもよい。
 これによれば、POST時に内蔵ディスプレイ21の物理画面サイズとカメラの相対位置の各情報が、アプリケーションから参照可能なメモリ14に保存され、アプリケーションがメモリ14からこれらの情報を読み取る。そして、アプリケーションは、タッチ場所425の各ガイドボタンを、表示する内蔵ディスプレイ21の物理画面サイズに合わせてピクセル単位の座標に変換する。これにより、ディスプレイが異なる端末装置1でも、基準点Stから見て同じ位置にタッチ場所425が表示される。また、BIOS16aが端末装置1の内蔵ディスプレイ21物理画面サイズをメモリ14上に保存する。このため、アプリケーションは端末装置1毎に内蔵ディスプレイ情報テーブル38を書き換える必要がない。また同時に、物理画面サイズ及びカメラの相対位置の設定変更漏れにより基準点Stから見て異なる位置にタッチ場所425が表示されることを防止することができる。さらに、これらの情報が保存されているメモリ14の記憶位置とデータ構造はユーザに通知されないため、ユーザが誤ってOS15a上から内蔵ディスプレイ21の物理画面サイズを変更する恐れを回避することができる。
 なお、上記実施形態では、図10に示すタッチ場所425について、具体的な座標変換を実行した。ただし、特定の画面は、図11に示すタッチ場所425のガイド画面に限定されず、図11に示すタッチ場所425や図12に示すタッチ場所425のガイド画面であってもよい。また、特定の画面は、図10~図12に示すタッチ場所425のガイド画面以外の画面であってもよい。
 以上、端末装置、表示位置制御プログラム及び表示位置制御方法を上記実施形態により説明したが、本発明に係る端末装置、表示位置制御プログラム及び表示位置制御方法は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
 本国際出願は、2017年1月19日に出願された日本国特許出願2017-007706号に基づく優先権を主張するものであり、その全内容を本国際出願に援用する。
 1  端末装置
 11 CPU
 12 システムコントローラ
 13 グラフィックコントローラ
 14 メモリ
 15 HDD
 16 不揮発性メモリ
 17 カメラ
 18 タッチパネル
 19 内蔵LCD
 20 不揮発性メモリ
 21 内蔵ディスプレイ
 31 記憶部
 32 初期化処理部
 33 登録部
 34 取得部
 35 比較部
 36 算出部
 37 表示部
 38 内蔵ディスプレイ情報テーブル
 39 ガイド位置情報テーブル
 40 表示位置制御プログラム
 41 生体認証装置
 42 生体撮像部
 43 特徴抽出部
 44 認証部
 45 記憶部
 46 登録テンプレート
 425 タッチ場所
 425S スタートガイドボタン
 425E エンドガイドボタン
 425n ガイドボタン

Claims (15)

  1.  表示されているディスプレイのサイズ及び特定の画面を表示するための基準点の各情報を記憶する記憶部を参照して、予め設定された前記特定の画面の表示位置から、前記ディスプレイのサイズ、前記基準点、及び表示されているディスプレイの解像度の各情報に合わせた前記特定の画面の表示位置を算出する算出部、
     を有する端末装置。
  2.  前記特定の画面を表示するための基準点は、生体情報の読取装置の位置であり、
     予め設定された前記特定の画面の表示位置は、予め設定された生体情報の読取操作をガイドするタッチ場所の表示位置である、
     請求項1に記載の端末装置。
  3.  前記端末装置の起動時又は再起動時に実行するBIOS処理において、内蔵されたディスプレイのサイズ及び前記読取装置の位置の各情報を前記記憶部に登録する登録部を有し、
     前記算出部は、前記記憶部を参照して、予め設定された前記タッチ場所の表示位置から、前記内蔵されたディスプレイのサイズ及び前記読取装置の位置及び前記ディスプレイの解像度の各情報に合わせた前記タッチ場所の表示位置を算出する、
     請求項2に記載の端末装置。
  4.  前記ディスプレイのサイズと、表示されているディスプレイの表示領域のサイズとを比較する比較部と、
     前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと同じ場合、前記算出したタッチ場所の表示位置に前記生体情報の読取操作をガイドするタッチ場所を表示する表示部とを有する、
     請求項2に記載の端末装置。
  5.  前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと異なる場合、前記表示部は、前記表示されているディスプレイの表示領域を全画面にすることを促す画面を表示する、
     請求項4に記載の端末装置。
  6.  端末装置に表示されているディスプレイのサイズ及び特定の画面を表示するための基準点の各情報を記憶する記憶部を参照して、予め設定された前記特定の画面の表示位置から、前記ディスプレイのサイズ、前記基準点、及び表示されているディスプレイの解像度の各情報に合わせた前記特定の画面の表示位置を算出する、
     処理をコンピュータに実行させるための表示位置制御プログラム。
  7.  前記特定の画面を表示するための基準点は、生体情報の読取装置の位置であり、
     予め設定された前記特定の画面の表示位置は、予め設定された生体情報の読取操作をガイドするタッチ場所の表示位置である、
     請求項6に記載の表示位置制御プログラム。
  8.  前記端末装置の起動時又は再起動時に実行するBIOS処理において、内蔵されたディスプレイのサイズ及び前記読取装置の位置の各情報を前記記憶部に登録し、
     前記記憶部を参照して、予め設定された前記タッチ場所の表示位置から、前記内蔵されたディスプレイのサイズ及び前記読取装置の位置及び前記ディスプレイの解像度の各情報に合わせた前記タッチ場所の表示位置を算出する、
     請求項7に記載の表示位置制御プログラム。
  9.  前記ディスプレイのサイズと、表示されているディスプレイの表示領域のサイズとを比較し、
     前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと同じ場合、前記算出したタッチ場所の表示位置に前記生体情報の読取操作をガイドするタッチ場所を表示する、
     請求項7に記載の表示位置制御プログラム。
  10.  前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと異なる場合、前記表示されているディスプレイの表示領域を全画面にすることを促す画面を表示する、
     請求項9に記載の表示位置制御プログラム。
  11.  端末装置に表示されているディスプレイのサイズ及び特定の画面を表示するための基準点の各情報を記憶する記憶部を参照して、予め設定された前記特定の画面の表示位置から、前記ディスプレイのサイズ、前記基準点、及び表示されているディスプレイの解像度の各情報に合わせた前記特定の画面の表示位置を算出する、
     ことをコンピュータが実行する表示位置制御方法。
  12.  前記特定の画面を表示するための基準点は、生体情報の読取装置の位置であり、
     予め設定された前記特定の画面の表示位置は、予め設定された生体情報の読取操作をガイドするタッチ場所の表示位置である、
     請求項11に記載の表示位置制御方法。
  13.  前記端末装置の起動時又は再起動時に実行するBIOS処理において、内蔵されたディスプレイのサイズ及び前記読取装置の位置の各情報を前記記憶部に登録し、
     前記記憶部を参照して、予め設定された前記タッチ場所の表示位置から、前記内蔵されたディスプレイのサイズ及び前記読取装置の位置及び前記ディスプレイの解像度の各情報に合わせた前記タッチ場所の表示位置を算出する、
     請求項12に記載の表示位置制御方法。
  14.  前記ディスプレイのサイズと、表示されているディスプレイの表示領域のサイズとを比較し、
     前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと同じ場合、前記算出したタッチ場所の表示位置に前記生体情報の読取操作をガイドするタッチ場所を表示する、
     請求項12に記載の表示位置制御方法。
  15.  前記比較した結果、前記ディスプレイのサイズが前記表示されているディスプレイの表示領域のサイズと異なる場合、前記表示されているディスプレイの表示領域を全画面にすることを促す画面を表示する、
     請求項14に記載の表示位置制御方法。
PCT/JP2018/000940 2017-01-19 2018-01-16 端末装置、表示位置制御プログラム及び表示位置制御方法 WO2018135459A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP18741374.5A EP3573017A4 (en) 2017-01-19 2018-01-16 TERMINAL DEVICE, DISPLAY POSITION CONTROL PROGRAM, AND DISPLAY POSITION CONTROL PROCESS
US16/444,281 US20190302998A1 (en) 2017-01-19 2019-06-18 Terminal Device, Display Position Control Program, And Display Position Control Method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017007706A JP2018116559A (ja) 2017-01-19 2017-01-19 端末装置、表示位置制御プログラム及び表示位置制御方法
JP2017-007706 2017-01-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/444,281 Continuation US20190302998A1 (en) 2017-01-19 2019-06-18 Terminal Device, Display Position Control Program, And Display Position Control Method

Publications (1)

Publication Number Publication Date
WO2018135459A1 true WO2018135459A1 (ja) 2018-07-26

Family

ID=62908102

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000940 WO2018135459A1 (ja) 2017-01-19 2018-01-16 端末装置、表示位置制御プログラム及び表示位置制御方法

Country Status (4)

Country Link
US (1) US20190302998A1 (ja)
EP (1) EP3573017A4 (ja)
JP (1) JP2018116559A (ja)
WO (1) WO2018135459A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260021A (ja) * 2005-03-16 2006-09-28 Fuji Xerox Co Ltd 表示制御装置およびその表示画面の縮小方法
JP2008261946A (ja) * 2007-04-10 2008-10-30 Sharp Corp 表示制御装置および方法
WO2013145491A1 (ja) * 2012-03-28 2013-10-03 日本電気株式会社 情報処理装置
JP2016212636A (ja) 2015-05-08 2016-12-15 富士通株式会社 生体撮影装置、生体撮影方法及び生体撮影プログラム
JP2017007706A (ja) 2015-06-22 2017-01-12 花王株式会社 泡吐出容器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6115181A (ja) * 1984-07-02 1986-01-23 三菱電機株式会社 表示装置
JP2001166754A (ja) * 1999-12-08 2001-06-22 Dainippon Printing Co Ltd 表示システム
CN100405360C (zh) * 2006-06-23 2008-07-23 浙江大学 普适环境下协同设计中图形图像的自适应显示方法
CN101378434A (zh) * 2007-08-31 2009-03-04 鹏智科技(深圳)有限公司 图片显示装置及方法
JP2014056157A (ja) * 2012-09-13 2014-03-27 Fuji Electric Co Ltd 画像変換装置およびプラント監視装置
KR102177150B1 (ko) * 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260021A (ja) * 2005-03-16 2006-09-28 Fuji Xerox Co Ltd 表示制御装置およびその表示画面の縮小方法
JP2008261946A (ja) * 2007-04-10 2008-10-30 Sharp Corp 表示制御装置および方法
WO2013145491A1 (ja) * 2012-03-28 2013-10-03 日本電気株式会社 情報処理装置
JP2016212636A (ja) 2015-05-08 2016-12-15 富士通株式会社 生体撮影装置、生体撮影方法及び生体撮影プログラム
JP2017007706A (ja) 2015-06-22 2017-01-12 花王株式会社 泡吐出容器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3573017A4

Also Published As

Publication number Publication date
EP3573017A4 (en) 2020-11-04
US20190302998A1 (en) 2019-10-03
EP3573017A1 (en) 2019-11-27
JP2018116559A (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
JP6287450B2 (ja) 携帯型情報処理装置、及びプログラム
US9965608B2 (en) Biometrics-based authentication method and apparatus
JP4680158B2 (ja) 生体認証装置
JP7070588B2 (ja) 生体認証装置、システム、方法およびプログラム
JP2016212636A (ja) 生体撮影装置、生体撮影方法及び生体撮影プログラム
US10007831B2 (en) Information processing apparatus, biometric authentication method, and recording medium
US10586031B2 (en) Biometric authentication of a user
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
US20220043895A1 (en) Biometric authentication system, biometric authentication method, and program
WO2015194017A1 (ja) ウェアラブル装置および認証方法
US11416595B2 (en) Facial authentication system
WO2013069372A1 (ja) 生体認証装置およびそれを備えた自動取引装置
US10732786B2 (en) Terminal device and display control method
US20170155802A1 (en) Display device and method of notifying the position of an authentication device in a display area
JP2017126168A (ja) 生体認証装置、生体認証方法、および生体認証プログラム
US20140150085A1 (en) User authentication based on a user's operation on a displayed three-dimensional model
WO2018135459A1 (ja) 端末装置、表示位置制御プログラム及び表示位置制御方法
JP2018128785A (ja) 生体認証装置、生体認証方法及び生体認証プログラム
WO2018135460A1 (ja) 端末装置
US20200285724A1 (en) Biometric authentication device, biometric authentication system, and computer program product
US11227139B2 (en) Apparatus, method, and program for biometric image processing
JP2017188022A (ja) 画像処理装置、画像処理方法及びプログラム
EP4362481A1 (en) Method for displaying guide for position of camera, and electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18741374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018741374

Country of ref document: EP

Effective date: 20190819