WO2012128319A1 - 電子装置、操作者推定方法およびプログラム - Google Patents

電子装置、操作者推定方法およびプログラム Download PDF

Info

Publication number
WO2012128319A1
WO2012128319A1 PCT/JP2012/057335 JP2012057335W WO2012128319A1 WO 2012128319 A1 WO2012128319 A1 WO 2012128319A1 JP 2012057335 W JP2012057335 W JP 2012057335W WO 2012128319 A1 WO2012128319 A1 WO 2012128319A1
Authority
WO
WIPO (PCT)
Prior art keywords
operator
unit
contact
main body
information
Prior art date
Application number
PCT/JP2012/057335
Other languages
English (en)
French (fr)
Inventor
八木 健
幹也 田中
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2012128319A1 publication Critical patent/WO2012128319A1/ja
Priority to US14/030,370 priority Critical patent/US20140096238A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to an electronic device, an operator estimation method, and a program.
  • the present application claims priority based on Japanese Patent Application No. 2011-0666103 filed on March 24, 2011 and Japanese Patent Application No. 2012-066211 filed on March 19, 2012, The contents are incorporated here.
  • shopping is performed using an electronic device such as a mobile phone in which an IC chip is mounted and electronic money is deposited on the IC chip.
  • an operator is authenticated.
  • Patent Literature 1 is known as a method for authenticating an operator who operates a mobile terminal.
  • a mobile terminal device that accepts input information estimated by a handwriting operation by an operator, contact information acquisition means for acquiring contact information indicating presence or absence of contact with a contact object, and a contact object Registration for registering handwriting information that can identify the handwriting of the operator, movement information acquisition means for acquiring movement information of the apparatus main body from the contact position, recognition means for recognizing input information based on the contact information and movement information It is shown that the operator is authenticated by collating the registered handwriting information with the input information recognized by the recognition means.
  • IC chip lock a state where it cannot be used (hereinafter referred to as IC chip lock) in advance, the electronic money cannot be used, and the IC card lock is only used when the electronic money is used. It is done to cancel.
  • the IC chip lock is normally released by inputting a personal identification number.
  • An object of the present invention is to provide an electronic device, an operator estimation method, and a program that can estimate an operator who is operating a main body easily and conveniently.
  • An electronic device is disposed on a side surface of a housing of a main body, and detects a contact state when the main body is touched by an operator, and the detected contact state.
  • a contact change extraction unit that extracts a temporal change or a spatial change of the contact, and an estimation unit that estimates the operator based on the extracted temporal change or spatial change of the contact. .
  • An electronic device is disposed on a side surface of a casing of a main body, detects a pressure when the main body is touched by an operator, and a pressure detected by the pressure detection unit.
  • a pressure change extraction unit that extracts a temporal change or a spatial change; and an estimation unit that estimates the operator based on the temporal change or the spatial change of the extracted pressure.
  • An electronic device is disposed on a side surface of a housing of a main body, detects a contact state when the main body is touched by an operator, information for identifying an operator, A storage unit that is associated with and stored information indicating a touch heel that is a heel when the operator touches the main body, and reads information indicating the touch heel from the storage unit, and the read touch heel is A tactile collation unit that collates information indicating the detected contact state, and information that identifies the operator associated with the information indicating the tactile collation collated by the tactile collation unit And an estimation unit that estimates the operator by reading out from.
  • An electronic device is disposed on a side surface of a casing of a main body, detects a contact state when the main body is touched by an operator, and detects movement of the main body casing. And a motion estimation unit that estimates the operator based on the detected state of contact and the detected motion.
  • An operator estimation method is performed by an electronic device including a contact detection unit that is disposed on a side surface of a housing of the main body and detects a contact state when the main body is touched by the operator.
  • a contact change extraction procedure for extracting a temporal change or a spatial change of the contact when the main body is touched by the operator, and a temporal change of the extracted contact
  • the program according to one aspect of the present invention is provided on a computer of an electronic device including a contact detection unit that is disposed on a side surface of the casing of the main body and detects a contact state when the main body is touched by an operator.
  • a contact change extraction step for extracting a temporal change or a spatial change of the contact when the main body is touched by a person, and based on the temporal change or the spatial change of the extracted contact,
  • An estimation step for estimating an operator.
  • FIG. 1 is a perspective view illustrating a configuration of an electronic device according to a first embodiment. It is sectional drawing which shows the structure of a part of electronic device which concerns on 1st Embodiment. It is a block block diagram of the control apparatus of the electronic device which concerns on 1st Embodiment. It is a block block diagram of the control part of the electronic device which concerns on 1st Embodiment. It is the flowchart which showed the flow of the process of the estimation of the operator in 1st Embodiment. It is a block block diagram of the control part of the electronic device which concerns on 2nd Embodiment. It is the flowchart which showed the flow of the process of the estimation of the operator in 2nd Embodiment.
  • FIG. 1 is a perspective view showing a configuration of an electronic device EQP according to a first embodiment of the present invention.
  • the electronic device EQP includes a housing FL, a display unit DP, an operation unit SD, a control device CONT, and an imaging unit IMG.
  • the housing FL is formed in, for example, a rectangular plate shape, and holds the display unit DP and the operation unit SD.
  • the display unit DP is provided on the plate surface of the housing FL.
  • a surface of the housing FL on which the display unit DP is provided is hereinafter referred to as a display surface Fe.
  • the display unit DP has a display panel PN having, for example, a liquid crystal device or an organic EL device. In the display area where the display panel PN is provided, for example, a touch panel TP is provided.
  • the operation unit SD is provided on four side surfaces Fa to Fd corresponding to the four sides surrounding the display surface Fe in the housing FL.
  • the operation unit SD includes a contact detection unit (pressure detection unit) SD1 provided on the side surface Fa, a contact detection unit (pressure detection unit) SD2 provided on the side surface Fb, and a contact detection unit (pressure detection unit) provided on the side surface Fc. ) SD3 and a contact detector (pressure detector) SD4 provided on the side surface Fd.
  • the operation unit SD detects the presence / absence of an external contact (for example, an operator) and the contact position in the contact detection units SD1 to SD4.
  • each of the contact detection units (pressure detection units) SD1 to SD4 can be divided into one or more arbitrary points.
  • the contact detectors (pressure detectors) SD1 to SD4 can be divided into a plurality of portions and arranged at a plurality of locations.
  • the contact detectors (pressure detectors) SD1 to SD4 may be configured by detectors arranged at a plurality of locations. For example, if the contact detection unit SD1 is divided into 5 points, the contact detection unit SD1 can detect the presence or absence of contact at 5 points.
  • the contact detectors SD1 to SD4 also function as pressure sensors, and detect the pressure when contacted at a predetermined stage (for example, 256 stages). Thereby, the contact detection units SD1 to SD4 detect the pressure when the main body is touched by the operator. For example, if the contact detection unit SD1 is divided into 5 points, the contact detection unit SD1 can detect pressure at 5 points.
  • the imaging unit IMG is provided inside the housing FL.
  • the lens of the imaging unit IMG is provided on the surface opposite to the display surface Fe.
  • the imaging unit IMG images a subject outside the electronic device EQP and generates image data obtained by the imaging.
  • FIG. 2 is a cross-sectional view illustrating a partial configuration of the electronic device.
  • the electronic device EQP is viewed from the display surface Fe side, and the contact detection units SD1 to SD4 are shown in cross section.
  • each of the contact detection units SD1 to SD4 is arranged at a position of each side of the display unit DP formed in a rectangular shape and has a size corresponding to the size of the display unit DP.
  • the detection areas 20 of the contact detection units SD1 and SD2 are arranged at positions corresponding to the short sides of the display unit DP. Further, the longitudinal dimension of the detection region 20 of the contact detection parts SD1 and SD2 is equal to the dimension of the short side of the display part DP. On the other hand, the detection areas 20 of the contact detection units SD3 and SD4 are arranged at positions corresponding to the long sides of the display unit DP. Further, the longitudinal dimension of the detection region 20 of the contact detectors SD3 and SD4 is equal to the dimension of the long side of the display part DP.
  • FIG. 3 is a block diagram of the control device CONT.
  • the control device CONT includes a control unit 60, an input unit 52, an output unit 53, a storage unit 54, a communication unit 55, and a power supply unit 56.
  • the control unit 60 performs overall arithmetic processing of the electronic device EQP.
  • the input unit 52 is a part that inputs to the electronic device EQP.
  • the input unit 52 includes the contact detection units SD1 to SD4, a display unit detection unit 52b, a posture detection unit 52c, a motion detection unit 52d, and an imaging unit IMG.
  • a voice input unit (not shown) such as a microphone may be provided.
  • the display unit detection unit 52b detects the presence / absence of contact and the contact position on the touch panel TP.
  • the attitude detection unit 52c is a sensor that detects the attitude of the electronic device EQP.
  • a triaxial acceleration sensor, a gyro sensor, or a geomagnetic sensor is provided as the posture detection unit 52c.
  • the motion detection unit 52d detects the movement of the main body casing when the main body is moved by the operator by detecting the movement of the main body casing.
  • an acceleration sensor or the like is provided.
  • the contact detectors SD1 to SD4 detect the state of contact when the operator touches the main body.
  • the contact detection units SD1 to SD4 are provided with, for example, electrostatic capacitance type touch detection sensors.
  • the output unit 53 outputs images and sounds.
  • the output unit 53 includes a display unit DP that displays an image and an audio output unit 53b that controls output of audio.
  • the storage unit 54 calculate results by the control unit 60, input information to be input to the input unit 52, output information to be output by the output unit 53 (eg, image data, audio data), information to be communicated via the communication unit 55, and the like Is remembered.
  • the storage unit 54 stores an application program executed by the control unit 60.
  • the storage unit 54 includes a non-contact IC chip into which electronic money is deposited.
  • the storage unit 54 stores information indicating a registrant who can release the state in which the IC chip cannot be used (IC chip lock).
  • the storage unit 54 includes information o_ (1, 1),..., O_ (m, n) and m (n are positive integers) indicated by the operator, and information Rs_1,. , Rm_1,..., Rm_n indicating the motion state are stored in association with each other. That is, the storage unit 54 stores information o_ (i, j) indicated by one operator for each combination of information Rs_i indicating the contact state and information Rm_j indicating the movement state (i and j are positive integers). It is stored in association with each other.
  • the information o_ (i, j) indicated by one operator may be the same as the information o_ (i ′, j ′) indicated by another operator (i ′, j ′ are positive integers). ).
  • the communication unit 55 is configured to be able to communicate information with the outside by at least one of a wired method and a wireless method.
  • the power supply unit 56 is provided with a power supply for supplying power to the electronic device EQP. Examples of the power supply unit 56 include a battery and a battery.
  • the display unit detection unit 52 b detects a contact position on the touch panel TP and outputs information indicating the contact position to the control unit 60.
  • the control unit 60 executes processing corresponding to the identification display displayed at the contact position. For example, when the operator touches a portion of the touch panel TP that overlaps the display area 31 (not shown), the control unit 60 performs a process corresponding to the display area 31.
  • the posture detection unit 52c detects the posture of the housing FL of the main body and outputs information a indicating the detected posture to the control unit 60. Based on the information indicating the posture input from the posture detection unit 52c, the control unit 60 performs control so that the display direction on the display unit DP is switched to the gravity direction.
  • the motion detection unit 52d detects the movement of the housing of the main body and outputs information mt indicating the detected motion to the control unit 60.
  • the contact detection units SD1 to SD4 detect the contact state when the main body is touched by the operator, and output information s indicating the detected contact state to the control unit 60.
  • the imaging unit IMG images a subject outside the electronic device EQP based on a control signal for controlling imaging from the control unit 60, generates image data obtained by the imaging, and outputs the image data to the control unit 60 To do.
  • the control unit 60 causes the storage unit 54 to store the image data acquired from the imaging unit IMG.
  • the control unit 60 reads the image data stored in the storage unit 54, outputs the read image data to the display unit DP, and causes the display unit DP to display the image data.
  • the control unit 60 reads the application program stored in the storage unit 54 and executes the program to display a predetermined image determined by the program on the display unit DP.
  • the control unit 60 outputs the image data input via the communication unit 55 to the display unit DP, and causes the display unit DP to display the image data.
  • control unit 60 reads out the audio data stored in the storage unit 54, outputs the read out audio data to the audio output unit 53b, and causes the audio output unit 53b to output audio. Further, the control unit 60 performs control so that data including these image data and audio data is communicated with an external device via the communication unit 55. In the control device CONT, these outputs and communications are performed based on the operation of the operator.
  • the process of the said control part 60 is a process of a control part (60, 60b, 60c, 60d) common to 1st Embodiment to 4th Embodiment, and after 2nd Embodiment, the process Description is omitted.
  • FIG. 4 is a block configuration diagram of the control unit 60.
  • the control unit 60 includes a contact change extraction unit 61, a motion state calculation unit 63, and an estimation unit 64.
  • the estimation unit 64 includes a contact state calculation unit 62 and an operator estimation unit 69.
  • the contact change extraction unit 61 extracts a temporal change or a spatial change of the contact based on the information s indicating the contact state detected by the contact detection units SD1 to SD4, and the temporal change of the extracted contact Information ds / dt indicating information and information ds / dx indicating spatial change in contact are output to the contact state calculation unit 62.
  • the contact change extraction unit 61 calculates a temporal change in the presence / absence of contact at a certain position of the contact detection units SD1 to SD4, and information ds / dt is output to the contact state calculation unit 62.
  • the contact change extraction unit 61 calculates a change in the longitudinal direction of each contact detection unit for the presence or absence of contact in each of the contact detection units SD1 to SD4, and provides information indicating the change in the longitudinal direction of the presence or absence of the contact. It outputs to the contact state calculation part 62 as information ds / dx which shows the spatial change of a contact.
  • the contact change extraction unit 61 may extract the spatial distribution of the contact based on the information s indicating the contact state, and output the information indicating the spatial distribution of the contact to the contact state calculation unit 62.
  • the contact state calculation unit 62 extracts the contact state based on the information indicating the extracted spatial distribution of the contact.
  • the motion state calculation unit 63 calculates motion state information Rm_j (j is a positive integer) indicating the characteristics of the motion based on the information mt indicating the motion detected by the motion detection unit 52d, and the calculated motion state information Rm_j Is output to the operator estimation unit 69. Specifically, for example, the motion state calculation unit 63 regards a temporal change in the distance between a predetermined reference point and the main body as one wave, and uses the frequency, amplitude, and phase of the wave as the motion state. Calculated as information Rm_j.
  • the estimation unit 64 estimates the operator based on the temporal change or spatial change of the contact extracted by the contact change extraction unit 61. Then, the contact state calculation part 62 with which the estimation part 64 is provided is demonstrated.
  • the contact state calculation unit 62 calculates contact state information Rs_i (i is a positive integer) indicating contact characteristics based on the temporal change or spatial change of the contact extracted by the contact change extraction unit 61.
  • the calculated contact state information Rs_i is output to the operator estimation unit 69.
  • the contact state calculation unit 62 regards a temporal change in the presence or absence of contact as one wave, and calculates the frequency, amplitude, and phase of the wave as one of the contact state information Rs_i. To do.
  • the contact state calculation unit 62 regards a spatial change in the presence or absence of contact as one wave, and calculates the frequency, amplitude, and phase of the wave as one of the contact state information Rs_i.
  • the operator estimation unit 69 estimates the operator based on the contact state information and the motion state information. Specifically, for example, information o_ (i) that identifies the operator corresponding to the combination of the contact state information Rs_i calculated by the contact state calculation unit 62 and the movement state information Rm_j calculated by the movement state calculation unit 63. , J) is read from the storage unit 54.
  • the operator estimation unit 69 outputs information o_ (i, j) identifying the read operator to the output unit 53. Thereby, the output part 53 displays the information o_ (i, j) which identifies an operator on the display part DP, for example.
  • control unit 60 uses information o_ (i, j) for identifying the operator obtained by the operator estimating unit 69 for the authentication process of the operator. For example, if the information o_ (i, j) identifying the operator is the same as the registrant information stored in advance in the storage unit 54, the control unit 60 authenticates the operator, for example, IC The card lock may be released. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • the operator estimation unit 69 estimates the operator based on the contact state information and the motion state information.
  • the present invention is not limited to this, and the operator estimation unit 69 uses the calculated contact state information. Based on this, the operator may be estimated.
  • the storage unit 54 stores contact state information and information for identifying the operator in association with each other, and the operator estimation unit 69 corresponds to the calculated contact state information. The operator may be estimated by reading information for identifying the operator from the storage unit 54.
  • FIG. 5 is a flowchart showing the flow of the operator estimation process in the first embodiment.
  • the contact detectors SD1 to SD4 detect a contact state (step S101).
  • the contact change extraction unit 61 extracts a contact change (step S102).
  • the contact state calculation unit 62 calculates contact state information (step S103).
  • the motion detection unit 52d detects the motion of the main body (step S104).
  • the motion state calculation unit 63 calculates motion state information (step S105).
  • the operator estimation part 69 reads the information which identifies the operator of a main body from the memory
  • the control unit 60 of the electronic apparatus EQP reads information that identifies the operator of the main body based on the contact state information and the movement state information, and stores in advance information that identifies the operator of the main body. It can be determined whether or not the information indicating the registrant stored in the unit 54 is the same. If the two pieces of information are the same, the controller 60 authenticates the operator. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • information o_ (1, 1),..., O_ (m, n) and (m, n are positive integers) indicated by the operator information Rp_1,.
  • Information Rm_1,..., Rm_n indicating the state is stored in association with each other. That is, in the storage unit 54b, for each combination of the information Rs_i indicating the pressure state and the information Rm_j indicating the motion state (i and j are positive integers), the information o_ (i, j) indicated by one operator is stored. It is stored in association with each other.
  • the information o_ (i, j) indicated by one operator may be the same as the information o_ (i ′, j ′) indicated by another operator (i ′, j ′ are positive integers).
  • Information indicating the registrant is stored in the storage unit 54b.
  • FIG. 6 is a block configuration diagram of the control unit 60b of the electronic device EQP_b according to the second embodiment.
  • the control unit 60b includes a pressure change extraction unit 65, a motion state calculation unit 63b, and an estimation unit 64b.
  • the estimation unit 64b includes a pressure state calculation unit 66 and an operator estimation unit 69b.
  • the pressure change extraction unit 65 extracts a temporal change or a spatial change of the pressure detected by the contact detection units SD1 to SD4, information dp / dt indicating the temporal change of the extracted pressure, and the pressure Information dp / dx indicating a spatial change is output to the pressure state calculation unit 66.
  • the pressure change extraction unit 65 calculates a temporal change in pressure at a position of the contact detection units SD1 to SD4, and uses information dp / dt indicating the temporal change in pressure as the pressure state. It outputs to the calculation part 66.
  • the contact change extraction unit 61 calculates a change in the longitudinal direction of each contact detection unit with respect to the pressure in each of the contact detection units SD1 to SD4, and uses information indicating the change in the longitudinal direction of the pressure as a spatial information of the pressure. Is output to the pressure state calculation unit 66 as information dp / dx indicating a significant change.
  • the estimation unit 64b estimates the operator based on the temporal change or the spatial change of the pressure extracted by the pressure change extraction unit 65. Then, the pressure state calculation part 66 with which the estimation part 64b is provided is demonstrated.
  • the pressure state calculation unit 66 calculates pressure state information Rp_i (i is a positive integer) indicating a pressure characteristic based on a temporal change or a spatial change of the pressure extracted by the pressure change extraction unit 65,
  • the calculated pressure state information Rp_i is output to the operator estimation unit 69b.
  • the pressure state calculation unit 66 regards a temporal change in pressure as one wave, and calculates the frequency, amplitude, and phase of the wave as one of the pressure state information Rp_i.
  • the contact state calculation unit 62 regards a spatial change in pressure as one wave, and calculates the frequency, amplitude, and phase of the wave as one of the pressure state information Rp_i.
  • the motion state calculation unit 63b obtains motion state information Rm_j (j is a positive integer) indicating a motion characteristic based on the information mt indicating the motion detected by the motion detection unit 52d.
  • the calculated motion state information Rm_j is output to the operator estimation unit 69b.
  • the motion state calculation unit 63b regards a temporal change in the distance from the reference point of the main body as one wave, and uses the frequency, amplitude, and phase of the wave as motion state information Rm_j. calculate.
  • the operator estimation unit 69b included in the estimation unit 64b estimates the operator of the main body based on the pressure state information calculated by the pressure state calculation unit 66 and the movement state information calculated by the movement state calculation unit 63b. Specifically, for example, the operator estimation unit 69b reads information o_ (i, j) identifying the operator corresponding to the combination of the pressure state information Rp_i and the movement state information Rm_j from the storage unit 54b. Estimate the operator of the main body.
  • the operator estimation unit 69 b outputs information o_ (i, j) identifying the read operator to the output unit 53. Thereby, the output part 53 displays the information o_ (i, j) which identifies an operator on the display part DP, for example.
  • the control unit 60b uses information o_ (i, j) for identifying the operator obtained by the operator estimation unit 69b for the operator authentication process. For example, if the information o_ (i, j) for identifying the operator is the same as the registrant information stored in advance in the storage unit 54b, the control unit 60b authenticates the operator. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • the operator estimation unit 69b estimates the operator based on the pressure state information and the motion state information.
  • the present invention is not limited to this, and the operator estimation unit 69b uses the calculated pressure state information. Based on this, the operator may be estimated.
  • the storage unit 54b stores pressure state information and information for identifying the operator in association with each other, and the operator estimation unit 69b corresponds to the calculated pressure state information.
  • the operator may be estimated by reading information for identifying the operator from the storage unit 54b.
  • FIG. 7 is a flowchart showing the flow of the operator estimation process in the second embodiment.
  • the contact detectors SD1 to SD4 detect the pressure when the main body is touched by the operator (step S201).
  • the pressure change extraction unit 65 extracts time change or space change of pressure (step S202).
  • the pressure state calculation unit 66 calculates pressure state information (step S203).
  • the motion detection unit 52d detects the motion of the main body (step S204).
  • the motion state calculation unit 63 calculates motion state information (step S205).
  • the operator estimation unit 69b reads information for identifying the operator of the main body from the storage unit 54b (step S206). Above, the process of this flowchart is complete
  • the control unit 60b of the electronic apparatus EQP_b reads information that identifies the operator of the main body based on the pressure state information and the movement state information, and stores in advance information that identifies the operator of the main body. It can be determined whether or not the information indicating the registrant stored in the unit 54b is the same. If the two pieces of information are the same, the control unit 60b authenticates the operator. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • Information Hm_1,..., Hm_n indicating ⁇ is stored in association with each other. That is, information o_ (i, j) indicated by one operator is stored in the storage unit 54c for each combination of the information Hs_i indicating the touching heel and the information Hm_j indicating the moving heel (i and j are positive integers). It is stored in association with each other.
  • the information o_ (i, j) indicated by one operator may be the same as the information o_ (i ′, j ′) indicated by another operator (i ′, j ′ are positive integers).
  • Information indicating the registrant is stored in the storage unit 54c.
  • FIG. 8 is a block configuration diagram of the control unit 60c of the electronic device EQP_c according to the third embodiment.
  • the control unit 60c includes a touching eye collation unit 67, a moving eye collation unit 68, and an estimation unit 64c.
  • the touching eye collation unit 67 reads information indicating the touching eye from the storage unit 54c, matches the read information indicating the touching eye with the detected contact state, and indicates information indicating the touching eye extracted by the matching. Is output to the estimation unit 64c.
  • the moving eyelid matching unit 68 reads out information indicating the moving eyelid from the storage unit 54c, compares the read information indicating the moving eyelid with the detected motion, and estimates information indicating the moving eyelid extracted by the matching. To the unit 64c.
  • the estimation unit 64c reads from the storage unit 54c information identifying the operator associated with the information indicating the touching eye collated by the touching eye collating unit 67 and the information indicating the moving eyelid collated by the moving eyelid matching unit 68. Thus, the operator is estimated.
  • the estimation unit 64c stores the touch heel.
  • the operator may be estimated by reading from the storage unit 54c information identifying the operator associated with the information indicating the touching gutter verified by the verification unit 67.
  • FIG. 9 is a flowchart showing the flow of the operator estimation process in the third embodiment.
  • the contact detectors SD1 to SD4 detect the state of contact when the main body is touched by the operator (step S301).
  • the touching eye collation unit 67 collates the touching eyelid (step S302).
  • the motion detection unit 52d detects the motion of the main body (step S303).
  • the moving heel collating unit 68 collates the moving heel (step S304).
  • the estimation unit 64c reads information identifying the operator of the main body corresponding to the information indicating the touching heel and the information indicating the moving heel from the storage unit 54c (step S306). Above, the process of this flowchart is complete
  • the control unit 60c of the electronic device EQP_c identifies the operator of the main body by reading the information for identifying the operator of the main body based on the information indicating the touch heel and the information indicating the moving heel. It can be determined whether the information and the information indicating the registrant stored in advance in the storage unit 54c are the same. If the two pieces of information are the same, the control unit 60c authenticates the operator. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • an electronic device EQP_d according to a fourth embodiment of the present invention will be described.
  • the storage unit 54 in the control device CONT of the electronic device EQP according to the first embodiment shown in FIG. 3 is controlled by the storage unit 54d.
  • the unit 60 is changed to a control unit 60d.
  • the storage unit 54d stores information s_i indicating one contact state among information s_1,..., S_m (m is a positive integer) indicating contact state, and information mt_1,. For each combination with information mt_j indicating one movement (i, j is a positive integer), information o_ (i, j) indicated by one operator is stored in association with each other. Yes.
  • the information o_ (i, j) indicated by one operator may be the same as the information o_ (i ′, j ′) indicated by another operator (i ′, j ′ are positive integers).
  • Information indicating the registrant is stored in the storage unit 54d.
  • the storage unit 54d stores information s_i indicating one contact state among pieces of information s_1,..., S_m (m is a positive integer) indicating the contact state, and motion state information Rm_1,.
  • information o ′ _ (i, k) indicated by one operator is associated. Is remembered.
  • the information o ′ _ (i, k) indicated by one operator may be the same as the information o ′ _ (i ′, k ′) indicated by another operator (i ′, k ′). Is a positive integer).
  • FIG. 10 is a block configuration diagram of the control unit 60d of the electronic device EQP_d according to the fourth embodiment.
  • the control unit 60d includes a motion state calculation unit 63d and an estimation unit 64d. Similar to the motion state calculation unit 63, the motion state calculation unit 63d receives motion state information Rm_k (k is a positive integer) indicating motion characteristics based on the information mt_j indicating the motion detected by the motion detection unit 52d. The calculated motion state information Rm_k is output to the estimation unit 64d. Specifically, for example, the motion state calculation unit 63d regards a temporal change in the distance from the reference point of the main body as one wave, and uses the frequency, amplitude, and phase of the wave as motion state information Rm_k. calculate.
  • the estimation unit 64d estimates the operator based on the contact state detected by the contact detection units SD1 to SD4 and the motion detected by the motion detection unit 52d. Specifically, for example, the estimation unit 64d performs an operation corresponding to the combination of the information s_i indicating the contact state detected by the contact detection units SD1 to SD4 and the information mt_j indicating the motion detected by the motion detection unit 52d. An operator is estimated by reading information o_ (i, j) identifying the operator from the storage unit 54d.
  • the estimation unit 64d based on the contact state detected by the contact detection units SD1 to SD4 and the motion state information detected by the motion state calculation unit 63d, Estimate the operator. Specifically, for example, the estimation unit 64d performs an operation corresponding to the combination of the information s_i indicating the contact state detected by the contact detection units SD1 to SD4 and the motion state information Rm_k detected by the motion state calculation unit 63d. An operator is estimated by reading out information o ′ _ (i, k) identifying the operator from the storage unit 54d.
  • the estimation unit 64d outputs information o_ (i, j) or o ′ _ (i, k) identifying the read operator to the output unit 53. Thereby, the output unit 53 displays, for example, information o_ (i, j) or o ′ _ (i, k) for identifying the operator on the display unit DP. Further, the control unit 60d uses the information o_ (i, j) or o ′ _ (i, k) for identifying the operator obtained by the estimation unit 64d for the authentication process of the operator.
  • FIG. 11 is a flowchart showing the flow of the operator estimation process in the fourth embodiment.
  • the contact detectors SD1 to SD4 detect a contact state (step S401).
  • the motion detection unit 52d detects the motion of the main body (step S402).
  • the estimation unit 64d estimates the operator based on the contact state and the movement (Step S403).
  • the estimation unit 64d determines whether the operator has been estimated (step S404). When the estimation unit 64d can estimate the operator (YES in step S404), the control unit 60d ends the process. On the other hand, when the estimation unit 64d cannot estimate the operator (NO in step S404), the motion state calculation unit 63d calculates motion state information (step S405). Next, the estimation unit 64d estimates the operator based on the contact state and the motion state information (Step S406). Above, the process of this flowchart is complete
  • the control unit 60d of the electronic device EQP_d in the present embodiment reads information for identifying the operator of the main body based on the contact state and the movement. Further, the control unit 60d reads information for identifying the operator of the main body based on the contact state and the movement state. Thereby, the control unit 60d can determine whether or not the information for identifying the operator of the main body is the same as the information indicating the registrant stored in the storage unit 54d in advance. If the two pieces of information are the same, the control unit 60d authenticates the operator. Thereby, it is possible to eliminate time for the operator to input the personal identification number by pressing the touch panel TP provided in the electronic device. In addition, it is possible to eliminate the troublesome task of manually entering the password every time the operator is authenticated.
  • the estimation unit 64d first estimates the operator based on the contact state and the movement, and when the operator cannot be estimated, the estimation unit 64d determines whether the operator is in the contact state and the movement state. The operator is estimated based on this, but the present invention is not limited to this.
  • the estimation unit 64d may first estimate the operator based on the contact state and the movement state.
  • the estimation unit 64d may first estimate the operator based on the contact state and the motion state, and may estimate the operator based on the contact state and the motion when the operator cannot be estimated. .
  • control unit (60, 60b, 60c, 60d) may estimate the operator of the main body when performing a special grip method that is not normally gripped. Specifically, for example, in the storage unit, information indicating a contact distribution when a special grip that is not normally gripped is stored in association with information for identifying the operator. In that case, the control unit (60, 60b, 60c, 60d) calculates the contact distribution detected by the contact detection units SD1 to SD4 and the contact distribution when the special grip is stored in the storage unit. Match.
  • control unit (60, 60b, 60c, 60d) determines that they are the same by collation
  • the control unit (60, 60b, 60c, 60d) reads information from the storage unit that identifies the operator corresponding to the contact distribution when a special grip is performed. Estimate the operator of the main body.
  • control unit (60, 60b, 60c, 60d) may estimate the operator of the main body when the main body is gripped by the operator in the order of the gripping method stored in the storage unit in advance. Good. Specifically, for example, information indicating the contact distribution corresponding to the gripping method is stored in the storage unit in advance, and the operator is identified for each combination of the arrangement order of the information indicating the contact distribution corresponding to the gripping method. Information is associated and stored. In that case, the control unit (60, 60b, 60c, 60d) stores the contact distribution detected by the contact detection units SD1 to SD4 and the contact distribution corresponding to the gripping method stored in the storage unit. Are collated in the order in which the information indicating the contact distribution corresponding to the gripping method stored is stored.
  • control unit (60, 60b, 60c, 60d) determines that the grips are gripped in the order of gripping by collation
  • the control unit (60, 60b, 60c, 60d) identifies an operator corresponding to the order of information indicating the contact distribution corresponding to the gripping method. By reading the information from the storage unit, the operator of the main body is estimated.
  • control unit (60, 60b, 60c, 60d) is stored in advance in the storage unit when the storage unit stores in advance the information on how to move the main body and information for identifying the operator.
  • the control unit is stored in advance in the storage unit when the storage unit stores in advance the information on how to move the main body and information for identifying the operator.
  • the information identifying the operator corresponding to the movement of the main body is read from the storage unit. May be estimated.
  • the control units (60, 60b, 60c, 60d) estimate the characteristics of the hand of the operator from the contact distribution detected by the contact detection units SD1 to SD4, and the characteristics of the hand (for example, the size of the palm and the finger) The operator may be estimated based on the degree of opening).
  • a program for executing each process of the electronic devices EQP, EQP_b, EQP_c, and EQP_d of the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system.
  • the above-described various processes relating to the electronic device EQP may be performed.
  • the operator when the information for identifying the operator of the main body is the same as the information indicating the registrant recorded in the storage unit in advance, the operator is authorized.
  • the information for identifying the operator is similar to the information indicating the registrant recorded in the storage unit in advance, the operator may be authorized.
  • the determination as to whether or not they are similar is made, for example, based on whether or not the information for identifying the operator of the main body is the same as the information within a predetermined range similar to the information indicating the registrant recorded in the storage unit in advance. .
  • renewing and recording information for identifying the operator of the main body that has been recognized as the operator as information indicating the registrant recorded in advance in the storage unit the operator's habits are reduced over time. It is possible to cope with a case where the change occurs.
  • the “computer system” referred to here may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
  • the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc. that hold a program for a certain period of time.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • EQP ... electronic device FL ... housing DP ... display unit SD ... operation unit CONT ... control device PN ... display panel TP ... touch panel Fe ... display surface Fa-Fd ... side surface SD1-SD4 ... contact detection unit (pressure detection unit) IMG ... Imaging unit 20 ... detection area 52 ... input unit 52b ... display unit detection unit 52c ... attitude detection unit 52d ... motion detection unit 53 ... output unit 53b ... sound output unit 54 ... storage units 60, 60b, 60c, 60d ... control unit 61 ... contact change extraction unit 62 ... contact state calculation unit 63, 63b, 63d ... motion state calculation unit 64, 64b, 64c, 64d ... estimation unit 65 ... pressure change extraction unit 66 ... pressure state calculation unit 67 ... tactile eye collation unit 68 ... Moving rod verification unit 69, 69b ... Operator estimation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部(SD1~SD4)と、検出された接触の状態に基づき、接触の時間的な変化または空間的な変化を抽出する接触変化抽出部(61)と、抽出された接触の時間的な変化または空間的な変化に基づき、操作者を推定する推定部(64)と、を備える。

Description

電子装置、操作者推定方法およびプログラム
 本発明は、電子装置、操作者推定方法およびプログラムに関する。
 本願は、2011年3月24日に出願された日本国特願2011-066103号、及び、2012年3月19日に出願された日本国特願2012-062141号に基づき優先権を主張し、その内容をここに援用する。
 ICチップを搭載し、電子マネーがそのICチップに入金された携帯電話などの電子装置を利用して買い物をすることが一般的に行われている。そのような電子装置の不正使用を防止するためには、操作者を認証することが行われている。
 携帯端末を操作する操作者を認証する方法として、例えば特許文献1が知られている。特許文献1では、操作者による手書き動作により推定される入力情報を受け付ける移動体端末装置であって、接触対象物との接触の有無を示す接触情報を取得する接触情報取得手段と、接触対象物との接触位置から装置本体の移動情報を取得する移動情報取得手段と、接触情報及び移動情報に基づいて入力情報を認識する認識手段と、操作者の筆跡を識別可能な筆跡情報を登録する登録手段とを備え、登録された筆跡情報と認識手段により認識される入力情報とを照合して操作者の認証を行うことが示されている。
特開2008-70920号公報
 操作者は電子マネーが入金されている非接触ICチップを備える電子装置を利用する際には、紛失または盗難により第三者が当該操作者に成り済ましてその電子装置を使用するのを防止するために、ICチップを使えなくした状態(以後、ICチップロックと称する)に予め設定しておくことで電子マネーを使うことができなくしておき、電子マネーを使用するときにだけそのICカードロックを解除することが行われている。そのICチップロックの解除は、通常、暗証番号の入力により行われている。
 しかしながら、操作者が電子装置に備えられたボタンなどを指で押すことにより暗証番号を入力することは時間がかかり、操作者が電子マネーを利用する毎に、ボタンなどを指で押すことにより暗証番号を入力することは操作者にとってわずらわしいという問題があった。
 本発明に係る態様は、簡単でかつ便利に本体を操作している操作者を推定することを可能とする電子装置、操作者推定方法およびプログラムを提供することを目的とする。
 本発明に係る一態様の電子装置は、本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部と、前記検出された接触の状態に基づき、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出部と、前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定部と、を備える。
 本発明に係る一態様の電子装置は、本体の筐体の側面に配置され、操作者により本体が触れられたときの圧力を検出する圧力検出部と、前記圧力検出部により検出された圧力の時間的な変化または空間的な変化を抽出する圧力変化抽出部と、前記抽出された圧力の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定部と、を備える。
 本発明に係る一態様の電子装置は、本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部と、操作者を識別する情報と前記操作者が本体に触れるときの癖である触り癖を示す情報とが関連付けられて記憶されている記憶部と、前記記憶部から前記触り癖を示す情報を読み出し、前記読み出された触り癖を示す情報と前記検出された接触の状態とを照合する触り癖照合部と、前記触り癖照合部により照合された前記触り癖を示す情報と関連付けられた前記操作者を識別する情報を前記記憶部から読み出すことにより、前記操作者を推定する推定部と、を備える。
 本発明に係る一態様の電子装置は、本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部と、本体の筐体の動きを検出する動き検出部と、前記検出された接触の状態と前記検出された動きとに基づいて、前記操作者を推定する推定部と、を備える。
 また、本発明に係る一態様の操作者推定方法は、本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部を備える電子装置が実行する操作者推定方法であって、操作者により本体が触れられたときの、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出手順と、前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定手順と、を有する。
 また、本発明に係る一態様のプログラムは、本体の筐体の側面に配置され、操作者により本体が触れられたときの接触の状態を検出する接触検出部を備える電子装置のコンピュータに、操作者により本体が触れられたときの、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出ステップと、前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定ステップと、を実行させるためのプログラムである。
 本発明に係る態様によれば、簡単でかつ便利に本体を操作している操作者を推定することができる。
第1の実施形態に係る電子装置の構成を示す斜視図である。 第1の実施形態に係る電子装置の一部の構成を示す断面図である。 第1の実施形態に係る電子装置の制御装置のブロック構成図である。 第1の実施形態に係る電子装置の制御部のブロック構成図である。 第1の実施形態における操作者の推定の処理の流れを示したフローチャートである。 第2の実施形態に係る電子装置の制御部のブロック構成図である。 第2の実施形態における操作者の推定の処理の流れを示したフローチャートである。 第3の実施形態に係る電子装置の制御部のブロック構成図である。 第3の実施形態における操作者の推定の処理の流れを示したフローチャートである。 第4の実施形態に係る電子装置の制御部のブロック構成図である。 第4の実施形態における操作者の推定の処理の流れを示したフローチャートである。
 以下、本発明に係る実施形態について、図面を参照して詳細に説明する。
 <第1の実施形態>
 図1は、本発明に係る第1の実施形態の電子装置EQPの構成を示す斜視図である。図1に示すように、電子装置EQPは、筐体FLと、表示部DPと、操作部SDと、制御装置CONTと、撮像部IMGとを有している。
 筐体FLは、例えば矩形の板状に形成されており、表示部DP及び操作部SDを保持する。
 表示部DPは、筐体FLのうち板面に設けられている。筐体FLのうち当該表示部DPが設けられる面を、以下表示面Feと表記する。表示部DPは、例えば液晶装置や有機EL装置などを有する表示パネルPNを有している。表示パネルPNが設けられる表示領域には、例えばタッチパネルTPが設けられている。
 操作部SDは、筐体FLのうち表示面Feを囲む4辺に相当する4つの側面Fa~Fdに設けられている。操作部SDは、側面Faに設けられた接触検出部(圧力検出部)SD1、側面Fbに設けられた接触検出部(圧力検出部)SD2、側面Fcに設けられた接触検出部(圧力検出部)SD3及び側面Fdに設けられた接触検出部(圧力検出部)SD4を有している。操作部SDは、接触検出部SD1~SD4において外部からの(例えば操作者の)接触の有無及び接触位置を検出する。これにより、接触検出部SD1~SD4は、操作者により本体(自装置、操作者が操作している電子装置の本体)が触れられたときの接触の状態を検出する。なお、接触検出部(圧力検出部)SD1~SD4は、それぞれ1点以上の任意の点数に分割可能である。接触検出部(圧力検出部)SD1~SD4は、それぞれ複数に分割して複数個所に配置可能である。接触検出部(圧力検出部)SD1~SD4は、それぞれ複数個所に配置される検出部によって構成されてもよい。例えば、接触検出部SD1が5点に分割されているとすると、接触検出部SD1は5点で、接触の有無を検出することができる。
 また、接触検出部SD1~SD4は、圧力センサとしても機能し、接触されたときの圧力を所定の段階(例えば、256段階)で検出する。これにより、接触検出部SD1~SD4は、操作者により本体が触れられたときの圧力を検出する。例えば、接触検出部SD1が5点に分割されているとすると、接触検出部SD1は5点で、圧力を検出することができる。
 撮像部IMGは、筐体FLの内部に設けられている。また、撮像部IMGのレンズは表示面Feとは反対の面に設けられている。撮像部IMGは、電子装置EQPの外部の被写体を撮像し、撮像に得られた画像データを生成する。
 図2は、電子装置の一部の構成を示す断面図である。同図において、電子装置EQPを表示面Fe側から見たときの図であり、接触検出部SD1~SD4が断面で示されている。
 図2に示すように、各接触検出部SD1~SD4は、矩形に形成された表示部DPの各辺の位置に配置されると共に、表示部DPの寸法に対応する寸法に形成されている。
 具体的には、接触検出部SD1及びSD2の検出領域20は、表示部DPの短辺に対応する位置に配置されている。また、接触検出部SD1及びSD2の検出領域20の長手方向の寸法は、表示部DPの短辺の寸法に等しくなっている。一方、接触検出部SD3及びSD4の検出領域20は、表示部DPの長辺に対応する位置に配置されている。また、接触検出部SD3及びSD4の検出領域20の長手方向の寸法は、表示部DPの長辺の寸法に等しくなっている。
 図3は、制御装置CONTのブロック構成図である。図3に示すように、制御装置CONTは、制御部60と、入力部52と、出力部53と、記憶部54と、通信部55と、電源部56とを備える。
 制御部60は、電子装置EQPの統括的な演算処理を行う。入力部52は、電子装置EQPに対して入力を行う部分である。入力部52は、上記の接触検出部SD1~SD4と、表示部検出部52b、姿勢検出部52cと、動き検出部52dと、撮像部IMGとを備える。なお、この他、入力部52として、例えばマイクなどの不図示の音声入力部が設けられていても構わない。
 表示部検出部52bは、タッチパネルTPにおける接触の有無及び接触位置を検出する。姿勢検出部52cは、電子装置EQPの姿勢を検出するセンサである。姿勢検出部52cとしては、例えば3軸加速度センサやジャイロセンサ、地磁気センサなどが設けられている。動き検出部52dは、本体の筐体の動きを検出することにより、操作者により本体が動かされたときの本体の筐体の動きを検出する。動き検出部52dとしては、例えば加速度センサなどが設けられている。
 接触検出部SD1~SD4は、操作者により本体が触れられたときの接触の状態を検出する。接触検出部SD1~SD4は、例えば、静電容量型の接触感知センサが設けられている。
 出力部53は、画像や音声などを出力する。出力部53は、画像を表示する表示部DPと、音声の出力を制御する音声出力部53bとを備える。
 記憶部54には、制御部60による演算結果や入力部52に入力させる入力情報、出力部53によって出力させる出力情報(例、画像データ、音声データ)、通信部55を介して通信する情報などが記憶されている。また、記憶部54は、制御部60が実行するアプリケーションのプログラムが記憶されている。
 また、記憶部54は、電子マネーが入金されている非接触ICチップを備える。記憶部54は、ICチップを使えなくした状態(ICチップロック)を解除できる登録者を示す情報が記憶されている。
 また、記憶部54には、操作者の示す情報o_(1、1)、…、o_(m、n)と(m、nは正の整数)、接触状態を示す情報Rs_1、…、Rs_mと、動き状態を示す情報Rm_1、…、Rm_nとが関連付けられて記憶されている。すなわち、記憶部54には、接触状態を示す情報Rs_iと動き状態を示す情報Rm_jとの組み合わせ毎に(i,jは正の整数)、一の操作者の示す情報o_(i、j)が対応付けられて記憶されている。ここで、一の操作者の示す情報o_(i、j)は、他の操作者の示す情報o_(i´、j´)と同じであってもよい(i´、j´は正の整数)。
 通信部55は、外部との間で有線方式及び無線方式のうち少なくとも一方の方式によって情報の通信が可能となるように構成されている。電源部56は、電子装置EQPに電力を供給するための電源が配置されている。電源部56としては、例えば電池やバッテリー等が挙げられる。
 次に、上記のように構成された電子装置EQPの動作を説明する。
 表示部検出部52bは、タッチパネルTP上の接触位置を検出し、接触位置を示す情報を制御部60に出力する。制御部60は、当該接触位置に表示された識別表示に対応する処理を実行する。例えば、操作者がタッチパネルTPのうち不図示の表示領域31に重なる部分に接触した場合、制御部60は当該表示領域31に対応する処理を行う。
 姿勢検出部52cは、本体の筐体FLの姿勢を検出し、検出した姿勢を示す情報aを制御部60に出力する。制御部60は、姿勢検出部52cから入力された姿勢を示す情報に基づいて、表示部DPにおける表示の向きを重力方向となるように切り替えるように制御する。
 動き検出部52dは、本体の筐体の動きを検出し、検出した動きを示す情報mtを制御部60に出力する。
 接触検出部SD1~SD4は、操作者により本体が触れられたときの接触の状態を検出し、検出した接触の状態を示す情報sを制御部60に出力する。
 撮像部IMGは、制御部60からの撮像を制御する制御信号に基づき、電子装置EQPの外部の被写体を撮像し、撮像により得られた画像データを生成し、その画像データを制御部60に出力する。
 制御部60は、撮像部IMGから取得した画像データを記憶部54に記憶させる。
 制御部60は、記憶部54に記憶された画像データを読み出し、読み出した画像データを表示部DPに出力し、表示部DPに画像として表示させる。また、制御部60は、記憶部54に記憶されたアプリケーションのプログラムを読み出し、そのプログラムを実行することにより、プログラムにより定められた所定の画像を表示部DPに表示させる。
 制御部60は、通信部55を介して入力された画像データを表示部DPに出力し、表示部DPに画像として表示させる。
 また、制御部60は、記憶部54に記憶された音声データを読み出し、読み出した音声データを音声出力部53bに出力し、音声出力部53bから音声を出力させる。
 また、制御部60は、通信部55を介して、外部の機器との間でこれら画像データ及び音声データを含むデータの通信を行うように制御する。
 制御装置CONTでは、操作者の操作に基づいて、これらの出力、通信を行わせる。なお、上記制御部60の処理は、第1の実施形態から第4の実施形態までに共通の制御部(60、60b、60c、60d)の処理であり、第2の実施形態以降では、その説明を省略する。
 図4は、制御部60のブロック構成図である。制御部60は、接触変化抽出部61と、動き状態算出部63と、推定部64とを備える。推定部64は、接触状態算出部62と、操作者推定部69とを備える。
 接触変化抽出部61は、接触検出部SD1~SD4により検出された接触の状態を示す情報sに基づき、接触の時間的な変化または空間的な変化を抽出し、抽出した接触の時間的な変化を示す情報ds/dtと、接触の空間的な変化を示す情報ds/dxとを接触状態算出部62に出力する。
 具体的には、例えば、接触変化抽出部61は、接触検出部SD1~SD4のある位置における接触の有無の時間的な変化を算出し、その接触の有無の時間的な変化を示す情報ds/dtを接触状態算出部62に出力する。
 同様に、例えば、接触変化抽出部61は、各接触検出部SD1~SD4における接触の有無について各接触検出部の長手方向の変化を算出し、その接触の有無の長手方向の変化を示す情報を接触の空間的な変化を示す情報ds/dxとして接触状態算出部62に出力する。
 なお、接触変化抽出部61は、接触の状態を示す情報sに基づき、接触の空間分布を抽出し、接触の空間分布を示す情報を接触状態算出部62に出力してもよい。その場合、接触状態算出部62は、抽出された接触の空間分布を示す情報に基づき、接触状態を抽出する。
 動き状態算出部63は、動き検出部52dにより検出された動きを示す情報mtに基づいて、動きの特性を示す動き状態情報Rm_j(jは正の整数)を算出し、算出した動き状態情報Rm_jを操作者推定部69に出力する。
 具体的には、例えば、動き状態算出部63は、所定の基準点と本体の間の距離の時間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを動き状態情報Rm_jとして算出する。
 推定部64は、接触変化抽出部61により抽出された接触の時間的な変化または空間的な変化に基づき、操作者を推定する。続いて、推定部64が備える接触状態算出部62について説明する。
 接触状態算出部62は、接触変化抽出部61により抽出された接触の時間的な変化または空間的な変化に基づき、接触の特性を示す接触状態情報Rs_i(iは正の整数)を算出し、算出した接触状態情報Rs_iを操作者推定部69に出力する。
 具体的には、例えば、接触状態算出部62は、接触の有無の時間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを接触状態情報Rs_iの1つとして算出する。同様に、接触状態算出部62は、接触の有無の空間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを接触状態情報Rs_iの1つとして算出する。
 続いて、推定部64が備える操作者推定部69について説明する。操作者推定部69は、接触状態情報と動き状態情報とに基づき、操作者を推定する。具体的には、例えば、接触状態算出部62により算出された接触状態情報Rs_iと、動き状態算出部63により算出された動き状態情報Rm_jとの組み合わせに対応する操作者を識別する情報o_(i,j)を記憶部54から読み出す。
 操作者推定部69は、読み出した操作者を識別する情報o_(i,j)を出力部53に出力する。これにより、出力部53は、例えば、操作者を識別する情報o_(i,j)を表示部DPに表示させる。
 また、制御部60は、操作者推定部69により得られた操作者を識別する情報o_(i,j)を操作者の認証の処理に用いる。例えば、制御部60は、操作者を識別する情報o_(i,j)が、予め記憶部54に記憶された登録者の情報と同一であるならば、その操作者を認証し、例えば、ICカードロックの解除をするようにしてもよい。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
 なお、本実施形態では操作者推定部69は、接触状態情報と動き状態情報とに基づき、操作者を推定したが、これに限らず、操作者推定部69は、算出された接触状態情報に基づき、操作者を推定してもよい。
 具体的には、例えば、記憶部54には、接触状態情報と操作者を識別する情報とが予め関連付けられて記憶されており、操作者推定部69は、算出された接触状態情報に対応する操作者を識別する情報を記憶部54から読み出すことにより、操作者を推定してもよい。
 図5は、第1の実施形態における操作者の推定の処理の流れを示したフローチャートである。まず、接触検出部SD1~SD4は、接触状態を検出する(ステップS101)。次に、接触変化抽出部61は、接触変化を抽出する(ステップS102)。次に、接触状態算出部62は、接触状態情報を算出する(ステップS103)。次に、動き検出部52dは、本体の動きを検出する(ステップS104)。次に、動き状態算出部63は、動き状態情報を算出する(ステップS105)。次に、操作者推定部69は、本体の操作者を識別する情報を記憶部54から読み出す(ステップS106)。以上で、本フローチャートの処理を終了する。
 以上、本実施形態における電子装置EQPの制御部60は、接触状態情報と動き状態情報とに基づいて本体の操作者を識別する情報を読み出すことにより、本体の操作者を識別する情報と予め記憶部54に記憶されている登録者を示す情報とが同一であるか否か判定することができる。そして、制御部60は、当該2つの情報が同一であれば、その操作者を認証する。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
<第2の実施形態>
 続いて、本発明に係る第2の実施形態の電子装置EQP_bについて説明する。第2の実施形態における電子装置EQP_bは、ブロック構成図は省略するが、図3に示された第1の実施形態に係る電子装置EQPの制御装置CONTにおける記憶部54が記憶部54bに、制御部60が制御部60bに変更された構成となっている。
 記憶部54bには、操作者の示す情報o_(1、1)、…、o_(m、n)と(m、nは正の整数)、圧力状態を示す情報Rp_1、…、Rp_mと、動き状態を示す情報Rm_1、…、Rm_nとが関連付けられて記憶されている。すなわち、記憶部54bには、圧力状態を示す情報Rs_iと動き状態を示す情報Rm_jとの組み合わせ毎に(i,jは正の整数)、一の操作者の示す情報o_(i、j)が対応付けられて記憶されている。ここで、一の操作者の示す情報o_(i、j)は、他の操作者の示す情報o_(i´、j´)と同じであってもよい(i´、j´は正の整数)。
 記憶部54bには、登録者を示す情報が記憶されている。
 図6は、第2の実施形態に係る電子装置EQP_bの制御部60bのブロック構成図である。制御部60bは、圧力変化抽出部65と、動き状態算出部63bと、推定部64bとを備える。また、推定部64bは、圧力状態算出部66と、操作者推定部69bとを備える。
 圧力変化抽出部65は、接触検出部SD1~SD4により検出された圧力の時間的な変化または空間的な変化を抽出し、抽出した圧力の時間的な変化を示す情報dp/dtと、圧力の空間的な変化を示す情報dp/dxとを圧力状態算出部66に出力する。
 具体的には、例えば、圧力変化抽出部65は、接触検出部SD1~SD4のある位置における圧力の時間的な変化を算出し、その圧力の時間的な変化を示す情報dp/dtを圧力状態算出部66に出力する。
 同様に、例えば、接触変化抽出部61は、各接触検出部SD1~SD4における圧力について各接触検出部の長手方向の変化を算出し、その圧力の長手方向の変化を示す情報を圧力の空間的な変化を示す情報dp/dxとして圧力状態算出部66に出力する。
 推定部64bは、圧力変化抽出部65により抽出された圧力の時間的な変化または空間的な変化に基づき、操作者を推定する。続いて、推定部64bが備える圧力状態算出部66について説明する。圧力状態算出部66は、圧力変化抽出部65により抽出された圧力の時間的な変化または空間的な変化に基づき、圧力の特性を示す圧力状態情報Rp_i(iは正の整数)を算出し、算出した圧力状態情報Rp_iを操作者推定部69bに出力する。
 具体的には、例えば、圧力状態算出部66は、圧力の時間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを圧力状態情報Rp_iの1つとして算出する。同様に、接触状態算出部62は、圧力の空間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを圧力状態情報Rp_iの1つとして算出する。
 動き状態算出部63bは、動き状態算出部63と同様に、動き検出部52dにより検出された動きを示す情報mtに基づいて、動きの特性を示す動き状態情報Rm_j(jは正の整数)を算出し、算出した動き状態情報Rm_jを操作者推定部69bに出力する。
 具体的には、例えば、動き状態算出部63bは、本体の基準点からの距離の時間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを動き状態情報Rm_jとして算出する。
 続いて、推定部64bが備える操作者推定部69bについて説明する。操作者推定部69bは、圧力状態算出部66により算出された圧力状態情報と動き状態算出部63bにより算出された動き状態情報とに基づき、本体の操作者を推定する。
 具体的には、例えば、操作者推定部69bは、圧力状態情報Rp_iと、動き状態情報Rm_jとの組み合わせに対応した操作者を識別する情報o_(i,j)を記憶部54bから読み出すことにより、本体の操作者を推定する。
 操作者推定部69bは、読み出した操作者を識別する情報o_(i,j)を出力部53に出力する。これにより、出力部53は、例えば、操作者を識別する情報o_(i,j)を表示部DPに表示させる。
 また、制御部60bは、制御部60と同様に、操作者推定部69bにより得られた操作者を識別する情報o_(i,j)を操作者の認証処理に用いる。例えば、制御部60bは、操作者を識別する情報o_(i,j)が、予め記憶部54bに記憶された登録者の情報と同一であるならば、その操作者を認証する。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
 なお、本実施形態では操作者推定部69bは、圧力状態情報と動き状態情報とに基づき、操作者を推定したが、これに限らず、操作者推定部69bは、算出された圧力状態情報に基づき、操作者を推定してもよい。
 具体的には、例えば、記憶部54bには、圧力状態情報と操作者を識別する情報とが予め関連付けられて記憶されており、操作者推定部69bは、算出された圧力状態情報に対応する操作者を識別する情報を記憶部54bから読み出すことにより、操作者を推定してもよい。
 図7は、第2の実施形態における操作者の推定の処理の流れを示したフローチャートである。まず、接触検出部SD1~SD4は、操作者により本体が触れられたときの圧力を検出する(ステップS201)。次に、圧力変化抽出部65は、圧力の時間変化または空間変化を抽出する(ステップS202)。次に、圧力状態算出部66は、圧力状態情報を算出する(ステップS203)。次に、動き検出部52dは、本体の動きを検出する(ステップS204)。次に、動き状態算出部63は、動き状態情報を算出する(ステップS205)。次に、操作者推定部69bは、本体の操作者を識別する情報を記憶部54bから読み出す(ステップS206)。以上で、本フローチャートの処理を終了する。
 以上、本実施形態における電子装置EQP_bの制御部60bは、圧力状態情報と動き状態情報とに基づいて本体の操作者を識別する情報を読み出すことにより、本体の操作者を識別する情報と予め記憶部54bに記憶されている登録者を示す情報とが同一であるか否か判定することができる。そして、制御部60bは、当該2つの情報が同一であれば、その操作者を認証する。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
<第3の実施形態>
 続いて、本発明に係る第3の実施形態の電子装置EQP_cについて説明する。第3の実施形態における電子装置EQP_cは、ブロック構成図は省略するが、図3に示された第1の実施形態に係る電子装置EQPの制御装置CONTにおける記憶部54が記憶部54cに、制御部60が制御部60cに変更された構成となっている。
 記憶部54cには、操作者の示す情報o_(1、1)、…、o_(m、n)と(m、nは正の整数)、触り癖を示す情報Hs_1、…、Hs_mと、動かし癖を示す情報Hm_1、…、Hm_nとが関連付けられて記憶されている。すなわち、記憶部54cには、触り癖を示す情報Hs_iと動かし癖を示す情報Hm_jとの組み合わせ毎に(i,jは正の整数)、一の操作者の示す情報o_(i、j)が対応付けられて記憶されている。ここで、一の操作者の示す情報o_(i、j)は、他の操作者の示す情報o_(i´、j´)と同じであってもよい(i´、j´は正の整数)。
 記憶部54cには、登録者を示す情報が記憶されている。
 図8は、第3の実施形態に係る電子装置EQP_cの制御部60cのブロック構成図である。制御部60cは、触り癖照合部67と、動かし癖照合部68と、推定部64cとを備える。
 触り癖照合部67は、記憶部54cから触り癖を示す情報を読み出し、読み出された触り癖を示す情報と検出された接触の状態とを照合し、照合により抽出された触り癖を示す情報を推定部64cに出力する。
 動かし癖照合部68は、記憶部54cから動かし癖を示す情報を読み出し、読み出された動かし癖を示す情報と検出された動きとを照合し、照合により抽出された動かし癖を示す情報を推定部64cに出力する。
 推定部64cは、触り癖照合部67により照合された触り癖を示す情報および動かし癖照合部68により照合された動かし癖を示す情報に関連付けられた操作者を識別する情報を記憶部54cから読み出すことにより、操作者を推定する。
 なお、記憶部54cには、操作者を識別する情報と前記操作者が本体に触れるときの癖である触り癖を示す情報とが関連付けられて記憶されている場合、推定部64cは、触り癖照合部67により照合された触り癖を示す情報と関連付けられた操作者を識別する情報を記憶部54cから読み出すことにより、操作者を推定してもよい。
 図9は、第3の実施形態における操作者の推定の処理の流れを示したフローチャートである。まず、接触検出部SD1~SD4は、操作者により本体が触れられたときの接触の状態を検出する(ステップS301)。次に、触り癖照合部67は、触り癖を照合する(ステップS302)。次に、動き検出部52dは、本体の動きを検出する(ステップS303)。次に、動かし癖照合部68は、動かし癖を照合する(ステップS304)。次に、推定部64cは、触り癖を示す情報と動かし癖を示す情報とに対応する本体の操作者を識別する情報を記憶部54cから読み出す(ステップS306)。以上で、本フローチャートの処理を終了する。
 以上、本実施形態における電子装置EQP_cの制御部60cは、触り癖を示す情報と動かし癖を示す情報とに基づいて本体の操作者を識別する情報を読み出すことにより、本体の操作者を識別する情報と予め記憶部54cに記憶されている登録者を示す情報とが同一であるか否か判定することができる。そして、制御部60cは、当該2つの情報が同一であれば、その操作者を認証する。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
<第4の実施形態>
 続いて、本発明に係る第4の実施形態の電子装置EQP_dについて説明する。第4の実施形態における電子装置EQP_dは、ブロック構成図は省略するが、図3に示された第1の実施形態に係る電子装置EQPの制御装置CONTにおける記憶部54が記憶部54dに、制御部60が制御部60dに変更された構成となっている。
 記憶部54dには、接触の状態を示す情報s_1、…、s_m(mは正の整数)のうちの1つの接触の状態を示す情報s_iと、動きを示す情報mt_1、…、mt_n(nは正の整数)のうちの1つの動きを示す情報mt_jとの組み合わせ毎に(i,jは正の整数)、一の操作者の示す情報o_(i、j)が対応付けられて記憶されている。ここで、一の操作者の示す情報o_(i、j)は、他の操作者の示す情報o_(i´、j´)と同じであってもよい(i´、j´は正の整数)。
 記憶部54dには、登録者を示す情報が記憶されている。
 同様にして、記憶部54dには、接触の状態を示す情報s_1、…、s_m(mは正の整数)のうちの1つの接触の状態を示す情報s_iと、動き状態情報Rm_1、…、s_l(lは正の整数)のうちの1つの動き状態情報Rm_kとの組み合わせ毎に(i,kは正の整数)、一の操作者の示す情報o´_(i、k)が対応付けられて記憶されている。こで、一の操作者の示す情報o´_(i、k)は、他の操作者の示す情報o´_(i´、k´)と同じであってもよい(i´、k´は正の整数)。
 図10は、第4の実施形態に係る電子装置EQP_dの制御部60dのブロック構成図である。制御部60dは、動き状態算出部63dと推定部64dとを備える。
 動き状態算出部63dは、動き状態算出部63と同様に、動き検出部52dにより検出された動きを示す情報mt_jに基づいて、動きの特性を示す動き状態情報Rm_k(kは正の整数)を算出し、算出した動き状態情報Rm_kを推定部64dに出力する。
 具体的には、例えば、動き状態算出部63dは、本体の基準点からの距離の時間的な変化を1つの波と捉え、その波の周波数と、振幅と、位相とを動き状態情報Rm_kとして算出する。
 推定部64dは、接触検出部SD1~SD4により検出された接触の状態と動き検出部52dにより検出された動きとに基づいて、操作者を推定する。
 具体的には、例えば、推定部64dは、接触検出部SD1~SD4により検出された接触の状態を示す情報s_iと動き検出部52dにより検出された動きを示す情報mt_jとの組み合わせに対応する操作者を識別する情報o_(i,j)を記憶部54dから読み出すことにより、操作者を推定する。
 推定部64dは、上記処理により、操作者を推定できなかった場合には、接触検出部SD1~SD4により検出された接触の状態と動き状態算出部63dにより検出された動き状態情報とに基づき、操作者を推定する。
 具体的には、例えば、推定部64dは、接触検出部SD1~SD4により検出された接触の状態を示す情報s_iと動き状態算出部63dにより検出された動き状態情報Rm_kとの組み合わせに対応する操作者を識別する情報o´_(i,k)を記憶部54dから読み出すことにより、操作者を推定する。
 推定部64dは、読み出した操作者を識別する情報o_(i,j)またはo´_(i,k)を出力部53に出力する。これにより、出力部53は、例えば、操作者を識別する情報o_(i,j)またはo´_(i,k)を表示部DPに表示させる。また、制御部60dは、推定部64dにより得られた操作者を識別する情報o_(i,j)またはo´_(i,k)を操作者の認証の処理に用いる。
 図11は、第4の実施形態における操作者の推定の処理の流れを示したフローチャートである。まず、接触検出部SD1~SD4は、接触状態を検出する(ステップS401)。次に、動き検出部52dは、本体の動きを検出する(ステップS402)。次に、推定部64dは、接触状態と動きとに基づいて、操作者を推定する(ステップS403)。
 次に、推定部64dは、操作者を推定できたか否か判定する(ステップS404)。推定部64dが操作者を推定できた場合(ステップS404 YES)、制御部60dはその処理を終了する。
 一方、推定部64dが操作者を推定できなかった場合(ステップS404 NO)、動き状態算出部63dは動き状態情報を算出する(ステップS405)。次に、推定部64dは、接触状態と動き状態情報とに基づいて、操作者を推定する(ステップS406)。以上で、本フローチャートの処理を終了する。
 以上、本実施形態における電子装置EQP_dの制御部60dは、接触の状態と動きとに基づいて本体の操作者を識別する情報を読み出す。また、制御部60dは、接触の状態と動き状態とに基づいて本体の操作者を識別する情報を読み出す。これにより、制御部60dは、本体の操作者を識別する情報と予め記憶部54dに記憶されている登録者を示す情報とが同一であるか否か判定することができる。そして、制御部60dは、当該2つの情報が同一であれば、その操作者を認証する。
 これにより、操作者が電子装置に備えられたタッチパネルTPを押すことにより暗証番号を入力する時間を無くすことができる。また、操作者が認証を受ける毎に、暗証番号を手で入力するといった煩わしさを解消することができる。
 なお、本実施形態では、推定部64dは、最初に接触状態と動きとに基づいて操作者を推定し、操作者を推定できなかった場合に、推定部64dは、接触状態と動き状態とに基づいて、操作者を推定したが、これに限ったものではない。推定部64dは、最初に接触状態と動き状態とに基づいて操作者を推定してもよい。また、推定部64dは、最初に接触状態と動き状態とに基づいて操作者を推定し、操作者を推定できなかった場合に、接触状態と動きとに基づいて操作者を推定してもよい。
 なお、制御部(60、60b、60c、60d)は、普通では握らない特殊な握り方をした場合に、本体の操作者を推定してもよい。
 具体的には、例えば、予め記憶部には、普通では握らない特殊な握り方をしたときの接触分布を示す情報が操作者を識別する情報と関連づけられて記憶されている。その場合に、制御部(60、60b、60c、60d)は、接触検出部SD1~SD4により検出された接触分布と、記憶部に記憶されている特殊な握り方をしたときの接触分布とを照合する。制御部(60、60b、60c、60d)は、照合により同一だと判定した場合に、特殊な握り方をしたときの接触分布に対応する操作者を識別する情報を記憶部から読み出すことにより、本体の操作者を推定する。
 また、制御部(60、60b、60c、60d)は、予め記憶部に記憶されている握り方の順番どおりに、操作者により本体が握られた場合に、本体の操作者を推定してもよい。
 具体的には、例えば、予め記憶部に、握り方に対応した接触分布を示す情報が記憶されており、握り方に対応した接触分布を示す情報の整列順の組み合わせ毎に操作者を識別する情報が関連づけられて記憶されている。
 その場合に、制御部(60、60b、60c、60d)は、接触検出部SD1~SD4により検出された接触分布と、記憶部に記憶されている握り方に対応した接触分布とを、記憶部に記憶されている握り方に対応した接触分布を示す情報の整列順に照合する。制御部(60、60b、60c、60d)は、照合により握り方の順番どおりに握られたと判定した場合に、その握り方に対応した接触分布を示す情報の整列順に対応する操作者を識別する情報を記憶部から読み出すことにより、本体の操作者を推定する。
 また、制御部(60、60b、60c、60d)は、予め記憶部に本体の動かし方の癖と操作者を識別する情報とが関連づけられて記憶されていた場合に、予め記憶部に記憶されている本体の動かし方の癖と、動き検出部により検出された動かし方とが同一の場合に、本体の動かし方の癖に対応する操作者を識別する情報を記憶部から読み出すことにより、本体の操作者を推定してもよい。
 また、制御部(60、60b、60c、60d)は、接触検出部SD1~SD4により検出された接触分布から操作者の手の特徴を推定し、その手の特徴(例えば、掌の大きさや指の開き具合)に基づいて、操作者を推定してもよい。
 また、本実施形態の電子装置EQP、EQP_b、EQP_cおよびEQP_dの各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、電子装置EQPに係る上述した種々の処理を行ってもよい。
 各実施形態では、本体の操作者を識別する情報が、予め記憶部に記録されている登録者を示す情報と同一である場合に、その操作者の認定を行うようにしたが、本体の操作者を識別する情報が、予め記憶部に記録されている登録者を示す情報とが類似する場合にその操作者の認定を行うようにしてもよい。
 類似か否かの判定は、例えば、本体の操作者を識別する情報が、予め記憶部に記録されている登録者を示す情報に類似する所定の範囲内の情報と同じか否かによって判定する。この場合に、操作者の認定が済んだ本体の操作者を識別する情報を、予め記憶部に記録されている登録者を示す情報として更新して記録することにより、時間と共に操作者の癖が変化するような場合に対応することができる。
 なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 EQP…電子装置 FL…筐体 DP…表示部 SD…操作部 CONT…制御装置 PN…表示パネル TP…タッチパネル Fe…表示面 Fa~Fd…側面 SD1~SD4…接触検出部(圧力検出部) IMG…撮像部 20…検出領域 52…入力部 52b…表示部検出部 52c…姿勢検出部 52d…動き検出部 53…出力部 53b…音声出力部 54…記憶部 60、60b、60c、60d…制御部 61…接触変化抽出部 62…接触状態算出部 63、63b、63d…動き状態算出部 64、64b、64c、64d…推定部 65…圧力変化抽出部 66…圧力状態算出部 67…触り癖照合部 68…動かし癖照合部 69、69b…操作者推定部

Claims (13)

  1.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部と、
     前記検出された接触の状態に基づき、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出部と、
     前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定部と、
    を備える電子装置。
  2.  前記推定部は、前記抽出された接触の時間的な変化または空間的な変化に基づき、前記接触の特性を示す接触状態情報を算出する接触状態算出部と、前記算出された接触状態情報に基づき、前記操作者を推定する操作者推定部と、を備える請求項1に記載の電子装置。
  3.  操作者により前記本体が動かされたときの前記本体の筐体の動きを検出する動き検出部と、
     前記検出された動きに基づいて、前記動きの特性を示す動き状態情報を算出する動き状態算出部と、
    をさらに備え、
    前記操作者推定部は、前記接触状態情報と前記動き状態情報とに基づき、前記操作者を推定する請求項2に記載の電子装置。
  4.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの圧力を検出する圧力検出部と、
     前記圧力検出部により検出された圧力の時間的な変化または空間的な変化を抽出する圧力変化抽出部と、
     前記抽出された圧力の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定部と、
    を備える電子装置。
  5.  前記推定部は、前記抽出された圧力の時間的な変化または空間的な変化に基づき、前記圧力の特性を示す圧力状態情報を算出する圧力状態算出部と、前記算出された圧力状態情報に基づき、前記操作者を推定する操作者推定部と、を備える請求項4に記載の電子装置。
  6.  操作者により前記本体が動かされたときの前記本体の筐体の動きを検出する動き検出部と、
    前記検出された動きに基づいて、前記動きの特性を示す動き状態情報を算出する動き状態算出部と、
    をさらに備え、
    前記操作者推定部は、前記圧力状態情報と前記動き状態情報とに基づき、前記操作者を推定する請求項5に記載の電子装置。
  7.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部と、
     操作者を識別する情報と前記操作者が前記本体に触れるときの癖である触り癖を示す情報とが関連付けられて記憶されている記憶部と、
     前記記憶部から前記触り癖を示す情報を読み出し、前記読み出された触り癖を示す情報と前記検出された接触の状態とを照合する触り癖照合部と、
     前記触り癖照合部により照合された前記触り癖を示す情報と関連付けられた前記操作者を識別する情報を前記記憶部から読み出すことにより、前記操作者を推定する推定部と、
    を備える電子装置。
  8.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部と、
     前記操作者により前記本体が動かされたときの前記本体の筐体の動きを検出する動き検出部と、
     操作者を識別する情報と前記操作者が前記本体に触れるときの癖である触り癖を示す情報と前記操作者が前記本体を動かすときの癖である動かし癖を示す情報とが関連付けられて記憶されている記憶部と、
     前記記憶部から前記触り癖を示す情報を読み出し、前記読み出された触り癖を示す情報と前記検出された接触の状態とを照合する触り癖照合部と、
     前記記憶部から前記動かし癖を示す情報を読み出し、前記読み出された動かし癖を示す情報と前記検出された動きとを照合する動かし癖照合部と、
    を備え、
     前記推定部は、前記触り癖照合部によって照合された前記触り癖を示す情報および前記動かし癖照合部によって照合された前記動かし癖を示す情報、に関連付けられた前記操作者を識別する情報を前記記憶部から読み出すことにより、前記操作者を推定することを特徴とする電子装置。
  9.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部と、
     前記本体の筐体の動きを検出する動き検出部と、
     前記検出された接触の状態と前記検出された動きとに基づいて、前記操作者を推定する推定部と、
    を備える電子装置。
  10.  前記検出された動きに基づいて、前記動きの特性を示す動き状態情報を算出する動き状態算出部を備え、
     前記推定部は、前記検出された接触の状態と前記算出された動き状態情報とに基づき、前記操作者を推定する請求項9に記載の電子装置。
  11.  前記接触検出部又は前記圧力検出部は、1点以上の任意の点数に分割可能である請求項1から請求項10のいずれか1項に記載の電子装置。
  12.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部を備える電子装置が実行する操作者推定方法であって、
     操作者により前記本体が触れられたときの、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出手順と、
     前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定手順と、
    を有する操作者推定方法。
  13.  本体の筐体の側面に配置され、操作者により前記本体が触れられたときの接触の状態を検出する接触検出部を備える電子装置のコンピュータに、
     操作者により前記本体が触れられたときの、前記接触の時間的な変化または空間的な変化を抽出する接触変化抽出ステップと、
     前記抽出された接触の時間的な変化または空間的な変化に基づき、前記操作者を推定する推定ステップと、
    を実行させるためのプログラム。
PCT/JP2012/057335 2011-03-24 2012-03-22 電子装置、操作者推定方法およびプログラム WO2012128319A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/030,370 US20140096238A1 (en) 2011-03-24 2013-09-18 Electronic device, operator estimation method and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011066103 2011-03-24
JP2011-066103 2011-03-24
JP2012-062141 2012-03-19
JP2012062141A JP2012212430A (ja) 2011-03-24 2012-03-19 電子装置、操作者推定方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/030,370 Continuation US20140096238A1 (en) 2011-03-24 2013-09-18 Electronic device, operator estimation method and program

Publications (1)

Publication Number Publication Date
WO2012128319A1 true WO2012128319A1 (ja) 2012-09-27

Family

ID=46879460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/057335 WO2012128319A1 (ja) 2011-03-24 2012-03-22 電子装置、操作者推定方法およびプログラム

Country Status (3)

Country Link
US (1) US20140096238A1 (ja)
JP (1) JP2012212430A (ja)
WO (1) WO2012128319A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355066A (zh) * 2016-08-28 2017-01-25 乐视控股(北京)有限公司 人脸验证方法及人脸验证装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278938A (ja) * 2001-03-21 2002-09-27 Fuji Xerox Co Ltd 個人識別方法、個人識別装置、個人識別プログラム、及び個人認証システム
JP2005092722A (ja) * 2003-09-19 2005-04-07 Yoshinao Aoki 動作認識装置
JP2006011591A (ja) * 2004-06-23 2006-01-12 Denso Corp 個人認証システム
JP2006346221A (ja) * 2005-06-16 2006-12-28 Heart Metrics Kk 個人認証方法及び装置
JP2007116602A (ja) * 2005-10-24 2007-05-10 Sharp Corp 電子機器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981236A (ja) * 1995-09-12 1997-03-28 Denso Corp 移動通信装置
US6711467B2 (en) * 2000-10-05 2004-03-23 Sony Corporation Robot apparatus and its control method
JP2003051012A (ja) * 2001-08-03 2003-02-21 Nec Corp ユーザ認証方法及びユーザ認証装置
JP4531358B2 (ja) * 2003-07-10 2010-08-25 株式会社エヌ・ティ・ティ・ドコモ タッチパネルディスプレイ装置
JP2005173930A (ja) * 2003-12-10 2005-06-30 Sony Corp 電子機器、認証方法
WO2006099612A2 (en) * 2005-03-17 2006-09-21 Nielsen Media Research, Inc. Methods and apparatus for using audience member behavior information to determine compliance with audience measurement system usage requirements
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器
KR101571723B1 (ko) * 2008-09-02 2015-11-25 엘지전자 주식회사 단말기 및 그 제어 방법
JP5734546B2 (ja) * 2009-02-25 2015-06-17 京セラ株式会社 オブジェクト表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278938A (ja) * 2001-03-21 2002-09-27 Fuji Xerox Co Ltd 個人識別方法、個人識別装置、個人識別プログラム、及び個人認証システム
JP2005092722A (ja) * 2003-09-19 2005-04-07 Yoshinao Aoki 動作認識装置
JP2006011591A (ja) * 2004-06-23 2006-01-12 Denso Corp 個人認証システム
JP2006346221A (ja) * 2005-06-16 2006-12-28 Heart Metrics Kk 個人認証方法及び装置
JP2007116602A (ja) * 2005-10-24 2007-05-10 Sharp Corp 電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355066A (zh) * 2016-08-28 2017-01-25 乐视控股(北京)有限公司 人脸验证方法及人脸验证装置

Also Published As

Publication number Publication date
US20140096238A1 (en) 2014-04-03
JP2012212430A (ja) 2012-11-01

Similar Documents

Publication Publication Date Title
EP3482331B1 (en) Obscuring data when gathering behavioral data
KR101884538B1 (ko) 온라인 거래에서 생체학적 이미지의 이용
US10984082B2 (en) Electronic device and method for providing user information
US8550339B1 (en) Utilization of digit sequences for biometric authentication
US9858491B2 (en) Electronic device for processing composite finger matching biometric data and related methods
CN106415570A (zh) 动态键盘和触摸屏生物标识
EP3559847B1 (en) Electronic device for biometric authentication of a user
CN105474223A (zh) 用于改变电子设备的设置的用户验证
TW201335859A (zh) 電子裝置及其基於指紋識別的資料保護系統和方法
JP6002398B2 (ja) 認証プログラム、認証方法および情報処理装置
WO2019101096A1 (zh) 安全验证的方法、装置及移动终端
CN106228054A (zh) 身份验证方法和装置
US20170061191A1 (en) Fingerprint authentication
JP2016081071A (ja) 生体認証装置、生体認証方法及びプログラム
KR20150042086A (ko) 모바일 단말기용 지문인식 해킹방지 장치 및 지문 해킹방지용 표면부재와 그 지문해킹 방지방법
WO2012128319A1 (ja) 電子装置、操作者推定方法およびプログラム
JP5061213B2 (ja) 携帯端末及び携帯端末のキー入力方法
JP2018173891A (ja) 認証装置、認証方法、認証プログラム、およびデータベース
US20190057202A1 (en) Methods and systems for capturing biometric data
KR20140076082A (ko) 모바일 플랫폼에서의 사용자 인증 장치 및 그 방법
JP5712663B2 (ja) 電子装置、補正方法およびプログラム
JP6672073B2 (ja) 認証装置、認証方法、およびプログラム
JP7161129B1 (ja) 情報処理装置および情報処理プログラム
KR20200132053A (ko) 보안 해제를 위한 지문인식 방법 및 장치
JP6765929B2 (ja) 情報処理装置とその制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12761071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12761071

Country of ref document: EP

Kind code of ref document: A1