WO2017069118A1 - 個人認証装置、個人認証方法および個人認証プログラム - Google Patents

個人認証装置、個人認証方法および個人認証プログラム Download PDF

Info

Publication number
WO2017069118A1
WO2017069118A1 PCT/JP2016/080833 JP2016080833W WO2017069118A1 WO 2017069118 A1 WO2017069118 A1 WO 2017069118A1 JP 2016080833 W JP2016080833 W JP 2016080833W WO 2017069118 A1 WO2017069118 A1 WO 2017069118A1
Authority
WO
WIPO (PCT)
Prior art keywords
acoustic signal
acoustic
user
personal authentication
signal
Prior art date
Application number
PCT/JP2016/080833
Other languages
English (en)
French (fr)
Inventor
昌平 矢野
隆行 荒川
孝文 越仲
仁 今岡
英毅 入澤
Original Assignee
日本電気株式会社
昌平 矢野
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 昌平 矢野 filed Critical 日本電気株式会社
Priority to JP2017546551A priority Critical patent/JP6855381B2/ja
Priority to US15/769,967 priority patent/US10867019B2/en
Publication of WO2017069118A1 publication Critical patent/WO2017069118A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6815Ear
    • A61B5/6817Ear canal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/11Analysing solids by measuring attenuation of acoustic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/46Processing the detected response signal, e.g. electronic circuits specially adapted therefor by spectral analysis, e.g. Fourier analysis or wavelet analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/01Indexing codes associated with the measuring variable
    • G01N2291/015Attenuation, scattering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/04Wave modes and trajectories
    • G01N2291/044Internal reflections (echoes), e.g. on walls or defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/10Number of transducers
    • G01N2291/102Number of transducers one emitter, one receiver

Definitions

  • the present invention relates to a personal authentication device, a personal authentication method, and a personal authentication program for authenticating an individual.
  • Biometrics-based authentication based on individual differences between living organisms has a lower risk of leakage or theft than passwords. For this reason, there are increasing examples of introducing personal authentication based on individual differences between living bodies for the purpose of identifying individuals and confirming rights, and for the purpose of security protection.
  • Known personal authentication technologies based on individual differences between living organisms are known that use fingerprints, veins, faces, faces, irises, voices, etc. Yes. Among these, personal authentication using voice can be performed using not a special device but an inexpensive device such as a telephone or a microphone that is used for general purposes.
  • Patent Document 1 as an example of personal authentication using voice, voice data to be authenticated is converted into a feature amount, and a similarity with a feature amount of a user registered in advance is measured. Based on the result A method for performing authentication is disclosed.
  • Patent Document 2 discloses a method of performing personal authentication using bone conduction sound received by a bone conduction microphone instead of sound propagating in the air.
  • the problem is that, in the case of a method of acquiring biometric information and performing personal authentication, it is necessary to have the user perform some operation in order to perform authentication. For example, in the case of personal authentication using a fingerprint or a raw vein, the user needs to place a finger on a dedicated scanner. Further, in the case of personal authentication using a face, a face, or an iris, a user operation such as turning the face toward the camera is necessary. In addition, in the case of personal authentication using voice or bone conduction sound, user action such as uttering a password is required. Users who are forced to perform such actions follow psychological and physical burdens.
  • an object of the present invention is to provide a personal authentication device, a personal authentication method, and a personal authentication program that have less psychological and / or physical burden on a user to be authenticated.
  • the personal authentication device is an acoustic signal transmitting means for transmitting a first acoustic signal to a part of a user's head, and an acoustic signal after the first acoustic signal has propagated through a part of the head.
  • Acoustic signal observing means for observing the second acoustic signal
  • acoustic characteristic calculating means for calculating acoustic characteristics from the first acoustic signal and the second acoustic signal, and characteristics relating to the user extracted from the acoustic characteristics or the acoustic characteristics
  • User identification means for identifying the user based on the quantity is provided.
  • the personal authentication method sends a first acoustic signal to a part of the user's head, and the second acoustic signal is an acoustic signal after the first acoustic signal propagates through a part of the head.
  • the acoustic characteristics are calculated from the first acoustic signal and the second acoustic signal, and the user is identified on the basis of the acoustic characteristics or the feature quantity relating to the user extracted from the acoustic characteristics.
  • the personal authentication program according to the present invention is a first acoustic signal sent to a part of the user's head to the computer and an acoustic signal after the first acoustic signal has propagated through the part of the head.
  • a process of calculating an acoustic characteristic from the two acoustic signals and a process of identifying the user based on the acoustic characteristic or a feature amount relating to the user extracted from the acoustic characteristic are executed.
  • FIG. 1 is a block diagram illustrating a configuration example of the personal authentication device according to the first embodiment.
  • the personal authentication apparatus shown in FIG. 1 includes an acoustic signal transmission unit 101, an acoustic signal observation unit 102, an acoustic characteristic calculation unit 103, a feature extraction unit 104, a user identification unit 105, and a feature amount storage unit 106. ing.
  • the acoustic signal sending means 101 sends an acoustic signal to a part of the head of the first user.
  • a part of the head to which the acoustic signal is transmitted is a region where a cavity in the head is formed, and a region in which a decorative article or a device that produces a sound effect can be attached or can be brought close to. It may be at least a part.
  • the acoustic signal observation unit 102 observes the acoustic signal after the acoustic signal transmitted from the acoustic signal transmission unit 101 propagates through a part of the head of the first user. More specifically, the part of the head used as the propagation path of the acoustic signal may be at least a part of the skull, brain, sensory sensation, and the cavity between them, constituting the head.
  • the acoustic characteristic calculation unit 103 is configured to generate an acoustic signal of the acoustic signal propagating through a part of the user's head based on the acoustic signal transmitted from the acoustic signal transmission unit 101 and the acoustic signal observed by the acoustic signal observation unit 102. Calculate the characteristics.
  • the feature extraction unit 104 calculates a feature amount related to the user who has propagated the acoustic signal from the calculated acoustic characteristic.
  • Feature amount storage means 106 stores the extracted feature amount for a predetermined user in advance.
  • a user whose feature value is stored in the feature value storage unit 106 may be referred to as a registered user.
  • the feature amount storage unit 106 extracts feature amounts from a plurality of users in advance by an acoustic signal transmission unit 101, an acoustic signal observation unit 102, an acoustic characteristic calculation unit 103, a feature extraction unit 104, or an equivalent configuration thereof. You may memorize
  • the user identification unit 105 compares the feature amount obtained by the feature extraction unit 104 with the feature amount of the registered user stored in the feature amount storage unit 106 described later, and the first user is the registered user. It is determined whether it corresponds to.
  • FIG. 2 is a configuration diagram showing a specific configuration example of the personal authentication device of the present embodiment.
  • the personal authentication device shown in FIG. 2 includes a personal computer (PC) 11, a sound processor 12, a microphone amplifier 13, an earphone 14, and a microphone 15. And.
  • Reference numeral 16 represents a user (Subject) to be recognized.
  • the earphone 14 corresponds to the acoustic signal sending means 101 described above.
  • the microphone 15 corresponds to the acoustic signal observation unit 102 described above.
  • the microphone 15 and the earphone 14 are preferably integrated so that the relative positional relationship does not change. However, this is not the case when the relative positional relationship between the two does not change significantly.
  • a microphone-integrated earphone that is inserted into the ear canal entrance is described.
  • the acoustic signal transmitting unit 101 and the acoustic signal observing unit 102 may be realized by a headphone that covers the auricle provided with a microphone (an auricle-type microphone-integrated earphone) other than the above example. Further, the acoustic signal sending means 101 and the acoustic signal observation means 102 may be realized by a telephone provided with a microphone in the receiver portion. In such a case, the sound signal transmitted from the earphone located at the left ear canal entrance or the like is observed with a microphone located at the right ear ear canal entrance or the like, or vice versa. May be.
  • the acoustic characteristic calculation means 103, the feature extraction means 104, and the user identification means 105 are each realized by a CPU and a memory (all not shown) provided in the PC 11 and operating according to a program.
  • the feature amount storage unit 106 is realized by a storage medium (not shown) such as a hard disk included in the PC 11.
  • FIG. 3 is a flowchart showing an example of the operation of the personal authentication device of this embodiment.
  • the acoustic signal transmission unit 101 transmits an acoustic signal toward a part of the user's head to be authenticated (step S ⁇ b> 101).
  • the acoustic signal transmission unit 101 may transmit an acoustic signal from the ear canal entrance to the ear canal, for example.
  • an M-sequence signal maximal length-sequence
  • TSP Time-Stretched-Pulse
  • Impulse Response an impulse response
  • FIG. 4A is a graph showing an example of an acoustic signal sent out by the acoustic signal sending means 101.
  • the horizontal axis indicates time t
  • the vertical axis indicates the signal value x (t) of the transmitted acoustic signal at time t.
  • the acoustic signal transmitted by the acoustic signal transmitting unit 101 may be referred to as a transmitted acoustic signal.
  • the acoustic signal observation unit 102 observes the acoustic signal after the transmitted acoustic signal has propagated through a part of the head of the user to be authenticated (step S102).
  • FIG. 4B is a graph showing an example of an acoustic signal observed by the acoustic signal observation means 102.
  • the horizontal axis indicates time t
  • the vertical axis indicates the signal value y (t) of the observed acoustic signal at time t.
  • the acoustic signal observed by the acoustic signal observation unit 102 may be referred to as an observed acoustic signal.
  • the acoustic characteristic calculation means 103 compares the transmitted acoustic signal and the observed acoustic signal, and determines the acoustic characteristic of the acoustic signal when the acoustic signal propagates through a part of the user's head from the change. Calculate (step S103).
  • acoustic characteristics an impulse response (Impulse Response), a transfer function obtained by Fourier transform or Laplace transform of the impulse response, and the like can be considered.
  • the acoustic characteristics preferably include information on how the acoustic signal is reflected and / or attenuated in the living body.
  • the acoustic characteristics may be an ear canal impulse response (Ear Canal Impulse Response) or an ear canal transfer function (Ear Canal Transfer Function) .
  • FIG. 5 is a graph showing an example of an impulse response as an acoustic characteristic calculated by the acoustic characteristic calculation means 103.
  • the horizontal axis indicates time t
  • the vertical axis indicates the value g (t) of the impulse response of the observed acoustic signal at time t.
  • the feature extraction unit 104 calculates a feature amount from the acoustic characteristic calculated by the acoustic characteristic calculation unit 103 (step S104).
  • a feature quantity an impulse response or a transfer function calculated as an acoustic characteristic may be used as it is. That is, the feature extraction unit 104 may use the time response value of the impulse response as the acoustic characteristic and the frequency value of the transfer function as the feature value. Further, the feature extraction unit 104 performs a principal component analysis on an impulse response or transfer function as an acoustic characteristic and performs dimension compression, or a mfcc (mel-frequency) described in Non-Patent Document 1. cepstrum (coefficients)) or the like may be calculated.
  • the user identification unit 105 compares the feature amount obtained by the feature extraction unit 104 with the feature amount of the registered user stored in advance in the feature amount storage unit 106, and the user to be authenticated It is determined whether it corresponds to a registered user (step S105).
  • the user identification unit 105 may use one-to-one authentication or one-to-N authentication as a determination method.
  • N is an integer of 1 or more.
  • the user identification unit 105 determines the feature amount of the user to be authenticated (the feature amount obtained by the feature extraction unit 104) and the feature amount of the registered user as 1 Compare one-on-one. At this time, the administrator of the personal authentication device may give the user identification unit 105 a designation as to which registered user the comparison is performed using a user ID or the like in advance.
  • the user identification unit 105 calculates, for example, the distance between the feature amount of the user who is the authentication target and the feature amount of the designated registered user, and the distance is less than the threshold value. May be determined to be the same person. On the other hand, when the calculated distance is greater than the threshold, the user identification unit 105 may determine that the two are different people.
  • the user identification unit 105 compares the user to be authenticated with N registered users when using 1-to-N authentication.
  • the user identification unit 105 calculates the distance between each feature amount of N registered users with respect to the feature amount of the user to be authenticated, and the registered user with the shortest distance is determined as the authentication target. It is determined that the user is a registered user.
  • the user identification unit 105 can also use a combination of one-to-one authentication and one-to-N authentication. In this case, the user identification unit 105 may perform one-to-one authentication with the extracted registered user as a comparison target after performing the one-to-N authentication and extracting the registered user with the shortest distance. Further, as a scale of the distance to be calculated, Euclid distance (Euclid distance), cosine distance (cosine distance), and the like can be considered, but are not limited thereto.
  • the feature amount storage unit 106 may store a statistical model instead of the feature amount.
  • the statistical model may be, for example, an average value and a variance value obtained by acquiring feature quantities a plurality of times for each user, or a relational expression calculated using them.
  • the statistical model may be a model using GMM (Gaussian Mixture Model), SVM (Support Vector Machine), a neural network, or the like as disclosed in Patent Document 1.
  • the present embodiment performs personal authentication using the feature that the acoustic characteristics of the acoustic signal propagating through a part of the user's head are different for each individual.
  • the acoustic characteristic propagating through a part of the user's head is a feature inside the living body, unlike the feature that can be observed from the outside, such as a face and a fingerprint, so the risk of leakage is low and theft is difficult.
  • two transmission acoustic signals and an observation acoustic signal are necessary. For this reason, compared with the method using one signal, there is less risk of being forged by eavesdropping or the like.
  • an operation performed by a user who is an authentication target for authentication is to wear a headphone or earphone in which a microphone is embedded, or hold a mobile phone or the like in which a microphone is embedded in the earpiece. Only. Therefore, according to this embodiment, a user's psychological and physical burden can be reduced. For example, if the personal authentication method of the present embodiment is used in combination with an information distribution device that uses sound such as music distribution, transceivers, and telephone calls, the physical / Can provide personal authentication without mental burden.
  • FIG. 6 is a block diagram illustrating a configuration example of the personal authentication device according to the second embodiment of this invention.
  • the personal authentication device shown in FIG. 6 is different from the configuration of the first embodiment shown in FIG. 1 in that it further includes a noise / apparatus characteristic removing unit 201.
  • the observed acoustic signal includes not only acoustic characteristics derived from the user's living body, but also various noises such as ambient environmental noise, heart sounds, breathing sounds, voices, sounds emitted from joints, and vibrations. Also, the acoustic signal sending unit 101 and the acoustic signal observation unit 102 themselves include acoustic characteristics, which may occur as device characteristics that are individual differences between devices.
  • the noise / device characteristic removing unit 201 removes such noise and device characteristics from the observed acoustic signal.
  • the acoustic characteristic calculation unit 103 can use the observed acoustic signal from which noise and equipment characteristics have been removed.
  • a method of sending and observing a transmission acoustic signal to two places on the user's head can be considered.
  • the method of observing the acoustic signal at two locations may be, for example, a method in which one acoustic signal observation means 102 performs observation twice and obtains two observation acoustic signals, or two acoustic signal observation means 102 are used.
  • a method of obtaining two observation acoustic signals in one observation may be used.
  • the acoustic signal sending unit 101 and the acoustic signal observation unit 102 may send and observe acoustic signals to the left and right external auditory canals and / or pinna to obtain two observed acoustic signals.
  • the noise / device characteristic removing unit 201 may remove noise and device characteristics using the two observed acoustic signals observed in this manner.
  • the noise / apparatus characteristic removing unit 201 performs, as another method of removing the noise / apparatus characteristic, for example, an operation of observing the acoustic signal transmitted from the acoustic signal transmitting unit 101 by the acoustic signal observation unit 102 a plurality of times. You may take the average of the two or more observation sound signals obtained. By such a method, it is possible to reduce the influence of instantaneous noise.
  • an average of observed acoustic signals observed from a plurality of people is stored in advance, and observed from a user (first user) to be authenticated at the time of authentication.
  • FIGS. 7 and 8 are block diagrams showing another configuration example of the personal authentication device of the present embodiment.
  • the position where the noise / apparatus characteristic removing unit is arranged is not limited to the subsequent stage of the acoustic signal observation unit 102.
  • the noise / apparatus characteristic removing unit may be provided in the subsequent stage of the acoustic characteristic calculating unit 103.
  • the noise / apparatus characteristic removing unit may be provided after the feature extracting unit 104.
  • FIG. 7 shows a noise / equipment characteristic removing unit 202 as an example of the noise / equipment characteristic removing unit provided in the subsequent stage of the acoustic characteristic calculating unit 103.
  • FIG. 8 shows a noise / equipment characteristic removing unit 203 as an example of the noise / apparatus characteristic removing unit provided in the subsequent stage of the feature extracting unit 104.
  • the noise / apparatus characteristic removing unit 202 removes noise and apparatus characteristics from the acoustic characteristic calculated by the acoustic characteristic calculating unit 103.
  • the noise / device characteristic removing unit 203 removes noise and device characteristics from the feature amount calculated by the feature extracting unit 104.
  • a method of removing noise and device characteristics from acoustic characteristics there is a method of subtracting commonly obtained acoustic characteristics from observed acoustic signals observed at two locations on the user's head. Another example is a method of averaging the acoustic characteristics obtained from the observed acoustic signal obtained by performing the observation a plurality of times. As yet another method, there is a method of subtracting the acoustic characteristic obtained from the average of the observed acoustic signals observed from a plurality of persons from the acoustic characteristic obtained from the observed acoustic signal obtained from the user who is the subject of authentication. Can be mentioned.
  • a method of removing noise and device characteristics from the feature value a method similar to the method of removing noise and device property from the sound property, that is, a method of subtracting and averaging (however, “acoustic property” is referred to as “feature value”).
  • feature value a standard deviation of acoustic characteristics is measured and division is performed.
  • the noise / apparatus characteristic removing means 201, the noise / apparatus characteristic removing means 202, and the noise / apparatus characteristic removing means 203 determine the head from the observed acoustic signal (or the acoustic characteristic or feature amount obtained from the observed acoustic signal).
  • the device characteristics may be removed by subtracting an acoustic signal (or an acoustic characteristic or feature amount obtained from the acoustic signal) obtained by propagating only with the earphone and the microphone without using the audio signal.
  • various noises such as ambient environmental noise, heart sounds, breathing sounds, utterances, and sounds generated from joints are observed based on the observed acoustic signals, their acoustic characteristics, and their feature quantities.
  • device characteristics that are individual differences between devices can be eliminated. Therefore, it is possible to realize personal authentication with higher accuracy than in the first embodiment.
  • FIG. 9 is a block diagram illustrating a configuration example of the personal authentication device according to the third exemplary embodiment of the present invention.
  • the personal authentication apparatus shown in FIG. 9 includes an acoustic signal transmission unit 101 and an acoustic signal observation unit 102 configured as in the first embodiment shown in FIG. 1, a bone conduction signal transmission unit 301, a bone conduction signal observation unit 302, and the like. It has a configuration that has been replaced.
  • bone conduction Propagating sound using bone as a medium.
  • personality also exists in the propagation characteristics of bone conduction. For this reason, the observed acoustic signal obtained by bone conduction can be used for personal authentication.
  • the bone conduction signal sending means 301 sends out a bone conduction signal which is an acoustic signal for bone conduction as a sending sound signal from a part of the head.
  • a part of the head to which the bone conduction signal is transmitted is, for example, a region where bone is formed in the head, and at least a region where a decorative article or a device that expresses an acoustic effect can be attached or approached It may be a part.
  • the bone conduction signal observation unit 302 observes the bone conduction signal after the bone conduction signal transmitted from the bone conduction signal transmission unit 301 propagates through a part of the user's head as an observation acoustic signal.
  • the part of the head used as the propagation path of the bone conduction signal may be at least part of the skull, teeth, brain, sensory organs, and the cavity between them. It is assumed that the propagation path includes at least bone.
  • the bone conduction signal observation means 302 may be realized by, for example, a bone conduction microphone. At this time, the bone conduction signal observation means 302 may observe the bone conduction signal from a part different from an arbitrary part of the head sent by the bone conduction signal sending means 301. Other points are the same as those in the first embodiment.
  • personal authentication can be performed using the transmission characteristic of an acoustic signal by bone conduction, so that personal authentication can be performed without blocking a hearing organ such as a user's ear. it can.
  • FIG. 10 is a block diagram illustrating a configuration example of the personal authentication device according to the fourth embodiment of the present invention.
  • the personal authentication device shown in FIG. 10 has a configuration further including a noise signal estimation means 401 and a transmission acoustic signal selection means 402 in addition to the configuration of the first embodiment shown in FIG.
  • the noise signal estimation means 401 estimates a noise signal from the observed acoustic signal. For example, the noise signal estimation unit 401 estimates a noise signal from an observed acoustic signal observed in a part of the user's head or in the vicinity thereof in a state where no authentication acoustic signal is transmitted.
  • the transmission acoustic signal selection means 402 selects an acoustic signal having a frequency band different from the estimated frequency band of the noise signal as the transmission acoustic signal.
  • FIG. 11 is a flowchart showing an example of the operation of the personal authentication device of this embodiment. Note that the same operations as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the personal authentication device observes the acoustic signal using the acoustic signal observation means 102 before sending the acoustic signal toward a part of the user's head (step S201).
  • the noise signal estimation means 401 estimates a noise signal using the observed acoustic signal (step S202).
  • the transmission acoustic signal selection unit 402 selects a transmission acoustic signal based on the estimated noise signal (step S203). Subsequent operations may be the same as those in the first embodiment.
  • Embodiment 5 a fifth embodiment of the present invention will be described.
  • the configuration of this embodiment may be the same as that of the first embodiment.
  • the acoustic signal sending means 101 of this embodiment changes the sending acoustic signal regularly or irregularly.
  • an irregular example when authentication is performed randomly, there is a method of changing the transmitted acoustic signal every time the authentication is performed. For example, when changing the frequency
  • the user authenticates every time a service request is made there is a method of changing the transmitted sound signal every time the user performs the authentication.
  • a method of changing the transmitted sound signal every time the authentication is performed can be mentioned.
  • the acoustic signal observing unit 102 observes the same acoustic signal unless the user and the position thereof are changed. Then, a malicious person may eavesdrop on the observed acoustic signal by some means and succeed in spoofing. In order to prevent such an action, it is preferable to change the transmitted sound signal when the state where the user and its position do not change continues.
  • the personal authentication apparatus by separating the signal path until the acoustic signal transmitting unit 101 transmits the transmitted acoustic signal and the signal path until the acoustic signal observing unit 102 receives the transmitted acoustic signal.
  • the acoustic signal transmitting unit 101 transmits the transmitted acoustic signal
  • the signal path until the acoustic signal observing unit 102 receives the transmitted acoustic signal it is possible to avoid the risk of wiretapping two acoustic signals (transmission acoustic signal and observation acoustic signal) at the same time.
  • Embodiment 6 FIG. Next, a sixth embodiment of the present invention will be described.
  • the configuration of this embodiment may be the same as that of the first embodiment.
  • the sound signal sending means 101 of the present embodiment uses a musical sound as a sending sound signal. This further reduces the psychological and physical burden on the user.
  • the acoustic signal transmitting means 101 is provided with another acoustic signal (white noise or the like) for the music for the purpose of improving the amplitude of the low-amplitude component in the musical tone or for the purpose of supplementing the low-power component among the frequency components in the musical tone. ) May be transmitted as a transmission acoustic signal.
  • the acoustic signal transmitting unit 101 may transmit the acoustic signal used in the service as a transmission acoustic signal.
  • FIG. 12 is an explanatory diagram showing an example of a transmission sound signal in which another sound signal is superimposed on the sound signal of a music piece for the purpose of improving the amplitude of a low-amplitude component in a musical sound.
  • the audio signal of the original music is represented by time on the horizontal axis and signal value on the vertical axis.
  • FIG. 12B shows a transmission acoustic signal obtained by adding white noise to the original music, with time on the horizontal axis and signal values on the vertical axis.
  • FIG. 12 shows that by adding white noise or the like to the original music, the amplitude of the low amplitude component is improved.
  • the absolute value of the signal value corresponds to the amplitude.
  • FIG. 13 is an explanatory diagram showing an example of a transmission sound signal in which another sound signal is superimposed on the sound signal of a music piece for the purpose of compensating for a low-power component among the frequency components in the musical sound.
  • FIG. 13 (a) shows the spectrum power of the original music
  • FIG. 13 (b) shows the spectrum power of the transmitted acoustic signal obtained by adding white noise to the original music.
  • 13A and 13B both show values obtained by performing Fourier transform, with the horizontal axis representing frequency and the vertical axis representing spectrum power on a logarithmic axis. As shown in FIG. 13, it can be seen that a portion with low power is compensated by adding white noise or the like to the original music.
  • the above-described embodiments can be combined with each other.
  • the example in which the personal authentication device operates alone has been described.
  • the personal authentication device may be combined with another device.
  • the system may include service providing means (not shown) that provides different services for each individual based on the specific result output from the personal authentication device.
  • the system includes means for determining whether or not the user has the right to the content based on the specific result output from the personal authentication device, and the result of the determination.
  • a means for providing a service such as providing contents only when a regular right is held may be provided.
  • a voice communication control system that performs voice communication only to a specific individual based on the result of specifying the individual using any one of the above personal authentication devices.
  • the system performs control for voice communication such as permitting voice communication only for a specified individual based on a specific result output from the personal authentication device.
  • Means may be provided.
  • Voice communication may be wiretapped without encryption or the like. Further, even if encryption is performed, there is a possibility that the encryption may be eavesdropped due to leakage or theft. For example, voice communication with low possibility of leakage or theft can be realized by encrypting voice using the acoustic characteristics of each person extracted by the personal authentication device.
  • voice communication by a secret key / public key cryptosystem may be realized using the acoustic characteristics of each individual extracted by the above personal authentication device as a secret key.
  • the communication provided by the system is not limited to voice communication, and may be data communication, for example.
  • FIG. 13 is a block diagram showing an outline of a personal authentication device according to the present invention.
  • the personal authentication apparatus shown in FIG. 13 includes an acoustic signal transmission unit 701, an acoustic signal observation unit 702, an acoustic characteristic calculation unit 703, and a user identification unit 704.
  • the acoustic signal sending means 701 sends a first acoustic signal to a part of the user's head.
  • the acoustic signal sending unit 701 expresses a decoration or a sound effect that is worn in or near a region where a cavity or bone is formed in the user's head in order to send the first acoustic signal. It may be realized in the form of a device.
  • the acoustic signal observation means 702 observes a second acoustic signal that is an acoustic signal after the first acoustic signal propagates through a part of the head.
  • the part of the head used as the propagation path of the acoustic signal only needs to include at least a part of the skull, brain, sensory organ, and cavity between them.
  • the acoustic characteristic calculation means 703 calculates an acoustic characteristic from the first acoustic signal and the second acoustic signal.
  • the user identification unit 704 identifies the user based on the calculated acoustic characteristic or the feature amount related to the user extracted from the acoustic characteristic.
  • the personal authentication device may further include a feature extraction unit that extracts a feature quantity related to the user from the acoustic characteristics.
  • the user identification unit may identify the user based on the feature amount related to the user extracted by the feature extraction unit.
  • the 2nd sound which is an acoustic signal sending means which sends out the 1st acoustic signal to a part of a user's head, and an acoustic signal after the 1st acoustic signal propagates a part of the head
  • a personal identification device comprising user identification means for identifying the user.
  • a storage means for storing acoustic characteristics at the time of propagation of a predetermined acoustic signal of the head or a feature amount extracted from the acoustic characteristics for one person or a plurality of persons is provided, The acoustic characteristic calculated from the second acoustic signal is compared with the acoustic characteristic stored in the storage means, or the feature amount extracted from the acoustic characteristic calculated from the second acoustic signal and stored in the storage means.
  • the personal authentication device according to supplementary note 1, wherein the user is identified by comparing the obtained feature amount.
  • Appendix 3 The personal authentication device according to appendix 1 or appendix 2, wherein a part of the head serving as a propagation path of the first acoustic signal includes at least one ear canal and / or pinna.
  • the acoustic signal sending means is realized by an earphone, headphone or telephone receiver, and the acoustic signal observation means is realized by a microphone mounted on the earphone, headphone or telephone receiver.
  • the personal authentication device according to any one of 1 to Appendix 3.
  • the personal authentication device Based on the acoustic signal observed at two locations on the user's head, the acoustic signal observed multiple times from the same user, or the acoustic signal observed from multiple people, the surroundings from the second acoustic signal
  • the personal authentication device according to any one of supplementary notes 1 to 4, further comprising a removing unit that removes the noise and / or device characteristics.
  • the removing means transmits the acoustic signals to the left and right external auditory canals and / or pinna, and uses the observed acoustic signals to detect ambient noise and / or device characteristics from at least one of the observed acoustic signals. May be removed.
  • the acoustic signal sending means sends an acoustic signal for bone conduction as the first acoustic signal
  • the acoustic signal observing means sends the first acoustic signal to the head as the second acoustic signal.
  • the personal authentication device according to any one of Supplementary Note 1 to Supplementary Note 5, wherein the second acoustic signal after being propagated through the bone conduction is observed.
  • the acoustic signal observation means may be realized by a bone conduction microphone. Further, the acoustic signal observation means may observe the second acoustic signal from a part different from the part of the head from which the acoustic signal sending means sent the first acoustic signal.
  • the personal authentication device according to any one of supplementary notes 1 to 6, wherein the acoustic signal is transmitted as a first acoustic signal after the next time.
  • An acoustic signal transmission means is an acoustic signal which superimposes another acoustic signal on the acoustic signal of a music for the purpose of improving the amplitude of the low-amplitude component of a musical sound, or a component with low power among the frequency components in a musical sound.
  • the personal authentication device according to appendix 9, wherein an acoustic signal obtained by superimposing another acoustic signal on the acoustic signal of the music is transmitted as a first acoustic signal for the purpose of compensation.
  • a personal authentication method characterized in that an acoustic characteristic is calculated from a first acoustic signal and a second acoustic signal, and a user is identified based on the acoustic characteristic or a feature amount relating to the user extracted from the acoustic characteristic.
  • storage means which memorize
  • the 2nd acoustic signal which is an acoustic signal after the 1st acoustic signal transmitted to a part of a user's head to a computer and the 1st acoustic signal propagated a part of a head
  • a personal authentication program for executing a process for calculating an acoustic characteristic and a process for identifying the user based on the acoustic characteristic or a feature amount related to the user extracted from the acoustic characteristic.
  • the acoustic characteristics at the time of propagation of a predetermined part of the acoustic signal of the head or the feature amount extracted from the acoustic characteristics is stored in advance in the computer for the process of identifying the user
  • a personalization system comprising service providing means for providing different services for each individual based on a user identification result by any one of the personal authentication devices of Supplementary notes 1 to 10.
  • Determination means for determining whether or not the user has a regular right for the content to be managed based on the identification result of the user by any one of the personal authentication devices of Supplementary Note 1 to Supplementary Note 10. Provided content rights management system.
  • a communication control system including a control means for controlling voice communication or data communication based on a user identification result by any one of the personal authentication devices of Supplementary note 1 to Supplementary note 10.
  • the present invention can be suitably applied to, for example, a personal authentication device, a personal authentication method, and a personal authentication program for authenticating an individual using an audio device.
  • the present invention can also be applied to such a personal authentication device, a personal authentication method, a personalization system using a personal authentication program, a content right management system, a communication control system, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Otolaryngology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

個人認証装置は、ユーザの頭部の一部に第1の音響信号を送出する音響信号送出手段701と、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号を観測する音響信号観測手段702と、第1の音響信号および第2の音響信号から音響特性を算出する音響特性算出手段703と、音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別するユーザ識別手段704とを備える。

Description

個人認証装置、個人認証方法および個人認証プログラム
 本発明は、個人を認証する個人認証装置、個人認証方法、個人認証プログラムに関する。
 生体の個人差に基づいた個人認証(Biometrics-based authentication)は、パスワード等に比べ漏えいや盗難の危険性が低い。この為、個人を特定し権利を確認する目的や、セキュリティ保護の目的で生体の個人差に基づいた個人認証を導入する例が増えている。従来の生体の個人差に基づいた個人認証技術には、生体として、指紋(Fingerprint)、静脈(Vein)、顔(Face)、虹彩(Iris)、音声(Voice)などを用いるものが知られている。この中でも音声を使った個人認証は、特殊なデバイスではなく、電話機やマイクロホンといった汎用的に使用されている安価なデバイスを用いて行う事が可能である。
 特許文献1には、音声を用いた個人認証の例として、認証対象の音声データを特徴量に変換し、予め登録されているユーザの特徴量との類似度を計測し、その結果に基づいて認証を行う方法が開示されている。
 特許文献2には、空気中を伝搬する音声の代わりに、骨伝導マイクロホンで受信した骨伝導音を用いて個人認証を行う方法が開示されている。
特開2010-286702号公報 特開2003-58190号公報
安藤彰夫、「リアルタイム音声認識システム」、社団法人電子情報通信学会、2003年、p.28-30
 課題は、生体情報を取得して個人認証を行う方法の場合、認証を行うために利用者に何らかの動作をしてもらう必要があるという点である。例えば、指紋や生脈を用いた個人認証の場合、専用のスキャナに指を載せるといった利用者の動作が必要である。また、顔や顔や虹彩を用いた個人認証の場合、カメラに顔を向ける等の利用者の動作が必要である。また、音声や骨伝導音を用いた個人認証の場合、パスワードを発声する等の利用者の動作が必要である。そのような動作を強いられる利用者は、心理的、肉体的負担を追う。
 そこで、本発明は、上述した課題に鑑み、認証対象のユーザの心理的および/または肉体的な負担が少ない個人認証装置、個人認証方法および個人認証プログラムを提供することを目的とする。
 本発明による個人認証装置は、ユーザの頭部の一部に第1の音響信号を送出する音響信号送出手段と、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号を観測する音響信号観測手段と、第1の音響信号および第2の音響信号から音響特性を算出する音響特性算出手段と、音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別するユーザ識別手段とを備えたことを特徴とする。
 本発明による個人認証方法は、ユーザの頭部の一部に第1の音響信号を送出し、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号を観測し、第1の音響信号および第2の音響信号から音響特性を算出し、音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別することを特徴とする。
 本発明による個人認証プログラムは、コンピュータに、ユーザの頭部の一部に送出された第1の音響信号と、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号とから、音響特性を算出する処理、および音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別する処理を実行させることを特徴とする。
 本発明によれば、認証対象のユーザの心理的および/または肉体的な負担が少ない個人認証を提供することができる。
第1の実施形態の個人認証装置の構成例を示すブロック図である。 第1の実施形態の個人認証装置の具体的な構成例を示す構成図である。 第1の実施形態の個人認証装置の動作の一例を示すフローチャートである。 送出音響信号および観測音響信号の例を示すグラフである。 音響特性としてのインパルス応答の例を示すグラフである。 第2の実施形態の個人認証装置の構成例を示すブロック図である。 第2の実施形態の個人認証装置の他の構成例を示すブロック図である。 第2の実施形態の個人認証装置の他の構成例を示すブロック図である。 第3の実施形態の個人認証装置の構成例を示すブロック図である。 第4の実施形態の個人認証装置の構成例を示すブロック図である。 第4の実施形態の個人認証装置の動作の一例を示すフローチャートである。 楽音中に別の音響信号を重畳する例を示す説明図である。 楽音中に別の音響信号を重畳する例を示す説明図である。 本発明の概要を示すブロック図である。
実施形態1.
 以下、本発明の実施形態について図面を参照して説明する。図1は、第1の実施形態の個人認証装置の構成例を示すブロック図である。図1に示す個人認証装置は、音響信号送出手段101と、音響信号観測手段102と、音響特性算出手段103と、特徴抽出手段104と、ユーザ識別手段105と、特徴量記憶手段106とを備えている。
 音響信号送出手段101は、第1のユーザの頭部の一部に音響信号を送出する。ここで、音響信号が送出される頭部の一部は、頭部中の空洞が形成されている領域であって、装飾品や音響効果を発現させる機器を装着できるまたは近づけることのできる領域の少なくとも一部であってもよい。
 音響信号観測手段102は、音響信号送出手段101から送出された音響信号が第1のユーザの頭部の一部を伝搬した後の音響信号を観測する。また、音響信号の伝搬路とされる頭部の一部は、より具体的には、頭部を構成する頭蓋骨、脳、感覚器およびその間の空洞の少なくとも一部であってもよい。
 音響特性算出手段103は、音響信号送出手段101から送出された音響信号と、音響信号観測手段102で観測された音響信号とに基づいて、ユーザの頭部の一部を伝搬する音響信号の音響特性を算出する。
 特徴抽出手段104は、算出された音響特性から、音響信号を伝搬したユーザに関する特徴量を算出する。
 特徴量記憶手段106は、予め、所定のユーザについて、抽出された特徴量を記憶する。以下、特徴量記憶手段106に特徴量が記憶されているユーザを、登録済みユーザという場合がある。特徴量記憶手段106は、例えば、予め複数のユーザに対して、音響信号送出手段101、音響信号観測手段102、音響特性算出手段103および特徴抽出手段104またはそれらと同等の構成による特徴量の抽出処理を適用して抽出された特徴量を記憶してもよい。
 ユーザ識別手段105は、特徴抽出手段104により得られた特徴量と、後述する特徴量記憶手段106に格納されている、登録済みユーザの特徴量とを比較し、第1のユーザが登録済みユーザに該当するか否かを判定する。
 図2は、本実施形態の個人認証装置の具体的な構成例を示す構成図である。図2に示す個人認証装置は、パーソナルコンピュータ(Personal Computer;PC)11と、サウンドプロセッサ(Sound Processor)12と、マイクロホンアンプ(Microphone Amplifier)13と、イヤホン(Earphone)14と、マイクロホン(Microphone)15とを備えている。なお、符号16は、認識対象とされるユーザ(Subject)を表す。
 イヤホン14が上述した音響信号送出手段101に相当する。また、マイクロホン15が上述した音響信号観測手段102に相当する。なお、図2で示すように、マイクロホン15とイヤホン14は、相対的な位置関係が変化しないよう一体型であることが望ましい。ただし、両者の相対的な位置関係が大きく変わらない場合にはその限りではない。また、図2に示す例では、音響信号送出手段101および音響信号観測手段102の例として、外耳道入口の中に挿入する、マイクロホン一体型のイヤホンを挙げている。音響信号送出手段101および音響信号観測手段102は、上記の例以外に、耳介を覆うタイプのヘッドホンにマイクロホンを設けたもの(耳介タイプのマイクロホン一体型イヤホン)によって実現されてもよい。また、音響信号送出手段101および音響信号観測手段102は、受話器部分にマイクロホンを設けた電話機によって実現されてもよい。なお、そのような場合に、左の外耳道入口等に位置するイヤホンから送出した音響信号を、右耳の外耳道入口等に位置するマイクロホンで観測する、またはこの反対を行うなど、左右で機能を分けてもよい。
 音響特性算出手段103、特徴抽出手段104およびユーザ識別手段105は、それぞれPC11が備える、プログラムに従って動作するCPU及びメモリ(いずれも図示省略)により実現される。また、特徴量記憶手段106は、PC11が備えるハードディスク等の記憶媒体(図示省略)により実現される。
 次に、本実施形態の動作について説明する。
 図3は、本実施形態の個人認証装置の動作の一例を示すフローチャートである。図3に示す例では、まず、音響信号送出手段101が、認証対象となるユーザの頭部の一部に向けて音響信号を送出する(ステップS101)。音響信号送出手段101は、例えば外耳道入口から外耳道に向けて音響信号を送出してもよい。このとき、音響信号には、インパルス応答(Impulse Response)を計測する目的で広く用いられているM系列信号(maximal length sequence)や、TSP(Time Stretched Pulse)信号等を使ってもよい。
 図4(a)は、音響信号送出手段101が送出する音響信号の例を示すグラフである。図4(a)のグラフにおいて、横軸は時刻tを示し、縦軸は時刻tにおける送出された音響信号の信号値x(t)を示す。以下、音響信号送出手段101が送出した音響信号を、送出音響信号という場合がある。
 次いで、音響信号観測手段102は、送出音響信号が、認証対象のユーザの頭部の一部を伝搬した後の音響信号を観測する(ステップS102)。
 図4(b)は、音響信号観測手段102で観測された音響信号の例を示すグラフである。図4(a)のグラフにおいて、横軸は時刻tを示し、縦軸は時刻tにおける観測された音響信号の信号値y(t)を示す。以下、音響信号観測手段102で観測された音響信号を、観測音響信号という場合がある。
 次に、音響特性算出手段103は、送出音響信号と観測音響信号とを比較して、それらの変化から、音響信号がユーザの頭部の一部を伝搬した際の該音響信号の音響特性を算出する(ステップS103)。音響特性としては、インパルス応答(Impulse Response)およびインパルス応答をフーリエ変換またはラプラス変換することによって得られる伝達関数(Transfer Function)等が考えられる。音響特性には、音響信号が生体内でどのように反射および/または減衰するかの情報が含まれることが好ましい。外耳道口にイヤホン及びマイクロホンを設置し、外耳道中を反射する音響特性を測定する場合、音響特性は、外耳道インパルス応答(Ear Canal Impulse Response)や外耳道伝達関数(Ear Canal Transfer Function)であってもよい。
 図5は、音響特性算出手段103により算出された音響特性としてのインパルス応答の例を示すグラフである。図5に示すグラフにおいて、横軸が時刻tを示し、縦軸が時刻tにおける観測された音響信号のインパルス応答の値g(t)を示す。
 なお、送出音響信号の信号値x(t)と、観測音響信号の信号値y(y)と、インパルス応答の値g(t)との間には以下の式(1)に示す関係性がある。
Figure JPOXMLDOC01-appb-M000001
 また、x(t),y(t),g(t)をそれぞれフーリエ変換することによって得られた値X(f),Y(f),G(f)間では、以下の式(2)に示す関係性がある。ここで、fは周波数帯域である。また、G(f)は伝達関数である。
Y(f)=G(f)X(f) ・・・(2)
 次いで、特徴抽出手段104は、音響特性算出手段103により算出された音響特性から特徴量を算出する(ステップS104)。特徴量には、音響特性として算出されたインパルス応答や伝達関数がそのまま用いられてもよい。すなわち、特徴抽出手段104は、音響特性としてのインパルス応答の各時刻の値や伝達関数の各周波数の値を特徴量としてもよい。また、特徴抽出手段104は、音響特性としてのインパルス応答や伝達関数に対し、主成分分析を行い次元圧縮することで得られる特徴量や、非特許文献1に記載されているmfcc(mel-frequency cepstrum coefficients)等を算出してもよい。
 次いで、ユーザ識別手段105は、特徴抽出手段104により得られた特徴量と、特徴量記憶手段106に予め格納されている登録済みユーザの特徴量とを比較して、認証対象とされたユーザが登録済みユーザに該当するか否かを判定する(ステップS105)。ユーザ識別手段105は、判定方法として、1対1認証を用いてもよいし、1対N認証を用いてもよい。ここで、Nは1以上の整数である。
 ユーザ識別手段105は、1対1認証を用いる場合には、認証対象とされたユーザの特徴量(特徴抽出手段104により得られた特徴量)と、登録済みユーザとの特徴量とを、1対1で比較する。このとき、個人認証装置の管理者は、予めユーザIDなどを用いて、どの登録済みユーザとの比較を行うかの指定を、ユーザ識別手段105に与えてもよい。ユーザ識別手段105は、1対1認証を用いる場合に、例えば、認証対象とされたユーザの特徴量と、指定された登録済みユーザの特徴量との間の距離を計算し、距離が閾値よりも小さい場合に、両者が同一人であると判定してもよい。一方、ユーザ識別手段105は、計算された距離が閾値よりも大きい場合に、両者が異なる人間であると判定してもよい。
 ユーザ識別手段105は、1対N認証を用いる場合には、認証対象となるユーザと、登録済みユーザN人とを比較する。ユーザ識別手段105は、認証対象となるユーザの特徴量に対して、N人の登録済みユーザの各々の特徴量との間の距離を計算し、最も距離の近い登録済みユーザが、認証対象とされたユーザであると判定する。また、ユーザ識別手段105は、1対1認証と1対N認証とを組み合わせて用いることも可能である。その場合、ユーザ識別手段105は、1対N認証を行って最も距離の小さい登録済みユーザを抽出した後で、抽出された登録済みユーザを比較対象にして1対1認証を行ってもよい。また、算出する距離の尺度は、ユークリッド距離(Euclid distance)、コサイン距離(cosine distance)等が考えられるが、これらに限定されない。
 また、上記では、特徴量記憶手段106が、予め複数人から得られた特徴量を記憶する例を説明したが、特徴量記憶手段106は、特徴量の代わりに統計モデルを保存してもよい。統計モデルは、例えば、ユーザ毎に複数回特徴量を取得して、その平均値と分散値またはそれらを用いて算出された関係式であってもよい。また、統計モデルは、特許文献1に示されているような、GMM(Gaussian Mixture Model)や、SVM(Support Vector Machine)、ニューラルネットワークを使ったモデル等であってもよい。
 以上のように、本実施の形態は、ユーザの頭部の一部を伝搬する音響信号の音響特性が個人毎に異なるという特徴を用いて、個人認証を行う。ユーザの頭部の一部を伝搬する音響特性は、顔や指紋等の外部から観測可能な特徴とは異なり生体内部の特徴であるので、漏洩する危険性が低く、盗難が困難である。また、音響特性を知るためには、送出音響信号と、観測音響信号の2つが必要である。このため、1つの信号を用いる方法と比べて、盗聴などにより取得されて偽造される危険が少ない。また、本実施形態において認証のために認証対象とされたユーザが行う動作は、マイクロホンが埋め込まれたヘッドホンやイヤホンを装着する、もしくは、受話部分にマイクロホンが埋め込まれた携帯電話等を耳にかざすだけである。したがって、本実施形態によれば、ユーザの心理的、肉体的な負担が少なくてすむ。例えば、本実施形態の個人認証方法を、音楽配信や、トランシーバ、通話といった音声を用いた情報配信用デバイスと組み合わせて用いれば、ユーザに対し、本来の使用時から追加となるような肉体的・精神的負担のない個人認証を提供できる。
 また、本実施形態では、音響特性の取得を1秒程度の比較的短い時間で行うことが可能である。このため、サービス提供の前後および最中に、個人認証を継続的に行うことができる。本実施形態の個人認証方法を利用して個人認証を継続的に行うことにより、認証を最初の一度または何らかのサービスを受ける直前のみ行う場合と比べて、認証後に他人に成り替わる等の不正があった場合でもそれを検知できる。
実施形態2.
 次に、本発明の第2の実施形態について説明する。図6は、本発明の第2の実施形態の個人認証装置の構成例を示すブロック図である。図6に示す個人認証装置は、図1に示した第1の実施形態の構成に比べて、雑音・機器特性除去手段201をさらに備える点が異なる。
 観測音響信号には、ユーザの生体由来である音響特性だけではなく、周囲の環境雑音、心音や呼吸音、発声、関節などから発せられる音や振動など様々な雑音が含まれている。また、音響信号送出手段101や音響信号観測手段102自体にも音響的な特性が含まれており、それが機器の個体差である機器特性として生じる場合がある。
 本実施形態では、雑音・機器特性除去手段201が、観測音響信号から、そのような雑音および機器特性を除去する。このような構成を用いることにより、音響特性算出手段103は、雑音および機器特性の除去された観測音響信号を用いることができる。
 雑音・機器特性除去の具体的な方法としては、送出音響信号を、ユーザの頭部の2か所に送出して観測する方法が考えられる。ユーザの頭部の2か所から観測された2つの観測音響信号を減算処理することにより、頭部の2か所の位置の違いに依存する生体由来の音響特性のみを残し、位置の違いに依存しない雑音および機器特性を除去することが出来る。音響信号を2か所で観測する方法は、例えば、1つの音響信号観測手段102が2回観測を行って2つの観測音響信号を得る方法でもよいし、2つの音響信号観測手段102を用いて1回の観測で2つの観測音響信号を得る方法でもよい。例えば、音響信号送出手段101および音響信号観測手段102が、左右の外耳道およびまたは耳介に対して各々音響信号を送出して観測して2つの観測音響信号を得てもよい。雑音・機器特性除去手段201は、そのようにして観測された2つの観測音響信号を用いて、雑音や機器特性を除去してもよい。
 また、雑音・機器特性除去手段201は、雑音・機器特性除去の他の方法として、例えば、音響信号送出手段101から送出された音響信号を音響信号観測手段102で観測する操作を複数回行って得られた2以上の観測音響信号の平均を取ってもよい。このような方法により、瞬間的に発生する雑音の影響を低減することができる。
 雑音・機器特性除去のさらに別の方法としては、予め複数人から観測された観測音響信号の平均を保存しておき、認証時に、認証対象とされたユーザ(第1のユーザ)から観測された観測音響信号から、保存しておいた平均を減算する方法が挙げられる。複数人から観測された観測音響信号の平均には、特定の個人に依存しない共通の特性が含まれると考えられる。このため、第1のユーザの観測音響信号からこのような共通の特性を減算することで雑音や機器特性を取り除くことが可能である。
 図7および図8は、本実施形態の個人認証装置の他の構成例を示すブロック図である。図7および図8に示すように、雑音・機器特性除去手段が配備される位置は、音響信号観測手段102の後段に限定されない。例えば、図7に示すように、雑音・機器特性除去手段は、音響特性算出手段103の後段に備えられていてもよい。また、例えば、図8に示すように、雑音・機器特性除去手段は、特徴抽出手段104の後段に備えられていてもよい。図7には、音響特性算出手段103の後段に備えられる雑音・機器特性除去手段の例として、雑音・機器特性除去手段202が示されている。また、図8には、特徴抽出手段104の後段に備えられる雑音・機器特性除去手段の例として、雑音・機器特性除去手段203が示されている。
 上記の例において、雑音・機器特性除去手段202は、音響特性算出手段103で算出された音響特性から雑音および機器特性を除去する。また、雑音・機器特性除去手段203は、特徴抽出手段104で算出された特徴量から雑音および機器特性を除去する。
 音響特性から雑音および機器特性を除去する方法としては、ユーザの頭部の2か所で観測された観測音響信号から共通に得られる音響特性を減算する方法が挙げられる。また、他の例としては、複数回観測を行って得られた観測音響信号から得られる音響特性の平均をとる方法が挙げられる。さらに他の方法としては、認証対象とされたユーザから得られた観測音響信号から得られた音響特性から、複数人から観測された観測音響信号の平均から得られた音響特性を減算する方法が挙げられる。
 また、特徴量から雑音および機器特性を除去する方法としては、音響特性から雑音および機器特性を除去する方法と同様の方法、すなわち減算や平均をとる方法(ただし、「音響特性」を「特徴量」と置き換える)に加えて、音響特性の標準偏差を測定し、除算を行う方法が挙げられる。
 また、雑音・機器特性除去手段201、雑音・機器特性除去手段202および雑音・機器特性除去手段203は、観測音響信号(または該観測音響信号から得られる音響特性もしくは特徴量)から、頭部を介さずにイヤホンとマイクロホンのみで伝搬させて得られた音響信号(または該音響信号から得られる音響特性もしくは特徴量)を減算することで、機器特性を除去してもよい。
 なお、他の点に関しては第1の実施形態と同様である。
 以上のように、本実施形態によれば、観測音響信号やその音響特性やその特徴量から、周囲の環境雑音や心音、呼吸音、発声、関節などから発せられる音や振動などの様々な雑音および機器の個体差である機器特性を除去することができる。したがって、第1の実施形態に比べてより精度の高い個人認証を実現できる。
実施形態3.
 次に、本発明の第3の実施形態について説明する。図9は、本発明の第3の実施形態の個人認証装置の構成例を示すブロック図である。図9に示す個人認証装置は、図1に示した第1の実施形態の構成の音響信号送出手段101と音響信号観測手段102とが、骨伝導信号送出手段301と骨伝導信号観測手段302とに置き換わった構成となっている。
 一般に、音は、空気を主な媒体にして伝搬するが、骨格を媒体にして伝搬することも可能である。骨を媒体にして音を伝搬させることを骨伝導と呼ぶ。骨伝導の伝搬特性にも個人性が存在する。このため、骨伝導によって得られた観測音響信号を個人の認証に用いることができる。
 骨伝導信号送出手段301は、頭部の一部から、送出音響信号として、骨伝導用の音響信号である骨伝導信号を送出する。骨伝導信号が送出される頭部の一部は、例えば、頭部において骨が形成されている領域であって、装飾品や音響効果を発現させる機器を装着できるまたは近づけることのできる領域の少なくとも一部であってもよい。
 骨伝導信号観測手段302は、観測音響信号として、骨伝導信号送出手段301から送出された骨伝導信号がユーザの頭部の一部を伝搬した後の骨伝導信号を観測する。骨伝導信号の伝搬路とされる頭部の一部は、頭部を構成する頭蓋骨や歯、脳、感覚器およびその間の空洞の少なくとも一部であってもよい。なお、伝搬路には、少なくとも骨が含まれているものとする。
 骨伝導信号観測手段302は、例えば、骨伝導マイクロホンにより実現されてもよい。このとき、骨伝導信号観測手段302は、骨伝導信号送出手段301が送出した頭部の任意の一部とは異なる一部から骨伝導信号を観測してもよい。なお、他の点に関しては第1の実施形態と同様である。
 以上のように、本実施形態によれば、骨伝導による音響信号の伝達特性を利用して個人認証を行うことができるので、ユーザの耳などの聴覚器官を塞ぐことなく個人認証を行うことができる。
実施形態4.
 次に、本発明の第4の実施形態について説明する。図10は、本発明の第4の実施形態の個人認証装置の構成例を示すブロック図である。図10に示す個人認証装置は、図1に示した第1の実施形態の構成から、さらに雑音信号推定手段401と送出音響信号選択手段402とを備えた構成となっている。
 雑音信号推定手段401は、観測音響信号から雑音信号を推定する。雑音信号推定手段401は、例えば、認証用の音響信号を送出していない状態でユーザの頭部の一部もしくはその付近において観測される観測音響信号から、雑音信号を推定する。
 送出音響信号選択手段402は、推定された雑音信号の周波数帯域と異なる周波数帯域の音響信号を、送出音響信号に選択する。
 図11は、本実施形態の個人認証装置の動作の一例を示すフローチャートである。なお、第1の実施形態と同じ動作については同じ符号を付し、説明を省略する。図11に示す例では、個人認証装置は、音響信号をユーザの頭部の一部に向けて送出する前に、音響信号観測手段102を用いて音響信号を観測する(ステップS201)。
 次いで、雑音信号推定手段401は、観測された音響信号を用いて雑音信号を推定する(ステップS202)。
 次いで、送出音響信号選択手段402は、推定された雑音信号に基づいて、送出音響信号を選択する(ステップS203)。以降の動作は、第1の実施形態と同様でよい。
 本実施形態によれば、周囲の環境雑音等の雑音の影響を避けることができる。
実施形態5.
 次に、本発明の第5の実施形態について説明する。本実施形態の構成は、第1の実施形態と同様でよい。ただし、本実施形態の音響信号送出手段101は、送出音響信号を定期的にまたは不定期に変更する。不定期の例としては、ランダムに認証を行う場合に、それらの認証を行う毎に送出音響信号を変更する方法が挙げられる。また、例えば、認証の信頼度に応じて認証を行う回数や頻度を変える場合に、それらの認証を行う毎に送出音響信号を変更する方法が挙げられる。また、例えば、ユーザが何らかのサービス要求をする度に認証する場合に、それらの認証を行う毎に送出音響信号を変更する方法が挙げられる。また、例えば、楽曲が変わる等のサービスの切れ目のタイミングで認証を実施する場合にそれらの認証を行う毎に送出音響信号を変更する方法が挙げられる。
 音響信号送出手段101が同一の音響信号を送出する場合、ユーザおよびその位置が変わらない限り、音響信号観測手段102において同一の音響信号が観測される。すると、悪意のある人物が何らかの手段で観測音響信号を盗聴して詐称に成功してしまう可能性がある。このような行為を防ぐため、ユーザおよびその位置が変わらない状態が継続する場合、送出音響信号を変更するのが好ましい。このようにすると、仮に観測音響信号が盗聴、詐称されたとしても、送信音響信号と比較する処理で両者の信号の要素が所定量以上食い違う場合には、認証対象とされたユーザを詐称者として棄却することが可能である。
 さらに、個人認証装置内において、音響信号送出手段101が送出音響信号を送出するまでの信号経路と、音響信号観測手段102で送出音響信号を受信するまでの信号経路とを別にしておくことで、同時に2つの音響信号(送信音響信号および観測音響信号)を盗聴される危険性を回避することができる。
実施形態6.
 次に、本発明の第6の実施形態について説明する。本実施形態の構成は、第1の実施形態と同様でよい。ただし、本実施形態の音響信号送出手段101は、送出音響信号として楽音を用いる。これにより、ユーザへの心理的・肉体的負担をより軽減させる。
 さらに、音響信号送出手段101は、楽音中の低振幅成分の振幅を向上させる目的で、または楽音中の周波数成分のうちパワーの小さい成分を補う目的で、楽曲に別の音響信号(白色雑音等)を重畳したものを送出音響信号として送出してもよい。また、音響信号送出手段101は、音楽配信や、トランシーバ、電話などの音響信号そのものを使ったサービスを提供する場合に、それらサービスで用いる音響信号を送出音響信号として送出してもよい。
 図12は、楽音中の低振幅成分の振幅を向上させる目的で、楽曲の音響信号に別の音響信号を重畳した送出音響信号の例を示す説明図である。なお、図12(a)は、元の楽曲の音声信号を、横軸に時間、縦軸に信号値で表したものである。また、図12(b)は、元の楽曲に白色雑音を追加した送出音響信号を、横軸に時間、縦軸に信号値で表したものである。図12に示すように、元の楽曲に白色雑音等を加えることによって、低振幅成分の振幅が向上しているのがわかる。なお、信号値の絶対値が振幅に相当する。
 また、図13は、楽音中の周波数成分のうちパワーの小さい成分を補う目的で、楽曲の音響信号に別の音響信号を重畳した送出音響信号の例を示す説明図である。なお、図13(a)は、元の楽曲のスペクトラムパワーを表し、図13(b)は、元の楽曲に白色雑音を加えた送出音響信号のスペクトラムパワーを表している。なお、図13(a)および図13(b)はともにフーリエ変換を行って得られた値を、横軸に周波数、縦軸にスペクトラムパワーを対数軸で表している。図13に示すように、元の楽曲に白色雑音等を加えることにより、パワーの小さい部分が補われていることがわかる。
 なお、上記の各実施形態は、互いに組み合わせることも可能である。また、上記の各実施形態では、個人認証装置が単体で動作する例を示したが、個人認証装置と他の装置とを組み合わせてもよい。例えば、上記のいずれかの個人認証装置を用いて個人を特定した結果に基づいて、個人毎に異なるサービスを提供するようなパーソナライズシステムを構成することも可能である。その場合、該システムは、個人認証装置に加えて、個人認証装置から出力される特定結果に基づいて、個人毎に異なるサービスを提供するサービス提供手段(図示省略)を備えていてもよい。
 また、例えば、上記のいずれかの個人認証装置を用いて個人を特定した結果に基づいて、正規の権利を保有するかどうかの確認を行うコンテンツ権利管理システムを構成することも可能である。その場合、該システムは、個人認証装置に加えて、個人認証装置から出力される特定結果に基づいて、ユーザがコンテンツに対する正規の権利を保有するか否かの判定を行う手段や、判定の結果、正規の権利を保有している場合のみコンテンツを提供する等のサービスを行う手段を備えていてもよい。
 また、例えば、上記のいずれかの個人認証装置を用いて個人を特定した結果に基づいて、特定の個人にのみ音声通信を行う音声通信制御システムを構成することも可能である。その場合、該システムは、個人認証装置に加えて、個人認証装置から出力される特定結果に基づいて、指定された個人に対してのみ音声通信を許可する等の音声通信のための制御を行う手段を備えていてもよい。音声通信は暗号化等を行わないと盗聴される可能性がある。また、暗号化を行っても暗号が漏洩する、盗難される等によって盗聴される可能性がある。例えば、上記の個人認証装置が抽出した個人毎の音響特性を使用して音声を暗号化することにより、漏洩、盗難の可能性が低い音声通信を実現できる。また、例えば、上記の個人認証装置が抽出した個人毎の音響特性を秘密鍵として用いて、秘密鍵・公開鍵暗号方式による音声通信を実現してもよい。なお、該システムが提供する通信は、音声通信に限られず、例えば、データ通信であってもよい。
 次に、本発明の概要を説明する。図13は、本発明による個人認証装置の概要を示すブロック図である。図13に示す個人認証装置は、音響信号送出手段701と、音響信号観測手段702と、音響特性算出手段703と、ユーザ識別手段704とを備える。
 音響信号送出手段701は、ユーザの頭部の一部に第1の音響信号を送出する。音響信号送出手段701は、例えば、第1の音響信号を送出するために、ユーザの頭部において空洞もしくは骨が形成されている領域またはその付近に装着される、装飾品や音響効果を発現させる機器という形態で実現されていてもよい。
 音響信号観測手段702は、第1の音響信号が上記頭部の一部を伝播した後の音響信号である第2の音響信号を観測する。ここで、音響信号の伝搬路とされる頭部の一部は、頭部を構成する頭蓋骨、脳、感覚器及びその間の空洞の一部を少なくとも含んでいればよい。
 音響特性算出手段703は、第1の音響信号および第2の音響信号から音響特性を算出する。
 ユーザ識別手段704は、算出された音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別する。
 このような構成を備えることにより、ユーザが認証のための特別な動作をすることなしに個人認証を行うことが可能であるため、認証対象のユーザの心理的および/または肉体的な負担が少ない個人認証を実現できる。
 なお、図示省略しているが、個人認証装置は、さらに、音響特性からユーザに関する特徴量を抽出する特徴抽出手段を備えていてもよい。その場合、ユーザ識別手段は、特徴抽出手段によって抽出されたユーザに関する特徴量に基づいて、ユーザを識別してもよい。
 また、上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)ユーザの頭部の一部に第1の音響信号を送出する音響信号送出手段と、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号を観測する音響信号観測手段と、第1の音響信号および第2の音響信号から音響特性を算出する音響特性算出手段と、音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別するユーザ識別手段とを備えたことを特徴とする個人認証装置。
 (付記2)予め、一人ないし複数人について、頭部の所定の一部の音響信号の伝搬時の音響特性または前記音響特性から抽出される特徴量を記憶する記憶手段を備え、ユーザ識別手段は、第2の音響信号から算出された音響特性と記憶手段に記憶された音響特性とを比較して、または第2の音響信号から算出された音響特性から抽出された特徴量と記憶手段に記憶された特徴量とを比較して、ユーザを識別する付記1に記載の個人認証装置。
 (付記3)第1の音響信号の伝搬路となる頭部の一部は、少なくとも一方の外耳道および/または耳介を含む付記1または付記2に記載の個人認証装置。
 (付記4)音響信号送出手段は、イヤホン、ヘッドホンまたは電話機の受話部により実現されており、音響信号観測手段は、イヤホン、ヘッドホンまたは電話機の受話部上に装着されたマイクロホンにより実現されている付記1から付記3のうちのいずれかに記載の個人認証装置。
 (付記5)ユーザの頭部の2か所で観測された音響信号、同一ユーザから複数回観測された音響信号、もしくは複数人から観測された音響信号に基づいて、第2の音響信号から周囲の雑音および/または機器特性を除去する除去手段を備えた付記1から付記4のうちのいずれかに記載の個人認証装置。
 ここで、除去手段は、左右の外耳道およびまたは耳介に対して各々音響信号を送出して観測された音響信号を用いて、観測された音響信号の少なくとも一方から周囲の雑音および/または機器特性を除去してもよい。
 (付記6)音響信号送出手段は、第1の音響信号として、骨伝導用の音響信号を送出し、音響信号観測手段は、第2の音響信号として、第1の音響信号が頭部の一部を骨伝導によって伝播した後の第2の音響信号を観測する付記1から付記5のうちのいずれかに記載の個人認証装置。
 ここで、音響信号観測手段は、骨伝導マイクロホンにより実現されていてもよい。また、音響信号観測手段は、音響信号送出手段が第1の音響信号を送出した頭部の一部とは異なる一部から、第2の音響信号を観測してもよい。
 (付記7)音響信号観測手段により観測される音響信号に基づいて、雑音信号を推定する雑音推定手段を備え、音響信号送出手段は、雑音推定手段によって推定された雑音信号とは異なる周波数帯域の音響信号を、次回以降の第1の音響信号として送出する付記1から付記6のうちのいずれかに記載の個人認証装置。
 (付記8)音響信号送出手段は、第1の音響信号を、定期的または不定期に変更する付記1から付記7のうちのいずれかに記載の個人認証装置。
 (付記9)第1の音響信号は楽音である付記1から付記8のうちのいずれかに記載の個人認証装置。
 (付記10)音響信号送出手段は、楽音の低振幅成分の振幅を向上させる目的で楽曲の音響信号に別の音響信号を重畳した音響信号、または楽音中の周波数成分のうちパワーの小さい成分を補う目的で楽曲の音響信号に別の音響信号を重畳した音響信号を、第1の音響信号として送出する付記9に記載の個人認証装置。
 (付記11)ユーザの頭部の一部に第1の音響信号を送出し、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号を観測し、第1の音響信号および第2の音響信号から音響特性を算出し、音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別することを特徴とする個人認証方法。
 (付記12)予め、一人ないし複数人について、頭部の所定の一部の音響信号の伝搬時の音響特性または該音響特性から抽出される特徴量を記憶する記憶手段に記憶されている音響特性または特徴量と、第2の音響信号から取得された音響特性または特徴量とを比較して、ユーザの識別を行う付記11に記載の個人認証方法。
 (付記13)コンピュータに、ユーザの頭部の一部に送出された第1の音響信号と、第1の音響信号が頭部の一部を伝播した後の音響信号である第2の音響信号とから、音響特性を算出する処理、および音響特性または該音響特性から抽出されるユーザに関する特徴量に基づいて、ユーザを識別する処理を実行させるための個人認証プログラム。
 (付記14)コンピュータに、ユーザを識別する処理で、予め、一人ないし複数人について、頭部の所定の一部の音響信号の伝搬時の音響特性または該音響特性から抽出される特徴量を記憶する記憶手段に記憶されている音響特性または特徴量と、第2の音響信号から取得された音響特性または特徴量とを比較して、ユーザを識別させる付記13に記載の個人認証プログラム。
 (付記15)付記1から付記10のいずれかの個人認証装置によるユーザの識別結果に基づいて、個人毎に異なるサービスを提供するサービス提供手段を備えたパーソナライズシステム。
 (付記16)付記1から付記10のいずれかの個人認証装置によるユーザの識別結果に基づいて、ユーザが管理対象とされるコンテンツに対する正規の権利を保有するか否かの判定を行う判定手段を備えたコンテンツ権利管理システム。
 (付記17)付記1から付記10のいずれかの個人認証装置によるユーザの識別結果に基づいて、音声通信またはデータ通信の制御を行う制御手段を備えた通信制御システム。
 以上、本実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2015年10月21日に出願された日本特許出願2015-206857を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、例えば、オーディオデバイスを用いて個人を認証する個人認証装置、個人認証方法、個人認証プログラムに好適に適用可能である。また、そのような個人認証装置、個人認証方法、個人認証プログラムを利用したパーソナライズシステム、コンテンツ権利管理システム、通信制御システム等にも適用可能である。
 11 PC
 12 サウンドプロセッサ
 13 マイクロホンアンプ
 14 イヤホン
 15 マイクロホン
 16 ユーザ
 101 音響信号送出手段
 102 音響信号観測手段
 103 音響特性算出手段
 104 特徴抽出手段
 105 ユーザ識別手段
 106 特徴量記憶手段
 201、202、203 雑音・機器特性除去手段
 301 骨伝導信号送出手段
 302 骨伝導信号観測手段
 401 雑音信号推定手段
 402 送出音響信号選択手段
 701 音響信号送出手段
 702 音響信号観測手段
 703 音響特性算出手段
 704 ユーザ識別手段

Claims (10)

  1.  ユーザの頭部の一部に第1の音響信号を送出する音響信号送出手段と、
     前記第1の音響信号が前記頭部の一部を伝播した後の音響信号である第2の音響信号を観測する音響信号観測手段と、
     前記第1の音響信号および前記第2の音響信号から音響特性を算出する音響特性算出手段と、
     前記音響特性または前記音響特性から抽出されるユーザに関する特徴量に基づいて、前記ユーザを識別するユーザ識別手段とを備えた
     ことを特徴とする個人認証装置。
  2.  予め、一人ないし複数人について、頭部の所定の一部の音響信号の伝搬時の音響特性または前記音響特性から抽出される特徴量を記憶する記憶手段を備え、
     ユーザ識別手段は、第2の音響信号から算出された音響特性と前記記憶手段に記憶された音響特性とを比較して、または前記第2の音響信号から算出された音響特性から抽出された特徴量と前記記憶手段に記憶された特徴量とを比較して、ユーザを識別する
     請求項1に記載の個人認証装置。
  3.  第1の音響信号の伝搬路となる頭部の一部は、少なくとも一方の外耳道および/または耳介を含む
     請求項1または請求項2に記載の個人認証装置。
  4.  音響信号送出手段は、イヤホン、ヘッドホンまたは電話機の受話部により実現されており、
     音響信号観測手段は、前記イヤホン、ヘッドホンまたは電話機の受話部上に装着されたマイクロホンにより実現されている
     請求項1から請求項3のうちのいずれか1項に記載の個人認証装置。
  5.  ユーザの頭部の2か所で観測された音響信号、同一ユーザから複数回観測された音響信号、もしくは複数人から観測された音響信号に基づいて、第2の音響信号から周囲の雑音および/または機器特性を除去する除去手段を備えた
     請求項1から請求項4のうちのいずれか1項に記載の個人認証装置。
  6.  音響信号送出手段は、第1の音響信号として、骨伝導用の音響信号を送出し、
     音響信号観測手段は、第2の音響信号として、前記第1の音響信号が頭部の一部を骨伝導によって伝播した後の音響信号を観測する
     請求項1から請求項5のうちのいずれか1項に記載の個人認証装置。
  7.  音響信号観測手段により観測される音響信号に基づいて、雑音信号を推定する雑音推定手段を備え、
     音響信号送出手段は、前記雑音推定手段によって推定された雑音信号とは異なる周波数帯域の音響信号を、次回以降の第1の音響信号として送出する
     請求項1から請求項6のうちのいずれか1項に記載の個人認証装置。
  8.  音響信号送出手段は、第1の音響信号を、定期的または不定期に変更する
     請求項1から請求項7のうちのいずれか1項に記載の個人認証装置。
  9.  ユーザの頭部の一部に第1の音響信号を送出し、
     前記第1の音響信号が前記頭部の一部を伝播した後の音響信号である第2の音響信号を観測し、
     前記第1の音響信号および前記第2の音響信号から音響特性を算出し、
     前記音響特性または前記音響特性から抽出されるユーザに関する特徴量に基づいて、前記ユーザを識別する
     ことを特徴とする個人認証方法。
  10.  コンピュータに、
     ユーザの頭部の一部に送出された第1の音響信号と、前記第1の音響信号が前記頭部の一部を伝播した後の音響信号である第2の音響信号とから、音響特性を算出する処理、および
     前記音響特性または前記音響特性から抽出されるユーザに関する特徴量に基づいて、前記ユーザを識別する処理
     を実行させるための個人認証プログラム。
PCT/JP2016/080833 2015-10-21 2016-10-18 個人認証装置、個人認証方法および個人認証プログラム WO2017069118A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017546551A JP6855381B2 (ja) 2015-10-21 2016-10-18 個人認証装置、個人認証方法および個人認証プログラム
US15/769,967 US10867019B2 (en) 2015-10-21 2016-10-18 Personal authentication device, personal authentication method, and personal authentication program using acoustic signal propagation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015206857 2015-10-21
JP2015-206857 2015-10-21

Publications (1)

Publication Number Publication Date
WO2017069118A1 true WO2017069118A1 (ja) 2017-04-27

Family

ID=58557034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/080833 WO2017069118A1 (ja) 2015-10-21 2016-10-18 個人認証装置、個人認証方法および個人認証プログラム

Country Status (3)

Country Link
US (1) US10867019B2 (ja)
JP (1) JP6855381B2 (ja)
WO (1) WO2017069118A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062377A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 電子機器、音響機器、電子機器の制御方法及び制御プログラム
WO2019143210A1 (en) 2018-01-22 2019-07-25 Samsung Electronics Co., Ltd. Electronic device for authenticating user by using audio signal and method thereof
WO2020045204A1 (ja) * 2018-08-31 2020-03-05 日本電気株式会社 生体認証装置、生体認証方法および記録媒体
WO2020089983A1 (en) * 2018-10-29 2020-05-07 Nec Corporation Recognition apparatus, recognition method, and computer-readable recording medium
WO2020149175A1 (ja) * 2019-01-15 2020-07-23 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
EP3702945A4 (en) * 2017-10-25 2020-12-09 Nec Corporation BIOMETRIC AUTHENTICATION DEVICE, BIOMETRIC AUTHENTICATION SYSTEM, BIOMETRIC AUTHENTICATION PROCESS AND REGISTRATION MEDIA
JP2022069467A (ja) * 2018-12-19 2022-05-11 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
US20230008680A1 (en) * 2019-12-26 2023-01-12 Nec Corporation In-ear acoustic authentication device, in-ear acoustic authentication method, and recording medium
US11775972B2 (en) 2018-09-28 2023-10-03 Nec Corporation Server, processing apparatus, and processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460095B2 (en) * 2016-09-30 2019-10-29 Bragi GmbH Earpiece with biometric identifiers
US11586716B2 (en) * 2017-04-28 2023-02-21 Nec Corporation Personal authentication device, personal authentication method, and recording medium
EP3625718B1 (en) * 2017-05-19 2021-09-08 Plantronics, Inc. Headset for acoustic authentication of a user
EP3900630A4 (en) * 2018-12-19 2021-12-22 NEC Corporation INFORMATION PROCESSING DEVICE, WEARABLE DEVICE, INFORMATION PROCESSING METHODS AND STORAGE MEDIUM
US11200572B2 (en) * 2019-02-27 2021-12-14 Mastercard International Incorporated Encoding one-time passwords as audio transmissions including security artifacts
US11937040B2 (en) * 2019-09-12 2024-03-19 Nec Corporation Information processing device, information processing method, and storage medium
CN113536282A (zh) * 2021-06-17 2021-10-22 南京大学 基于耳声学传感的安全防护系统
TWI797880B (zh) 2021-12-08 2023-04-01 仁寶電腦工業股份有限公司 應用於入耳式耳機的偵測系統及偵測方法
JP2023117921A (ja) * 2022-02-14 2023-08-24 株式会社東芝 診断装置及び診断方法
US11847200B2 (en) 2022-03-29 2023-12-19 Cirrus Logic Inc. Methods and apparatus for system identification

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065363A (ja) * 2002-08-02 2004-03-04 Sony Corp 個人認証装置と個人認証方法、及び信号伝送装置
JP2007116373A (ja) * 2005-10-19 2007-05-10 Sony Corp 計測装置、計測方法、音声信号処理装置
WO2009104437A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 生体認証装置、生体認証方法及び生体認証用プログラム
JP2010086328A (ja) * 2008-09-30 2010-04-15 Yamaha Corp 認証装置および携帯電話機

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5787187A (en) * 1996-04-01 1998-07-28 Sandia Corporation Systems and methods for biometric identification using the acoustic properties of the ear canal
US6231521B1 (en) * 1998-12-17 2001-05-15 Peter Zoth Audiological screening method and apparatus
JP2003058190A (ja) 2001-08-09 2003-02-28 Mitsubishi Heavy Ind Ltd 個人認証方式
US7922671B2 (en) * 2002-01-30 2011-04-12 Natus Medical Incorporated Method and apparatus for automatic non-cooperative frequency specific assessment of hearing impairment and fitting of hearing aids
US7333618B2 (en) * 2003-09-24 2008-02-19 Harman International Industries, Incorporated Ambient noise sound level compensation
US7596231B2 (en) * 2005-05-23 2009-09-29 Hewlett-Packard Development Company, L.P. Reducing noise in an audio signal
US7806833B2 (en) * 2006-04-27 2010-10-05 Hd Medical Group Limited Systems and methods for analysis and display of heart sounds
JP5229124B2 (ja) 2009-06-12 2013-07-03 日本電気株式会社 話者照合装置、話者照合方法およびプログラム
US20130163781A1 (en) * 2011-12-22 2013-06-27 Broadcom Corporation Breathing noise suppression for audio signals
US9565497B2 (en) * 2013-08-01 2017-02-07 Caavo Inc. Enhancing audio using a mobile device
KR102223278B1 (ko) * 2014-05-22 2021-03-05 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065363A (ja) * 2002-08-02 2004-03-04 Sony Corp 個人認証装置と個人認証方法、及び信号伝送装置
JP2007116373A (ja) * 2005-10-19 2007-05-10 Sony Corp 計測装置、計測方法、音声信号処理装置
WO2009104437A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 生体認証装置、生体認証方法及び生体認証用プログラム
JP2010086328A (ja) * 2008-09-30 2010-04-15 Yamaha Corp 認証装置および携帯電話機

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380775B2 (ja) 2017-09-26 2023-11-15 カシオ計算機株式会社 音響機器、音響機器の制御方法及び制御プログラム
US11501028B2 (en) 2017-09-26 2022-11-15 Casio Computer Co., Ltd. Electronic device, audio device, electronic device control method and storage medium
JP2022145772A (ja) * 2017-09-26 2022-10-04 カシオ計算機株式会社 音響機器、音響機器の制御方法及び制御プログラム
JP7121330B2 (ja) 2017-09-26 2022-08-18 カシオ計算機株式会社 電子機器、音響機器、電子機器の制御方法及び制御プログラム
JP2019062377A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 電子機器、音響機器、電子機器の制御方法及び制御プログラム
EP3702945A4 (en) * 2017-10-25 2020-12-09 Nec Corporation BIOMETRIC AUTHENTICATION DEVICE, BIOMETRIC AUTHENTICATION SYSTEM, BIOMETRIC AUTHENTICATION PROCESS AND REGISTRATION MEDIA
US11405388B2 (en) 2017-10-25 2022-08-02 Nec Corporation Biometric authentication device, biometric authentication system, biometric authentication method and recording medium
CN111465933A (zh) * 2018-01-22 2020-07-28 三星电子株式会社 利用音频信号认证用户的电子装置及其方法
US11159868B2 (en) 2018-01-22 2021-10-26 Samsung Electronics Co., Ltd Electronic device for authenticating user by using audio signal and method thereof
CN111465933B (zh) * 2018-01-22 2024-04-23 三星电子株式会社 利用音频信号认证用户的电子装置及其方法
WO2019143210A1 (en) 2018-01-22 2019-07-25 Samsung Electronics Co., Ltd. Electronic device for authenticating user by using audio signal and method thereof
KR102488001B1 (ko) * 2018-01-22 2023-01-13 삼성전자주식회사 오디오 신호를 이용하여 사용자를 인증하는 전자 장치 및 그 방법
EP3707628A4 (en) * 2018-01-22 2020-10-07 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE FOR AUTHENTICATING A USER USING AN AUDIO SIGNAL AND METHOD FOR DOING THIS
KR20190089422A (ko) * 2018-01-22 2019-07-31 삼성전자주식회사 오디오 신호를 이용하여 사용자를 인증하는 전자 장치 및 그 방법
WO2020045204A1 (ja) * 2018-08-31 2020-03-05 日本電気株式会社 生体認証装置、生体認証方法および記録媒体
JPWO2020045204A1 (ja) * 2018-08-31 2021-09-24 日本電気株式会社 生体認証装置、生体認証方法およびプログラム
JP7120313B2 (ja) 2018-08-31 2022-08-17 日本電気株式会社 生体認証装置、生体認証方法およびプログラム
US11775972B2 (en) 2018-09-28 2023-10-03 Nec Corporation Server, processing apparatus, and processing method
WO2020089983A1 (en) * 2018-10-29 2020-05-07 Nec Corporation Recognition apparatus, recognition method, and computer-readable recording medium
JP7192982B2 (ja) 2018-10-29 2022-12-20 日本電気株式会社 認識装置、認識方法、およびプログラム
JP2022505984A (ja) * 2018-10-29 2022-01-14 日本電気株式会社 認識装置、認識方法、およびプログラム
JP7315045B2 (ja) 2018-12-19 2023-07-26 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
JP2022069467A (ja) * 2018-12-19 2022-05-11 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
JP7131636B2 (ja) 2019-01-15 2022-09-06 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
WO2020149175A1 (ja) * 2019-01-15 2020-07-23 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
JPWO2020149175A1 (ja) * 2019-01-15 2021-10-28 日本電気株式会社 情報処理装置、装着型機器、情報処理方法及び記憶媒体
US20230008680A1 (en) * 2019-12-26 2023-01-12 Nec Corporation In-ear acoustic authentication device, in-ear acoustic authentication method, and recording medium

Also Published As

Publication number Publication date
US10867019B2 (en) 2020-12-15
JPWO2017069118A1 (ja) 2018-09-06
JP6855381B2 (ja) 2021-04-07
US20180307818A1 (en) 2018-10-25

Similar Documents

Publication Publication Date Title
WO2017069118A1 (ja) 個人認証装置、個人認証方法および個人認証プログラム
JP7259902B2 (ja) 個人認証装置、個人認証方法および個人認証プログラム
JP6900955B2 (ja) 個人認証装置、個人認証方法および個人認証プログラム
CN112585676A (zh) 生物特征认证
US11699449B2 (en) In-ear liveness detection for voice user interfaces
US20230143028A1 (en) Personal authentication device, personal authentication method, and recording medium
JP7375855B2 (ja) 個人認証装置、個人認証方法および個人認証プログラム
Huang et al. Pcr-auth: Solving authentication puzzle challenge with encoded palm contact response
CN110100278B (zh) 说话者识别系统及说话者识别方法及入耳式装置
WO2018101317A1 (ja) 認証システム、認証管理サーバ、方法およびプログラム
JP7244683B2 (ja) 個人認証装置、個人認証方法および個人認証プログラム
JP2021002357A (ja) 個人認証装置、個人認証方法および個人認証プログラム
WO2021130949A1 (ja) 耳音響認証装置、耳音響認証方法、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16857432

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017546551

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15769967

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16857432

Country of ref document: EP

Kind code of ref document: A1