WO2021010056A1 - マイクユニット - Google Patents

マイクユニット Download PDF

Info

Publication number
WO2021010056A1
WO2021010056A1 PCT/JP2020/022616 JP2020022616W WO2021010056A1 WO 2021010056 A1 WO2021010056 A1 WO 2021010056A1 JP 2020022616 W JP2020022616 W JP 2020022616W WO 2021010056 A1 WO2021010056 A1 WO 2021010056A1
Authority
WO
WIPO (PCT)
Prior art keywords
microphone
sound data
unit
collation
voice
Prior art date
Application number
PCT/JP2020/022616
Other languages
English (en)
French (fr)
Inventor
山中祥史
窪田昭吾
Original Assignee
ホシデン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホシデン株式会社 filed Critical ホシデン株式会社
Priority to US17/626,982 priority Critical patent/US20220415330A1/en
Priority to CN202080051540.6A priority patent/CN114080641A/zh
Priority to EP20840120.8A priority patent/EP4002356A4/en
Priority to JP2021532725A priority patent/JP7462634B2/ja
Publication of WO2021010056A1 publication Critical patent/WO2021010056A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R19/00Electrostatic transducers
    • H04R19/01Electrostatic transducers characterised by the use of electrets
    • H04R19/016Electrostatic transducers characterised by the use of electrets for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R19/00Electrostatic transducers
    • H04R19/04Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/003Mems transducers or their use

Definitions

  • the present invention relates to a microphone unit capable of determining whether or not the voice input to the first microphone is the voice of the intended speaker.
  • Patent Document 1 describes a voice dialogue system.
  • This voice dialogue system is composed of a voice dialogue device and a voice recognition server.
  • the voice dialogue device recognizes the voice input to the voice input means and transmits the voice input to the voice input means to the voice recognition server.
  • the voice recognition server recognizes the voice received from the voice dialogue device.
  • the voice dialogue device is configured to output a response based on the recognition result of the voice dialogue device, and then output a response based on the difference between the recognition result of the voice dialogue device and the recognition result of the voice recognition server.
  • Patent Document 1 performs voice recognition processing not only in the voice dialogue device but also in the voice recognition server. For this reason, it is necessary to perform communication for voice recognition, and it cannot be used in a situation where the communication infrastructure is not maintained. Further, the technique described in Patent Document 1 is a technique for performing voice recognition, and is not supposed to identify a voice speaker.
  • the characteristic configuration of the microphone unit according to the present invention is a microphone unit capable of determining whether or not the sound input to the first microphone is the sound produced by the intended speaker, and acquires the sound as sound data.
  • the matching sound data is created by a device different from the device on which the first microphone is mounted, which includes a matching unit for collating whether or not to check, and a matching result output unit for outputting the matching result of the matching unit.
  • the device on which the first microphone is mounted and the device different from the device are different from each other in that the matching sound data is exchanged by wireless communication.
  • collation can be performed without providing a server for collation. That is, since it is a so-called local recognition process, it is possible to perform collation safely in terms of security. In addition, it is possible to easily identify the speaker of the voice registered in advance.
  • the collation unit when the collation unit is in the sleep state, it is preferable to end the sleep state by using the acquisition of the evaluation sound data by the evaluation sound data acquisition unit as a trigger.
  • the sound data acquired by the sound data acquisition unit is a sound input to a second microphone provided in a device different from the device on which the first microphone is mounted, and is the first microphone and the first microphone.
  • an evaluation unit that evaluates the frequency characteristics of the first microphone and the frequency characteristics of the second microphone, and the frequency characteristics of one of the first microphone and the second microphone. It is preferable to further include a correction unit that corrects the sound so as to match the other frequency characteristic.
  • the collation rate when the same user inputs voice to the first microphone and the second microphone can be enhanced.
  • the voice of the speaker who utters the voice related to the collation sound data is tested by the first microphone.
  • the vocalization based on the test sound data while changing the collation parameters used for the collation.
  • the collation unit further includes a calculation unit for calculating the collation rate of the person, and the collation unit is based on the collation parameter when the collation rate is the highest among the collation rates calculated by the calculation unit. It is preferable to perform.
  • the collation parameter is an amplification factor that amplifies at least one of the test sound data and the collation sound data.
  • the collation rate can be increased by changing the input range of at least one of the first microphone and the second microphone.
  • a parameter changing unit that automatically changes the parameters of the first microphone based on the matching parameters when inputting voice based on the evaluation sound data to the first microphone.
  • the voice level of the voice input from the first microphone can be automatically suppressed and changed to a level that improves the collation rate. Therefore, the collation rate can be improved automatically. Further, for example, it is possible to record for a certain period of time and automatically change the audio level based on the average audio level within that time.
  • the microphone unit identifies the speaker of the voice input to the first microphone based on the collation result of the collation unit.
  • the utterance content of the voice input to the first microphone it is preferable to estimate the utterance content of the voice input to the first microphone and issue an operation command to the device equipped with the first microphone based on the estimated content.
  • the operation of the device equipped with the first microphone can be controlled hands-free, so that the convenience can be improved.
  • the microphone unit according to the present invention is configured to be able to determine whether or not the input voice is the voice of the intended speaker.
  • the microphone unit 1 of the present embodiment will be described.
  • FIG. 1 is a block diagram schematically showing the configuration of the microphone unit 1 according to the present embodiment.
  • the microphone unit 1 has the functions of the first microphone 10, the sound data acquisition unit 11, the sound data registration unit 12, the evaluation sound data acquisition unit 13, the collation unit 14, and the collation result output unit 15. It has a part.
  • Each of these functional units is constructed of hardware, software, or both with a CPU as a core member in order to perform the processing related to the above-mentioned determination.
  • the first microphone 10 is a microphone element, and the configuration is not particularly limited. For example, it is preferable to use at least one of an electlet condenser microphone (ECM), an analog MEMS (Micro-Electro-Mechanical System) microphone, a digital MEMS (Micro-Electro-Mechanical System) microphone, and the like.
  • ECM electlet condenser microphone
  • An analog MEMS Micro-Electro-Mechanical System
  • a digital MEMS Micro-Electro-Mechanical System
  • the sound data acquisition unit 11 acquires voice as sound data.
  • the sound data acquired by the sound data acquisition unit 11 is the voice input to the second microphone 2A provided in the device 2 different from the device in which the first microphone 10 is mounted.
  • the device on which the first microphone 10 is mounted is the microphone unit 1 in the present embodiment. Therefore, the second microphone 2A is provided separately (separately) from the microphone unit 1.
  • the second microphone 2A also has, for example, an electret condenser microphone (ECM), an analog MEMS (Micro-Electro-Mechanical System) microphone, a digital MEMS (Micro-Electro-Mechanical System) microphone, and the like. It is preferable to use at least one.
  • ECM electret condenser microphone
  • the voice input to the second microphone 2A is converted into sound data which is an electric signal by the second microphone 2A.
  • the sound data acquisition unit 11 acquires the sound data converted and generated by the second microphone 2A.
  • the sound data registration unit 12 registers collation sound data obtained by extracting feature points from the sound data generated by the second microphone 2A.
  • the sound data generated by the second microphone 2A is generated by converting (converting into data) the voice input to the second microphone 2A as described above.
  • the feature point is a feature in an electric signal (sound data), and corresponds to, for example, a period, a peak value, a half width, and the like. Therefore, the collation sound data corresponds to the one obtained by extracting the characteristics of the electric signal generated by converting the voice input to the second microphone 2A.
  • Such collation sound data corresponds to the master sound data for realizing the function of the microphone unit 1 to determine whether or not the sound input to the first microphone 10 is the sound of the intended speaker. , Such collation sound data is recorded in the sound data registration unit 12.
  • the collation sound data is created by a device different from the device (microphone unit 1) on which the first microphone 10 is mounted.
  • a device different from the device on which the first microphone 10 is mounted is a device different from the microphone unit 1.
  • the device 2 on which the second microphone 2A is mounted and the device 3 other than the microphone unit 1 and the device 2 correspond to the device 2.
  • the collation sound data is generated by the collation sound data generation unit 3A provided in the device 3.
  • the collation sound data is exchanged by wireless communication with a device different from the device on which the first microphone 10 is mounted.
  • Wireless communication corresponds to, for example, LAN communication such as Wi-Fi (registered trademark) and short-range wireless communication such as Bluetooth (registered trademark).
  • the microphone unit 1 transmits the collation sound data from the device 3 (the collation sound data generation unit 3A of the device 3) via such wireless communication.
  • the collation sound data generation unit 3A may be included in the device 2.
  • the sound data acquisition unit 11 transmits the sound data to the device 3 other than the microphone unit 1 and the device 2 by wireless communication, and the microphone It is preferable that the sound data registration unit 12 acquires the verification sound data created in the device 3 other than the unit 1 and the device 2 by wireless communication.
  • the sound data acquisition unit 11 transmits the sound data to the device 2 by wireless communication, and the collation sound data created by the device 2 is transmitted to the device 2 by wireless communication.
  • the registration unit 12 may be configured to acquire the data, or the device 2 may be provided with the sound data acquisition unit 11, and the collation sound data created based on the sound data acquired by the sound data acquisition unit 11 in the device 2. May be configured to be acquired by the sound data registration unit 12 by wireless communication.
  • the voice input to the microphone is digitized, and the digitized voice data is transmitted to an external device (server) via an internet line.
  • the collation sound data generation unit 3A extracts the feature points from the voice data and generates the collation sound data wirelessly to the paired device. Sent via communication.
  • the evaluation sound data acquisition unit 13 acquires the voice input to the first microphone 10 as the evaluation sound data. As described above, the voice input to the first microphone 10 is converted into sound data which is an electric signal by the first microphone 10. This sound data corresponds to the evaluation sound data. Therefore, the evaluation sound data acquisition unit 13 acquires the evaluation sound data generated by converting the sound input to the first microphone 10 into sound data which is an electric signal by the first microphone 10.
  • the collation unit 14 determines whether or not the speaker of the voice based on the evaluation sound data is the speaker of the voice based on the collation sound data based on the collation sound data and the feature points extracted from the evaluation sound data. Is collated.
  • the collation sound data is registered and recorded in the sound data registration unit 12.
  • the evaluation sound data is acquired by the evaluation sound data acquisition unit 13.
  • the feature points extracted from the evaluation sound data are features of the evaluation sound data which are electric signals, and correspond to, for example, a period, a peak value, a half width, and the like. Similar to the collation sound data, such feature points can be generated by a device different from the microphone unit 1 and can be configured to be transmitted via wireless communication. Of course, it is also possible to configure the collation unit 14 to extract feature points.
  • the voice based on the evaluation sound data is the voice input to the first microphone 10 and is converted into the evaluation sound data by the first microphone 10.
  • the voice based on the collation sound data is the voice input to the second microphone 2A in the present embodiment, and is the voice converted into the collation sound data by the second microphone 2A.
  • the collation unit 14 uses the first microphone based on the collation sound data recorded in the sound data registration unit 12 and the feature points extracted from the evaluation sound data acquired by the evaluation sound data acquisition unit 13.
  • the speaker of the sound input to the second microphone 10 and converted into the evaluation sound data by the first microphone 10 is the sound input to the second microphone 2A, and the matching sound is generated by the second microphone 2A. It is checked whether or not the person is the same person as the speaker of the sound to be converted into data.
  • the feature portions (corresponding to the above-mentioned "feature points") of the evaluation sound data and the collation sound data are compared, and the coincidence points and the differences are extracted, and the coincidence points and the differences are obtained. It is better to do it based on the degree of agreement calculated from the ratio. Specifically, when the degree of matching is larger than a preset value, the speaker of the voice converted into the evaluation sound data is the same person as the speaker of the voice converted into the matching sound data. If it is determined that there is, and the degree of matching is less than or equal to the preset value, the speaker of the voice converted into the evaluation sound data must be the same person as the speaker of the voice converted into the matching sound data. It is possible to judge. Of course, it is also possible to carry out by a method different from such a method (for example, a known voiceprint analysis or the like).
  • the collation unit 14 since the collation by the collation unit 14 requires arithmetic processing, the power consumption increases when the collation unit 14 is always in the operating state. Therefore, it is preferable that the collation unit 14 is put into an operating state only when collation is performed, and is put into a sleep state when collation is not performed. In such a case, when the collation unit 14 is in the sleep state, for example, it is preferable to end the sleep state by triggering the acquisition of the evaluation sound data by the evaluation sound data acquisition unit 13.
  • the acquisition of the evaluation sound data by the evaluation sound data acquisition unit 13 may be indicated by transmitting information indicating that the evaluation sound data has been acquired by the evaluation sound data acquisition unit 13 to the collation unit 14. Then, it may be shown by transmitting the evaluation sound data to the collating unit 14. Further, it is also possible to configure the information indicating that the first microphone 10 has detected the voice (Voice Active Detection) by transmitting it to the collation unit 14 via the evaluation sound data acquisition unit 13.
  • the collation unit 14 can be put into the operating state only when the collation unit 14 performs collation, so that the power consumption can be reduced in other states.
  • Such a configuration can be realized by setting the operating frequency of the collation unit 14 during sleep to be lower than the operating frequency during operation. Further, in order to realize such different operating frequencies, for example, during sleep, it is operated by a clock (external clock) from the outside of the collation unit 14, and during operation, it is operated by a clock (internal clock) generated by the collation unit 14. It is also possible to operate it.
  • the collation unit 14 can be configured to wake up from the sleep state in response to a user's button operation (switch operation).
  • the collation result output unit 15 outputs the collation result of the collation unit 14.
  • the collation result of the collation unit 14 is a determination result of whether or not the speaker of the voice converted into the evaluation sound data is the same person as the speaker of the voice converted into the collation sound data. That is, it is a determination result of whether or not the speaker of the voice input to the first microphone 10 is the same person as the speaker of the voice input to the second microphone 2A.
  • the collation result output unit 15 may output such a determination result to a display device and display it on the display device. Alternatively, such a determination result may be output to a speaker and the speaker may notify the speaker. Further, the determination result may be output to another control device and used for control by the other control device.
  • the speaker or display device may be configured to output the identification result of the speaker. Further, the identification result may be output to another control device, which may be used for control.
  • the microphone unit 1 according to the second embodiment is different in that the microphone unit 1 according to the first embodiment includes an evaluation unit 20 and a correction unit 21. Other than this point, it is the same as that of the first embodiment, and therefore, mainly different points will be described here.
  • FIG. 2 is a block diagram schematically showing the configuration of the microphone unit 1 according to the present embodiment.
  • the microphone unit 1 of the present embodiment includes a first microphone 10, a sound data acquisition unit 11, a sound data registration unit 12, an evaluation sound data acquisition unit 13, a collation unit 14, and a collation result output unit.
  • Each functional unit of 15, the evaluation unit 20, and the correction unit 21 is provided.
  • the evaluation unit 20 and the correction unit 21 also use the CPU as a core member in hardware, software, or both in order to perform the processing related to the above-mentioned determination. Has been built.
  • the evaluation unit 20 evaluates the frequency characteristics of the first microphone 10 and the frequency characteristics of the second microphone 2A before inputting voice to both the first microphone 10 and the second microphone 2A. Before the voice input to both the first microphone 10 and the second microphone 2A is before the voice input to both the first microphone 10 and the second microphone 2A is completed.
  • the state where the voice is not input to both the first microphone 10 and the second microphone 2A and the state where the voice is not input to both the first microphone 10 and the first microphone 10 A state in which voice is input only to the second microphone and a state in which voice is input only to the second microphone 2A correspond to each other, and the sound is input to at least one of the first microphone 10 and the second microphone 2A. There is no sound input.
  • the evaluation unit 20 Since the frequency characteristics of the first microphone 10 and the frequency characteristics of the second microphone 2A are predetermined for each microphone, such frequency characteristics are stored in a storage unit (not shown) and the evaluation unit 20 stores them. It may be acquired, or the evaluation unit 20 may actually energize the first microphone 10 and the second microphone 2A and perform frequency analysis to acquire the frequency. The evaluation unit 20 calculates the difference between the acquired frequency characteristics of the first microphone 10 and the frequency characteristics of the second microphone 2A.
  • the correction unit 21 corrects the frequency characteristic of one of the first microphone 10 and the second microphone 2A so as to match the frequency characteristic of the other. As described above, the frequency characteristics of the first microphone 10 and the frequency characteristics of the second microphone 2A are evaluated by the evaluation unit 20. Further, the evaluation by the evaluation unit 20 is performed in a state where no voice is input to at least one of the first microphone 10 and the second microphone 2A.
  • One of the first microphone 10 and the second microphone 2A in the state where no sound is input means that no sound is input to both the first microphone 10 and the second microphone 2A.
  • the first microphone 10 and the second microphone 2A Of the microphones 2A corresponds to this.
  • the other of the first microphone 10 and the second microphone 2A in the state where no sound is input is in a state where no sound is input to both the first microphone 10 and the second microphone 2A.
  • the first microphone 10 and Of the second microphone 2A corresponds to the one to which voice is input.
  • the correction unit 21 determines the frequency characteristics of one of the first microphone 10 and the second microphone 2A when no sound is input to both the first microphone 10 and the second microphone 2A.
  • the first microphone is used.
  • the frequency characteristics of the 1st microphone 10 and the 2nd microphone 2A for which no sound is input are corrected so as to match the frequency characteristics of the 1st microphone 10 and the 2nd microphone 2A for which the sound is input. ..
  • the first microphone 10 and the second microphone 2A at least the one to which the voice is input later can be matched with the frequency characteristic of the one to be input first, so that the frequency of the microphone can be matched. Collation errors due to differences in characteristics can be reduced.
  • the microphone unit 1 according to the third embodiment is different in that the microphone unit 1 according to the first embodiment includes a test sound data acquisition unit 30, a calculation unit 31, and a parameter change unit 40. Other than this point, it is the same as that of the first embodiment, and therefore, mainly different points will be described here.
  • FIG. 3 is a block diagram schematically showing the configuration of the microphone unit 1 according to the present embodiment.
  • the microphone unit 1 of the present embodiment includes a first microphone 10, a sound data acquisition unit 11, a sound data registration unit 12, an evaluation sound data acquisition unit 13, a collation unit 14, and a collation result output unit. 15.
  • Each functional unit of the test sound data acquisition unit 30, the calculation unit 31, and the parameter change unit 40 is provided.
  • the test sound data acquisition unit 30, the calculation unit 31, and the parameter change unit 40 also have the CPU as the core in order to perform the processing related to the above-mentioned determination, similarly to the other functional units described in the first embodiment. It is constructed of hardware and / or software as a member.
  • the test sound data acquisition unit 30 uses the first microphone 10 to obtain the sound related to the collation sound data after the collation sound data is registered and before the evaluation sound data is acquired from the first microphone 10.
  • the voice of the speaker who uttered the above is acquired as test sound data.
  • the collation sound data generated by converting the voice input to the second microphone 2A is registered in the sound data registration unit 12.
  • the period before the evaluation sound data is acquired is before the evaluation sound data generated by converting the sound input to the first microphone 10 by the evaluation sound data acquisition unit 13 is acquired.
  • the voice of the speaker who uttered the voice related to the collation sound data by the first microphone 10 is the same utterer as the utterer who uttered the voice that is the basis of the collation sound data registered in the sound data registration unit 12. This is the voice obtained from the first microphone 10.
  • the test sound data acquisition unit 30 registers the verification sound data generated by converting the sound input to the second microphone 2A in the sound data registration unit 12, and then the evaluation sound data acquisition unit 13. Before the evaluation sound data generated by converting the sound input to the first microphone 10 is acquired, the sound that is the basis of the collation sound data registered in the sound data registration unit 12 is emitted. The sound input by the same speaker as the speaker who made the sound is converted from the first microphone 10 into test sound data and acquired.
  • the calculation unit 31 calculates the collation rate of the speaker based on the test sound data while changing the collation parameters used for collation based on the test sound data and the collation sound data.
  • the calculation unit 31 acquires the test sound data from the test sound data acquisition unit 30, and acquires the collation sound data from the sound data registration unit 12.
  • the parameters used for collation are the test sound data and the collation sound data so that the speaker of the voice that is the basis of the test sound data is collated with the speaker of the voice that is the basis of the collation sound data. This is a parameter that corrects at least one of the above.
  • the collation parameter corresponds to the amplification factor that amplifies at least one of the test sound data and the collation sound data.
  • the amplification factor at this time corresponds to the collation parameter.
  • the calculation unit 31 amplifies one or both of the input test sound data and the matching sound data while sequentially changing the amplification factor, and the speaker and the matching sound of the voice that is the basis of the test sound data. It is calculated whether or not the speaker of the voice on which the data is based is collated with the same speaker.
  • the calculation unit 31 stores such a calculation result.
  • the collation parameter (amplification rate) at the time of the highest collation rate is transmitted to the parameter change unit 40, and the collation parameters are the first microphone 10 and the second microphone. It is set to at least one of 2A.
  • the collation unit 14 uses the test sound data and the collation sound to which the collation parameter at the time of the highest collation rate set by the parameter change unit 40 among the collation rates calculated by the calculation unit 31 is applied. Collate based on the data. With such a configuration, it is possible to reduce erroneous collation in which the speaker of the voice based on the evaluation sound data is determined not to be the same speaker even though the speaker is the speaker of the voice based on the verification sound data.
  • the parameter changing unit 40 when the parameter changing unit 40 changes the matching parameter described above, the parameter changing unit 40 inputs the voice based on the evaluation sound data to the first microphone 10, and the parameter of the first microphone 10 is changed based on the matching parameter. It is configured to change automatically. As a result, the matching parameters can be easily changed, and the speaker of the voice based on the evaluation sound data is not the same speaker even though the speaker is the speaker of the voice based on the matching sound data. It is possible to perform collation using evaluation sound data that can reduce erroneous collation.
  • the microphone unit 1 Collation Processing Next, a specific application example of the microphone unit 1 will be described by taking unlocking of the door shown in FIG. 4 as an example.
  • the user 100 inputs a voice uttering a predetermined word to the second microphone 2A provided in a mobile terminal (an example of the device 2) such as a smartphone (# 1).
  • a mobile terminal an example of the device 2
  • the smartphone # 1
  • voice input via a smartphone can be performed by setting up an application on the smartphone in advance.
  • the voice input to the second microphone 2A is converted into sound data and transmitted to the microphone unit 1 via the communication function (for example, wireless communication) of the smartphone. It is preferable to use a smartphone application to convert such sound data.
  • the sound data acquisition unit 11 of the microphone unit 1 acquires this sound data, and the collation sound data whose feature points are extracted from the sound data by the collation sound data generation unit 3A is used as the collation sound data by the sound data registration unit 12. It will be registered (# 2).
  • the user 100 inputs voice to the first microphone 10 of the microphone unit 1 (# 3). At this time, it is preferable to input the voice by uttering the above-mentioned specific word. At this point, it is not necessary for the microphone unit 1 to specify whether or not the voice input person is the user 100.
  • the input voice is converted into evaluation sound data by the first microphone 10, and is acquired by the evaluation sound data acquisition unit 13.
  • the collation unit 14 collates the feature points extracted from the evaluation sound data with the collation sound data (# 5).
  • the collation result output unit 15 causes the lock unit to utter two voices.
  • a signal is output to the lock unit indicating that the persons are the same person, that is, the speaker of the voice based on the evaluation sound data is the user 100 who is the speaker of the voice based on the matching sound data.
  • the lock is released (# 6).
  • voice is input to the first microphone 10 of the microphone unit 1 by the user 150 who is a different person from the user 100 (# 7).
  • the input voice is converted into evaluation sound data by the first microphone 10, and is acquired by the evaluation sound data acquisition unit 13.
  • the collation unit 14 collates the evaluation sound data with the collation sound data (# 8).
  • the collation result output unit 15 causes the lock unit to be the speaker related to the two voices. Is not the same person, that is, a signal indicating that the voice speaker based on the evaluation sound data is not the user 100 who is the voice speaker based on the collation sound data is output to the lock unit. In this case, the lock is not released and the locked state is maintained (# 9). In such a case, a signal indicating that the speaker of the voice based on the evaluation sound data is not the user 100 who is the speaker of the voice based on the verification sound data is output to the notification unit (not shown), and the notification unit outputs the signal. It is also possible to output and notify the sound or light indicating that the speaker is different.
  • the input voice word is different from the voice word related to the collation sound data, it is possible to determine that the user 150 related to the current utterance is not the user 100.
  • the sleep state is terminated with the acquisition of the evaluation sound data by the evaluation sound data acquisition unit 13 as a trigger.
  • the collation unit 14 can also be configured so as not to go to sleep.
  • the microphone unit 1 includes a first microphone 10, a sound data acquisition unit 11, a sound data registration unit 12, an evaluation sound data acquisition unit 13, a collation unit 14, a collation result output unit 15, and an evaluation unit. 20.
  • the test sound data acquisition unit 30 and the calculation unit 31 may be provided, and further, the test sound data acquisition unit 30 and the calculation unit 31 may be provided.
  • the parameter changing unit 40 may be provided.
  • the microphone unit 1 is described as having the parameter changing unit 40, but the microphone unit 1 can be configured without the parameter changing unit 40.
  • the case where the first microphone 10 is one has been described, but it is also possible to configure a plurality of first microphones 10. In such a case, it is preferable to configure each of the first microphones so that only voice from the desired direction can be input. This makes it possible to recognize only a specific voice and make it easier to match the utterer.
  • the frequency characteristics of the first microphone 10 and the second microphone 2A are evaluated, and the correction unit 21 converts the frequency characteristic of one of the first microphone 10 and the second microphone 2A into the other frequency characteristic. It was explained as correcting so that they match.
  • the user 100 inputs voice to the first microphone 10, and the microphone unit 1 transfers the voice input to the first microphone 10 to the device 2 by wireless communication.
  • the second microphone 2A of the device 2 it is also possible to configure the second microphone 2A of the device 2 to acquire as sound data based on the voice transferred from the microphone unit 1 and register the sound data as collation sound data. With such a configuration, the collation sound data can be directly generated by using the voice input to the first microphone 10, so that the correction for matching the frequency characteristics can be unnecessary.
  • the microphone unit 1 is used for unlocking the door lock.
  • the door lock of the vehicle the start of the power unit of the vehicle (for example, the engine, the motor, etc.), and the vehicle It can also be used for devices provided in the door (hands-free microphone, box with integrated speaker microphone, voice recognition microphone outside the vehicle, voice recognition microphone inside the vehicle).
  • the vehicle can be used for smart speakers, built-in microphones for housing, surveillance cameras, interphones, home appliances (TVs, refrigerators, rice cookers, microwave ovens, etc.), remote controls for baths, and the like. That is, in other words, the microphone unit 1 estimates the utterance content of the voice input to the first microphone 10, and issues an operation command to the device (microphone unit 1) on which the estimated first microphone 10 is mounted. It can be said that.
  • first microphone 10 and the second microphone 2A are different from each other has been described, but the first microphone 10 and the second microphone 2A may be the same microphone.
  • the user 100 inputs a voice uttering a predetermined word to the second microphone 2A provided in a mobile terminal (an example of the device 2) such as a smartphone (#). 1) ”, the user 100 inputs the voice of uttering a predetermined word to the first microphone 10, and the voice input to the first microphone 10 is transmitted to the second microphone 2A via wireless communication. , It can be configured to generate matching sound data. Further, although it has been described as “the collation unit 14 collates the feature points extracted from the evaluation sound data with the collation sound data (# 5)", the extraction of the feature points from the evaluation sound data is also the second. It is also possible to configure it to be performed by the microphone 2A. In any case, each data or feature point can be configured to be transmitted via wireless communication.
  • the present invention can be used for a microphone unit capable of determining whether or not the voice input to the first microphone is the voice of the intended speaker.
  • Microphone unit 2 Different device 2A: 2nd microphone 10: 1st microphone 11: Sound data acquisition unit 12: Sound data registration unit 13: Evaluation sound data acquisition unit 14: Collation unit 15: Collation result output unit 20: Evaluation unit 21: Correction unit 30: Test sound data acquisition unit 31: Calculation unit 40: Parameter change unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

マイクユニット1は、音声を音データとして取得する音データ取得部11と、音データから特徴点を抽出した照合用音データを登録する音データ登録部12と、第1マイクロフォン10に入力された音声を評価用音データとして取得する評価用音データ取得部13と、照合用音データと評価用音データから抽出した特徴点とに基づいて、評価用音データに基づく音声の発声者が照合用音データに基づく音声の発声者であるか否かの照合を行う照合部14と、照合部14の照合結果を出力する照合結果出力部15とを備える。

Description

マイクユニット
 本発明は、第1マイクロフォンに入力された音声が、所期の発声者による音声であるか否かを判定可能なマイクユニットに関する。
 従来、例えば電化製品に対する指示を音声により行う技術が利用されている。このような技術では音声認識が行われる。音声認識に係る技術として、例えば下記に出典を示す特許文献1に記載のものがある。
 特許文献1には、音声対話システムについて記載されている。この音声対話システムは、音声対話装置と音声認識サーバとから構成される。音声対話装置は、音声入力手段に入力された音声を認識し、音声入力手段に入力された音声を音声認識サーバに送信する。音声認識サーバは、音声対話装置から受信した音声を認識する。音声対話装置は、当該音声対話装置における認識結果に基づく応答を出力した後、音声対話装置における認識結果と音声認識サーバにおける認識結果との差分に基づく応答を出力するように構成されている。
特開2018-45190号公報
 特許文献1に記載の技術は、音声対話装置における音声認識処理だけでなく、音声認識サーバにおいても音声認識処理を行っている。このため、音声認識を行うにあたって通信を行う必要があり、通信インフラが整備されていない状況下では利用することができない。また、特許文献1に記載の技術は、音声認識を行う技術であって、音声の発声者を識別することまで想定されていない。
 そこで、認識処理にネットワークを必要とせず、音声の発声者を識別可能なマイクユニットが求められる。
 本発明に係るマイクユニットの特徴構成は、第1マイクロフォンに入力された音声が、所期の発声者による音声であるか否かを判定可能なマイクユニットであって、音声を音データとして取得する音データ取得部と、前記音データから特徴点を抽出した照合用音データを登録する音データ登録部と、前記第1マイクロフォンに入力された音声を評価用音データとして取得する評価用音データ取得部と、前記照合用音データと前記評価用音データから抽出した特徴点とに基づいて、前記評価用音データに基づく音声の発声者が前記照合用音データに基づく音声の発声者であるか否かの照合を行う照合部と、前記照合部の照合結果を出力する照合結果出力部と、を備え、前記照合用音データは、前記第1マイクロフォンが搭載された装置とは異なる装置によって作成され、前記第1マイクロフォンが搭載された装置と前記異なる装置とは無線通信により前記照合用音データの受け渡しが行われる点にある。
 このような特徴構成とすれば、照合用のサーバを備えることなく、照合を行うことができる。すなわち所謂ローカル型認識処理であるので、セキュリティ上、安全に照合を行うことが可能となる。また、容易に予め登録した音声の発声者を特定することが可能となる。
 また、前記照合部がスリープ状態である場合に、前記評価用音データ取得部による前記評価用音データの取得をトリガとして前記スリープ状態を終了すると好適である。
 このような構成とすれば、消費電力を低減できる。
 また、前記音データ取得部が取得する音データは、前記第1マイクロフォンが搭載された装置とは異なる装置に設けられた第2マイクロフォンに入力された音声であって、前記第1マイクロフォン及び前記第2マイクロフォンの双方への音声の入力前に、前記第1マイクロフォンの周波数特性及び前記第2マイクロフォンの周波数特性を評価する評価部と、前記第1マイクロフォン及び前記第2マイクロフォンのうちの一方の周波数特性を他方の周波数特性に一致するように補正する補正部と、を更に備えると好適である。
 このような構成とすれば、第1マイクロフォンの周波数特性と第2マイクロフォンの周波数特性とを同じようにすることで、第1マイクロフォンと第2マイクロフォンとで同じユーザが音声を入力した場合の照合率を高めることができる。
 また、前記照合用音データが登録された後であって、前記評価用音データが取得される前に、前記第1マイクロフォンで前記照合用音データに係る音声を発した発声者の音声を試験用音データとして取得する試験用音データ取得部と、前記試験用音データと前記照合用音データとに基づいて、前記照合に用いる照合用パラメータを変更しながら前記試験用音データに基づく前記発声者の照合率を算定する算定部と、を更に備え、前記照合部は、前記算定部により算定された前記照合率のうち、最も高い照合率である時の前記照合用パラメータに基づいて前記照合を行うと好適である。
 一般的に、誤認率を下げると、照合率も下がるが、中には誤認率だけ下げて、照合率が下がらない照合用パラメータもある。そこで、本構成のように、照合率を算定しながら照合用パラメータを見つけることで、適切な照合用パラメータを設定できる。
 また、前記照合用パラメータは、前記試験用音データ及び前記照合用音データのうちの少なくともいずれか一方を増幅する増幅率であると好適である。
 このような構成とすれば、例えば、第1マイクロフォン及び第2マイクロフォンのうちの少なくともいずれか一方の入力レンジを変更することで、照合率を高めることが可能となる。
 また、前記第1マイクロフォンに対する前記評価用音データに基づく音声の入力時に、当該第1マイクロフォンのパラメータを前記照合用パラメータに基づいて自動で変更するパラメータ変更部を、更に備えると好適である。
 このような構成とすれば、第1マイクロフォンから入力された音声の音声レベルを自動的に抑え、照合率が向上するレベルに変更できる。したがって、自動的に照合率を向上することができる。また、例えば一定の時間だけ記録し、その時間内の平均の音声レベルに基づき、自動で音声レベルを変更するように構成することもできる。
 また、前記マイクユニットは、前記照合部の照合結果に基づいて、前記第1マイクロフォンに入力された音声の発声者を識別すると好適である。
 このような構成とすれば、複数のユーザで利用するマイクユニットに対して入力された音声の発声者を識別できるので、利便性を向上できる。
 また、前記第1マイクロフォンに入力された音声の発声内容を推定し、推定された内容に基づき前記第1マイクロフォンが搭載された装置に対して操作指令を行うと好適である。
 このような構成とすれば、操作指令に基づいて、第1マイクロフォンが搭載された装置の動作を制御することが可能となる。したがって、例えばハンズフリーで第1マイクロフォンが搭載された装置の動作を制御できるので、利便性を向上することが可能となる。
第1の実施形態に係るマイクユニットの構成を示す図である。 第2の実施形態に係るマイクユニットの構成を示す図である。 第3の実施形態に係るマイクユニットの構成を示す図である。 マイクユニットの適用例を示す図である。
1.第1の実施形態
 本発明に係るマイクユニットは、入力された音声が所期の発声者による音声であるか否かの判定を行うことができるように構成されている。以下、本実施形態のマイクユニット1について説明する。
 図1は、本実施形態に係るマイクユニット1の構成を模式的に示すブロック図である。図1に示されるように、マイクユニット1は、第1マイクロフォン10、音データ取得部11、音データ登録部12、評価用音データ取得部13、照合部14、照合結果出力部15の各機能部を備える。これらの各機能部は上述した判定に係る処理を行うために、CPUを中核部材としてハードウェア又はソフトウェア或いはその両方で構築されている。
 第1マイクロフォン10は音声が入力される。第1マイクロフォン10はマイク素子であって、特に構成は限定されるものではない。例えばエレクトレットコンデンサマイク(ECM)や、アナログMEMS(Micro-Electro-Mechanical System)マイクや、デジタルMEMS(Micro-Electro-Mechanical System)マイク等のうち、少なくとも一つを用いて構成すると良い。第1マイクロフォン10に入力された音声は、第1マイクロフォン10により電気信号である音データに変換される。
 音データ取得部11は、音声を音データとして取得する。本実施形態では、音データ取得部11が取得する音データは、第1マイクロフォン10が搭載された装置とは異なる装置2に設けられた第2マイクロフォン2Aに入力された音声である。第1マイクロフォン10が搭載された装置とは、本実施形態ではマイクユニット1である。したがって、第2マイクロフォン2Aはマイクユニット1とは各別に(別体で)設けられる。第2マイクロフォン2Aも第1マイクロフォン10と同様に、例えばエレクトレットコンデンサマイク(ECM)や、アナログMEMS(Micro-Electro-Mechanical System)マイクや、デジタルMEMS(Micro-Electro-Mechanical System)マイク等のうち、少なくとも一つを用いて構成すると良い。第2マイクロフォン2Aに入力された音声は、第2マイクロフォン2Aにより電気信号である音データに変換される。音データ取得部11は、第2マイクロフォン2Aが変換して生成した音データを取得する。
 音データ登録部12は、第2マイクロフォン2Aが生成した音データから特徴点を抽出した照合用音データを登録する。第2マイクロフォン2Aが生成した音データとは、上述したように第2マイクロフォン2Aに入力された音声を変換して(データ化して)生成されたものである。特徴点とは、電気信号(音データ)における特徴であって、例えば周期やピーク値や半値幅等が相当する。したがって、照合用音データは、第2マイクロフォン2Aに入力された音声を変換して生成された電気信号の特徴が抽出されたものが相当する。このような照合用音データは、本マイクユニット1が、第1マイクロフォン10に入力された音声が所期の発声者による音声であるか否かを判定する機能を実現するためのマスター音データにあたり、音データ登録部12にはこのような照合用音データが記録される。
 照合用音データは、第1マイクロフォン10が搭載された装置(マイクユニット1)とは異なる装置によって作成される。第1マイクロフォン10が搭載された装置とは異なる装置とは、マイクユニット1とは異なる装置である。具体的には、第2マイクロフォン2Aが搭載される装置2や、マイクユニット1及び装置2以外の装置3が相当する。本実施形態では、照合用音データは装置3に設けられる照合用音データ生成部3Aにより生成される。照合用音データの受け渡しは、第1マイクロフォン10が搭載された装置と異なる装置とは無線通信によりが行われる。無線通信とは、例えばWi-Fi(登録商標)のようなLAN通信や、Bluetooth(登録商標)のような近距離無線通信が相当する。したがって、本実施形態ではマイクユニット1は、このような無線通信を介して装置3(装置3の照合用音データ生成部3A)から照合用音データが伝達される。なお、第2マイクロフォン2Aが搭載される装置2において、照合用音データを生成する場合には、照合用音データ生成部3Aが装置2に含まれるように構成すると良い。
 マイクユニット1及び装置2以外の装置3が照合用音データを生成する場合には、音データ取得部11が当該マイクユニット1及び装置2以外の装置3に無線通信により音データを伝達し、マイクユニット1及び装置2以外の装置3において作成された照合用音データを無線通信により音データ登録部12が取得するように構成すると良い。
 また、装置2が照合用音データを生成する場合には、音データ取得部11が装置2に無線通信により音データを伝達し、装置2において作成された照合用音データを無線通信により音データ登録部12が取得するように構成しても良いし、音データ取得部11を装置2に備え、装置2において音データ取得部11により取得された音データに基づいて作成された照合用音データを無線通信により音データ登録部12が取得するように構成しても良い。
 例えば、周知の所謂スマートスピーカのようなデバイスでは、マイクロフォンに入力された音声を電子化し、電子化した音声データがインターネット回線を通じて外部デバイス(サーバ)に送信される。一方、本実施形態に係るマイクユニット1では、上述したように照合用音データ生成部3Aにより、音声データから特徴点を抽出して生成された照合用音データが、ペアリングされたデバイスに無線通信を介して送信される。
 評価用音データ取得部13は、第1マイクロフォン10に入力された音声を評価用音データとして取得する。上述したように、第1マイクロフォン10に入力された音声は、第1マイクロフォン10により電気信号である音データに変換される。この音データが評価用音データに相当する。したがって、評価用音データ取得部13は、第1マイクロフォン10に入力された音声を、当該第1マイクロフォン10により電気信号である音データに変換して生成された評価用音データを取得する。
 照合部14は、照合用音データと評価用音データから抽出した特徴点とに基づいて、評価用音データに基づく音声の発声者が照合用音データに基づく音声の発声者であるか否かの照合を行う。照合用音データは音データ登録部12に登録され、記録されている。評価用音データは評価用音データ取得部13により取得される。評価用音データから抽出した特徴点とは、電気信号である評価用音データの特徴であって、例えば周期やピーク値や半値幅等が相当する。このような特徴点は、照合用音データと同様に、マイクユニット1とは異なる装置で生成し、無線通信を介して伝達されるように構成することが可能である。もちろん、照合部14が特徴点を抽出するように構成することも可能である。評価用音データに基づく音声とは、第1マイクロフォン10に入力された音声であって、第1マイクロフォン10により評価用音データに変換される音声である。照合用音データに基づく音声とは、本実施形態では第2マイクロフォン2Aに入力された音声であって、第2マイクロフォン2Aにより照合用音データに変換される音声である。
 したがって、照合部14は、音データ登録部12に記録されている照合用音データと評価用音データ取得部13により取得される評価用音データから抽出した特徴点とに基づいて、第1マイクロフォン10に入力された音声であって、第1マイクロフォン10により評価用音データに変換される音声の発声者が、第2マイクロフォン2Aに入力された音声であって、第2マイクロフォン2Aにより照合用音データに変換される音声の発声者と同一人物であるか否かの照合を行う。
 このような照合は、例えば評価用音データと照合用音データとの特徴部分(上記「特徴点」に相当)を比較して一致点と相違点とを抽出し、一致点と相違点との割合から算定した一致度に基づき行うと良い。具体的には、一致度が予め設定された値よりも大きい場合には、評価用音データに変換された音声の発声者が、照合用音データに変換された音声の発声者と同一人物であると判定し、一致度が予め設定された値以下の場合には、評価用音データに変換された音声の発声者が、照合用音データに変換された音声の発声者と同一人物でないと判定することが可能である。もちろん、このような方法とは異なる方法(例えば公知の声紋解析等)により行うことも可能である。
 ここで、照合部14による照合は演算処理を要することから照合部14を常時、稼働状態とする場合には消費電力が増大する。そこで、照合部14は照合を行う場合にのみ稼働状態にし、照合を行わない場合にはスリープ状態にすると好適である。係る場合、照合部14がスリープ状態である場合に、例えば、評価用音データ取得部13による評価用音データの取得をトリガとしてスリープ状態を終了すると良い。評価用音データ取得部13による評価用音データの取得したことは、評価用音データ取得部13による評価用音データの取得したことを示す情報を照合部14に伝達することで示しても良いし、評価用音データを照合部14に伝達することで示しても良い。また、第1マイクロフォン10が音声を検出(Voice Active Detection)したことを示す情報を、評価用音データ取得部13を介して照合部14に伝達して示すように構成することも可能である。
 これにより、照合部14が照合を行う場合にのみ照合部14を稼働状態にできるので、他の状態にあっては消費電力を低減できる。このような構成は、スリープ時の照合部14の動作周波数を、稼働時の動作周波数に比べて低く設定することで実現可能である。更に、このような互いに異なる動作周波数を実現するために、例えばスリープ時は照合部14の外部からのクロック(外部クロック)により動作させ、稼働時は照合部14で生成したクロック(内部クロック)により動作させることも可能である。
 あるいは、上記構成に代え、ユーザのボタン操作(スイッチ操作)に応じて、照合部14がスリープ状態を解除するように構成することも可能である。
 照合結果出力部15は、照合部14の照合結果を出力する。照合部14の照合結果とは、評価用音データに変換された音声の発声者が、照合用音データに変換された音声の発声者と同一人物であるか否かの判定結果である。すなわち、第1マイクロフォン10に入力された音声の発声者が、第2マイクロフォン2Aに入力された音声の発声者と同一人物であるか否かの判定結果である。照合結果出力部15は、このような判定結果を表示装置に出力し、当該表示装置が表示しても良い。あるいは、このような判定結果をスピーカに出力し、当該スピーカが報知しても良い。更には、判定結果を他の制御装置に出力し、当該他の制御装置が制御に利用しても良い。
 例えば照合部14の照合結果に基づいて、第1マイクロフォン10に入力された音声の発声者を識別するように構成することも可能である。係る場合、発声者の識別結果をスピーカや表示装置で出力するように構成しても良い。更には、識別結果を他の制御装置に出力し、当該他の制御装置が制御に利用しても良い。
2.第2の実施形態
 次に、第2の実施形態について説明する。第2の実施形態に係るマイクユニット1は、上記第1の実施形態に係るマイクユニット1に、評価部20及び補正部21を備えている点が異なる。この点以外については、第1の実施形態と同様であるので、ここでは主に異なる点を中心に説明する。
 図2は、本実施形態に係るマイクユニット1の構成を模式的に示すブロック図である。図2に示されるように、本実施形態のマイクユニット1は、第1マイクロフォン10、音データ取得部11、音データ登録部12、評価用音データ取得部13、照合部14、照合結果出力部15、評価部20、補正部21の各機能部を備える。評価部20及び補正部21も、第1の実施形態で説明した他の各機能部と同様に、上述した判定に係る処理を行うために、CPUを中核部材としてハードウェア又はソフトウェア或いはその両方で構築されている。
 評価部20は、第1マイクロフォン10及び第2マイクロフォン2Aの双方への音声の入力前に、第1マイクロフォン10の周波数特性及び第2マイクロフォン2Aの周波数特性を評価する。第1マイクロフォン10及び第2マイクロフォン2Aの双方への音声の入力前とは、第1マイクロフォン10及び第2マイクロフォン2Aの双方に対する音声の入力が完了する前である。
 すなわち、第1マイクロフォン10及び第2マイクロフォン2Aの双方への音声の入力前とは、第1マイクロフォン10及び第2マイクロフォン2Aの双方に対して音声が入力されていない状態と、第1マイクロフォン10に対してのみ音声が入力されている状態と、第2マイクロフォン2Aに対してのみ音声が入力されている状態とが該当し、第1マイクロフォン10及び第2マイクロフォン2Aのうちの少なくともいずれか一方に対して音声が入力されていない状態である。
 第1マイクロフォン10の周波数特性及び第2マイクロフォン2Aの周波数特性は、夫々のマイクロフォンについて予め規定されているので、このような周波数特性を記憶部(図示しない)に記憶しておいて評価部20が取得しても良いし、評価部20が実際に第1マイクロフォン10や第2マイクロフォン2Aに通電して周波数解析を行って取得しても良い。評価部20は、取得した第1マイクロフォン10の周波数特性及び第2マイクロフォン2Aの周波数特性の差異を算定する。
 補正部21は、第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方の周波数特性を他方の周波数特性に一致するように補正する。上述したように、第1マイクロフォン10の周波数特性及び第2マイクロフォン2Aの周波数特性は評価部20により評価されている。また、評価部20による評価は、第1マイクロフォン10及び第2マイクロフォン2Aのうちの少なくともいずれか一方に対して音声が入力されていない状態に行われる。
 音声が入力されていない状態における第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方とは、第1マイクロフォン10及び第2マイクロフォン2Aの双方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aの一方が相当し、第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aのうち、音声が入力されていないものが相当する。
 また、音声が入力されていない状態における第1マイクロフォン10及び第2マイクロフォン2Aのうちの他方とは、第1マイクロフォン10及び第2マイクロフォン2Aの双方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aの他方が相当し、第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aのうち、音声が入力されているものが相当する。
 したがって、補正部21は、第1マイクロフォン10及び第2マイクロフォン2Aの双方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aの一方の周波数特性を、第1マイクロフォン10及び第2マイクロフォン2Aの他方の周波数特性に一致するように補正し、第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方に対して音声が入力されていない状態にあっては、第1マイクロフォン10及び第2マイクロフォン2Aのうち、音声が入力されていないものの周波数特性を、第1マイクロフォン10及び第2マイクロフォン2Aのうち、音声が入力されているものの周波数特性に一致するように補正する。
 以上のように構成することで、第1マイクロフォン10及び第2マイクロフォン2Aのうち、少なくとも後に音声が入力されるものを、先に入力されるものの周波数特性に一致させることができるので、マイクロフォンの周波数特性の差異に起因した照合の誤りを低減できる。
3.第3の実施形態
 次に、第3の実施形態について説明する。第3の実施形態に係るマイクユニット1は、上記第1の実施形態に係るマイクユニット1に、試験用音データ取得部30、算定部31、及びパラメータ変更部40を備えている点が異なる。この点以外については、第1の実施形態と同様であるので、ここでは主に異なる点を中心に説明する。
 図3は、本実施形態に係るマイクユニット1の構成を模式的に示すブロック図である。図3に示されるように、本実施形態のマイクユニット1は、第1マイクロフォン10、音データ取得部11、音データ登録部12、評価用音データ取得部13、照合部14、照合結果出力部15、試験用音データ取得部30、算定部31、及びパラメータ変更部40の各機能部を備える。試験用音データ取得部30、算定部31、及びパラメータ変更部40も、第1の実施形態で説明した他の各機能部と同様に、上述した判定に係る処理を行うために、CPUを中核部材としてハードウェア又はソフトウェア或いはその両方で構築されている。
 試験用音データ取得部30は、照合用音データが登録された後であって、第1マイクロフォン10から評価用音データが取得される前に、第1マイクロフォン10で照合用音データに係る音声を発した発声者の音声を試験用音データとして取得する。照合用音データが登録された後とは、第2マイクロフォン2Aに入力された音声を変換して生成された照合用音データが音データ登録部12に登録された後である。評価用音データが取得される前とは、評価用音データ取得部13により第1マイクロフォン10に入力された音声を変換して生成された評価用音データが取得される前である。第1マイクロフォン10で照合用音データに係る音声を発した発声者の音声とは、音データ登録部12に登録された照合用音データの基となる音声を発した発声者と同一の発声者の音声であって、第1マイクロフォン10から取得した音声である。
 したがって、試験用音データ取得部30は、音データ登録部12に第2マイクロフォン2Aに入力された音声を変換して生成された照合用音データが登録されてから、評価用音データ取得部13により第1マイクロフォン10に入力された音声を変換して生成された評価用音データが取得されるまでの間に、音データ登録部12に登録された照合用音データの基となる音声を発した発声者と同一の発声者により入力された音声を第1マイクロフォン10から試験用音データに変換して取得する。
 算定部31は、試験用音データと照合用音データとに基づいて、照合に用いる照合用パラメータを変更しながら試験用音データに基づく発声者の照合率を算定する。算定部31は、試験用音データを試験用音データ取得部30から取得し、照合用音データを音データ登録部12から取得する。照合に用いるパラメータとは、試験用音データの基となる音声の発声者が照合用音データの基となる音声の発声者であると照合されるように、試験用音データ及び照合用音データの少なくともいずれか一方を補正するパラメータである。
 本実施形態では、照合用パラメータは、試験用音データ及び照合用音データのうちの少なくともいずれか一方を増幅する増幅率が相当する。例えば、試験用音データと照合用音データとの振幅を互いに等しくするように、第1マイクロフォン10における試験用音データ及び第2マイクロフォン2Aにおける照合用音データの少なくとも一方を増幅すると良い。この時の増幅率が照合用パラメータにあたる。
 算定部31は、増幅率を順次、変更しながら、入力された試験用音データ及び照合用音データの一方又は双方を増幅し、試験用音データの基となる音声の発声者と照合用音データの基となる音声の発声者とが、同一の発声者であると照合されるか否かを算定する。算定部31は、このような算定結果を記憶する。
 パラメータ変更部40には、算定部31により算定された照合率のうち、最も高い照合率である時の照合用パラメータ(増幅率)が伝達され、その照合パラメータが第1マイクロフォン10及び第2マイクロフォン2Aの少なくともいずれか一方に設定される。そして、照合部14は、算定部31により算定された照合率のうち、パラメータ変更部40により設定された最も高い照合率である時の照合用パラメータが適用された試験用音データと照合用音データとに基づいて照合を行う。このような構成により、評価用音データに基づく音声の発声者が、照合用音データに基づく音声の発声者であるにも拘らず、同じ発声者でないと判定する誤照合を低減できる。
 本実施形態では、上述した照合用パラメータの変更は、パラメータ変更部40が、第1マイクロフォン10に対する評価用音データに基づく音声の入力時に、当該第1マイクロフォン10のパラメータを照合用パラメータに基づいて自動で変更するように構成されている。これにより、照合用パラメータを容易に変更することができ、また、評価用音データに基づく音声の発声者が、照合用音データに基づく音声の発声者であるにも拘らず、同じ発声者でないと判定する誤照合を低減可能な評価用音データを用いて照合をすることが可能となる。
4.照合処理
 次に、マイクユニット1の具体的な適用例について、図4に示すドアのロック解除を例に挙げて説明する。まず、ユーザ100がスマートフォン等の携帯端末(装置2の一例)に備えられた第2マイクロフォン2Aに、所定の単語を発声した音声を入力する(#1)。このようにスマートフォンを介した音声の入力は、予めスマートフォンにアプリケーションをセットアップしておくことで行うことが可能である。
 第2マイクロフォン2Aに入力された音声は音データに変換され、スマートフォンの通信機能(例えば無線通信)を介して、マイクユニット1に伝達される。このような音データへの変換もスマートフォンのアプリケーションを利用して行うと好適である。マイクユニット1の音データ取得部11がこの音データを取得し、照合用音データ生成部3Aにより音データから特徴点が抽出された照合用音データが音データ登録部12により照合用音データとして登録される(#2)。
 このような状態において、ユーザ100によりマイクユニット1の第1マイクロフォン10に音声が入力される(#3)。この時、上述した特定の単語を発声することで音声を入力すると良い。なお、この時点においてマイクユニット1は音声の入力者がユーザ100であるか否かは特定されていなくても良い。入力された音声は第1マイクロフォン10により評価用音データに変換され、評価用音データ取得部13が取得する。照合部14が、評価用音データから抽出した特徴点を照合用音データと照合する(#5)。
 照合部14により、評価用音データに基づく音声の発声者が、照合用音データの音声に基づく発声者であると判定されると、照合結果出力部15がロックユニットに2つの音声に係る発声者が同一人物である、すなわち、評価用音データに基づく音声の発声者が照合用音データに基づく音声の発声者であるユーザ100であることを示す信号をロックユニットに出力する。これにより、ロックが解除される(#6)。
 一方、#2の状態において、ユーザ100とは別人であるユーザ150によりマイクユニット1の第1マイクロフォン10に音声が入力される(#7)。なお、この時点においてマイクユニット1は音声の入力者がユーザ150であるか否かは特定されていなくても良い。入力された音声は第1マイクロフォン10により評価用音データに変換され、評価用音データ取得部13が取得する。照合部14が、評価用音データを照合用音データと照合する(#8)。
 照合部14により、評価用音データに基づく音声の発声者が、照合用音データの音声に基づく発声者でないと判定されると、照合結果出力部15がロックユニットに2つの音声に係る発声者が同一人物でない、すなわち、評価用音データに基づく音声の発声者が照合用音データに基づく音声の発声者であるユーザ100でないことを示す信号をロックユニットに出力する。この場合には、ロックが解除されず、ロック状態が維持される(#9)。なお、係る場合、評価用音データに基づく音声の発声者が照合用音データに基づく音声の発声者であるユーザ100でないことを示す信号を報知部(図示せず)に出力し、報知部が発声者が異なっていることを示す音や光を出力して報知するように構成することも可能である。
 なお、入力された音声に係る単語が、照合用音データに係る音声の単語と異なっていれば、今回の発声に係るユーザ150がユーザ100でないと判定することも可能である。 
5.その他の実施形態
 上記第1の実施形態では、照合部14がスリープ状態である場合に、評価用音データ取得部13による評価用音データの取得をトリガとしてスリープ状態を終了するとして説明したが、照合部14はスリープ状態にならないように構成することも可能である。
 上記第2の実施形態では、マイクユニット1は、第1マイクロフォン10、音データ取得部11、音データ登録部12、評価用音データ取得部13、照合部14、照合結果出力部15、評価部20、補正部21の各機能部を備えるとして説明したが、試験用音データ取得部30及び算定部31を備えて構成しても良いし、更に、試験用音データ取得部30及び算定部31に加え、パラメータ変更部40を備えて構成しても良い。
 上記第3の実施形態では、マイクユニット1がパラメータ変更部40を備えるとして説明したが、マイクユニット1はパラメータ変更部40を備えずに構成することも可能である。
 上記実施形態では、第1マイクロフォン10が1つである場合の例を挙げて説明したが、第1マイクロフォン10を複数備えて構成することも可能である。係る場合、第1マイクロフォンの夫々に所期の方向からの音声のみが入力可能なるように構成すると好適である。これにより、特定の音声のみを認識し、発声者を照合し易くすることが可能となる。
 上記第2の実施形態では、第1マイクロフォン10と第2マイクロフォン2Aの周波数特性を評価し、補正部21が第1マイクロフォン10及び第2マイクロフォン2Aのうちの一方の周波数特性を他方の周波数特性に一致するように補正するとして説明した。これに代え、まず、ユーザ100は第1マイクロフォン10に対して音声を入力し、マイクユニット1が第1マイクロフォン10に入力された音声を無線通信で装置2に転送する。次に、装置2の第2マイクロフォン2Aが、マイクユニット1から転送された音声に基づいて、音データとして取得し、音データを照合用音データとして登録するように構成することも可能である。このような構成であれば、直接、第1マイクロフォン10に入力された音声を用いて照合用音データを生成できるため、周波数特性を一致させるような補正を不要とできる。また、係る構成であっても、第1マイクロフォン10と第2マイクロフォン2Aとの周波数特性の差異に基づく誤った照合を防止できる。また、第1マイクロフォン10に音データ取得部11への伝達機能を持たせることなく、第2マイクロフォン2Aを有する装置2における機能(音データ取得部11への伝達機能)を有効に活用することができると共に、予め周波数特性を補正する必要がないので効率的である。
 上記実施形態では、マイクユニット1をドアロックの解錠に利用する場合の例を挙げて説明したが、例えば車両のドアロックや、車両の動力装置(例えばエンジンやモータ等)の始動や、車両に設けられるデバイス(ハンズフリーマイクや、スピーカマイク一体型ボックスや、車外音声認識マイク、車内音声認識マイク)に利用することも可能である。また、車両に拘らず、スマートスピーカや、住設組み込み用マイク、監視カメラ、インタホン、家電機器(テレビ、冷蔵庫、炊飯器、電子レンジ等)、風呂用リモコン等に利用することも可能である。すなわち、換言すれば、マイクユニット1は第1マイクロフォン10に入力された音声の発声内容を推定し、推定された第1マイクロフォン10が搭載された装置(マイクユニット1)に対して操作指令を行うといえる。
 上記実施形態では、第1マイクロフォン10と第2マイクロフォン2Aとは互いに異なるマイクロフォンである場合の例を挙げて説明したが、第1マイクロフォン10と第2マイクロフォン2Aとは同じマイクロフォンであっても良い。
 上記実施形態では、「4.照合処理」において、「ユーザ100がスマートフォン等の携帯端末(装置2の一例)に備えられた第2マイクロフォン2Aに、所定の単語を発声した音声を入力する(#1)」として説明したが、ユーザ100が第1マイクロフォン10に、所定の単語を発声した音声を入力し、第1マイクロフォン10に入力された音声を第2マイクロフォン2Aに無線通信を介して伝達し、照合用音データを生成するように構成することが可能である。更には、「照合部14が、評価用音データから抽出した特徴点を照合用音データと照合する(#5)」として説明したが、評価用音データからの特徴点の抽出も、第2マイクロフォン2Aにて行うように構成することも可能である。いずれの場合であっても、各データや特徴点は、無線通信を介して伝達するように構成することが可能である。
 本発明は、第1マイクロフォンに入力された音声が、所期の発声者による音声であるか否かを判定可能なマイクユニットに用いることが可能である。
 1:マイクユニット
 2:異なる装置
 2A:第2マイクロフォン
 10:第1マイクロフォン
 11:音データ取得部
 12:音データ登録部
 13:評価用音データ取得部
 14:照合部
 15:照合結果出力部
 20:評価部
 21:補正部
 30:試験用音データ取得部
 31:算定部
 40:パラメータ変更部

Claims (8)

  1.  第1マイクロフォンに入力された音声が、所期の発声者による音声であるか否かを判定可能なマイクユニットであって、
     音声を音データとして取得する音データ取得部と、
     前記音データから特徴点を抽出した照合用音データを登録する音データ登録部と、
     前記第1マイクロフォンに入力された音声を評価用音データとして取得する評価用音データ取得部と、
     前記照合用音データと前記評価用音データから抽出した特徴点とに基づいて、前記評価用音データに基づく音声の発声者が前記照合用音データに基づく音声の発声者であるか否かの照合を行う照合部と、
     前記照合部の照合結果を出力する照合結果出力部と、
    を備え、
     前記照合用音データは、前記第1マイクロフォンが搭載された装置とは異なる装置によって作成され、前記第1マイクロフォンが搭載された装置と前記異なる装置とは無線通信により前記照合用音データの受け渡しが行われるマイクユニット。
  2.  前記照合部がスリープ状態である場合に、前記評価用音データ取得部による前記評価用音データの取得をトリガとして前記スリープ状態を終了する請求項1に記載のマイクユニット。
  3.  前記音データ取得部が取得する音データは、前記第1マイクロフォンが搭載された装置とは異なる装置に設けられた第2マイクロフォンに入力された音声であって、
     前記第1マイクロフォン及び前記第2マイクロフォンの双方への音声の入力前に、前記第1マイクロフォンの周波数特性及び前記第2マイクロフォンの周波数特性を評価する評価部と、
     前記第1マイクロフォン及び前記第2マイクロフォンのうちの一方の周波数特性を他方の周波数特性に一致するように補正する補正部と、を更に備える請求項1又は2に記載のマイクユニット。
  4.  前記照合用音データが登録された後であって、前記評価用音データが取得される前に、前記第1マイクロフォンで前記照合用音データに係る音声を発した発声者の音声を試験用音データとして取得する試験用音データ取得部と、
     前記試験用音データと前記照合用音データとに基づいて、前記照合に用いる照合用パラメータを変更しながら前記試験用音データに基づく前記発声者の照合率を算定する算定部と、を更に備え、
     前記照合部は、前記算定部により算定された前記照合率のうち、最も高い照合率である時の前記照合用パラメータに基づいて前記照合を行う請求項1から3のいずれか一項に記載のマイクユニット。
  5.  前記照合用パラメータは、前記試験用音データ及び前記照合用音データのうちの少なくともいずれか一方を増幅する増幅率である請求項4に記載のマイクユニット。
  6.  前記第1マイクロフォンに対する前記評価用音データに基づく音声の入力時に、当該第1マイクロフォンのパラメータを前記照合用パラメータに基づいて自動で変更するパラメータ変更部を、更に備える請求項4又は5に記載のマイクユニット。
  7.  前記照合部の照合結果に基づいて、前記第1マイクロフォンに入力された音声の発声者を識別する請求項1から6のいずれか一項に記載のマイクユニット。
  8.  前記第1マイクロフォンに入力された音声の発声内容を推定し、推定された内容に基づき前記第1マイクロフォンが搭載された装置に対して操作指令を行う請求項1から7のいずれか一項に記載のマイクユニット。
PCT/JP2020/022616 2019-07-17 2020-06-09 マイクユニット WO2021010056A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/626,982 US20220415330A1 (en) 2019-07-17 2020-06-09 Microphone unit
CN202080051540.6A CN114080641A (zh) 2019-07-17 2020-06-09 麦克风单元
EP20840120.8A EP4002356A4 (en) 2019-07-17 2020-06-09 MICROPHONE UNIT
JP2021532725A JP7462634B2 (ja) 2019-07-17 2020-06-09 マイクユニット

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-131930 2019-07-17
JP2019131930 2019-07-17

Publications (1)

Publication Number Publication Date
WO2021010056A1 true WO2021010056A1 (ja) 2021-01-21

Family

ID=74210556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022616 WO2021010056A1 (ja) 2019-07-17 2020-06-09 マイクユニット

Country Status (5)

Country Link
US (1) US20220415330A1 (ja)
EP (1) EP4002356A4 (ja)
JP (1) JP7462634B2 (ja)
CN (1) CN114080641A (ja)
WO (1) WO2021010056A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63223965A (ja) * 1987-03-13 1988-09-19 Toshiba Corp 知的ワ−クステ−シヨン
JP2005241215A (ja) * 2004-02-27 2005-09-08 Mitsubishi Electric Corp 電気機器、冷蔵庫、冷蔵庫の操作方法
JP2006003451A (ja) * 2004-06-15 2006-01-05 Brother Ind Ltd 対象者特定装置,催事動向分析装置及び催事動向分析システム
JP2006126558A (ja) * 2004-10-29 2006-05-18 Asahi Kasei Corp 音声話者認証システム
WO2014112375A1 (ja) * 2013-01-17 2014-07-24 日本電気株式会社 話者識別装置、話者識別方法、および話者識別用プログラム
US20180040323A1 (en) * 2016-08-03 2018-02-08 Cirrus Logic International Semiconductor Ltd. Speaker recognition
JP2018045190A (ja) 2016-09-16 2018-03-22 トヨタ自動車株式会社 音声対話システムおよび音声対話方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223281A (ja) * 1995-02-10 1996-08-30 Kokusai Electric Co Ltd 携帯電話機
JP2003066985A (ja) * 2001-08-22 2003-03-05 Nec Corp 携帯型通信機器の使用者認証方式
RU2230375C2 (ru) * 2002-09-03 2004-06-10 Общество с ограниченной ответственностью "Центр речевых технологий" Метод распознавания диктора и устройство для его осуществления
JP2004219728A (ja) * 2003-01-15 2004-08-05 Matsushita Electric Ind Co Ltd 音声認識装置
JP2007057805A (ja) * 2005-08-24 2007-03-08 Denso Corp 車両用情報処理装置
US20100097178A1 (en) * 2008-10-17 2010-04-22 Pisz James T Vehicle biometric systems and methods
JP6081966B2 (ja) * 2014-07-18 2017-02-15 キャンバスマップル株式会社 情報検索装置、情報検索プログラム、および情報検索システム
US9257120B1 (en) * 2014-07-18 2016-02-09 Google Inc. Speaker verification using co-location information
JP6531776B2 (ja) * 2017-04-25 2019-06-19 トヨタ自動車株式会社 音声対話システムおよび音声対話方法
CN108926111A (zh) * 2018-07-23 2018-12-04 广州维纳斯家居股份有限公司 智能升降桌声音控制方法、装置、智能升降桌及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63223965A (ja) * 1987-03-13 1988-09-19 Toshiba Corp 知的ワ−クステ−シヨン
JP2005241215A (ja) * 2004-02-27 2005-09-08 Mitsubishi Electric Corp 電気機器、冷蔵庫、冷蔵庫の操作方法
JP2006003451A (ja) * 2004-06-15 2006-01-05 Brother Ind Ltd 対象者特定装置,催事動向分析装置及び催事動向分析システム
JP2006126558A (ja) * 2004-10-29 2006-05-18 Asahi Kasei Corp 音声話者認証システム
WO2014112375A1 (ja) * 2013-01-17 2014-07-24 日本電気株式会社 話者識別装置、話者識別方法、および話者識別用プログラム
US20180040323A1 (en) * 2016-08-03 2018-02-08 Cirrus Logic International Semiconductor Ltd. Speaker recognition
JP2018045190A (ja) 2016-09-16 2018-03-22 トヨタ自動車株式会社 音声対話システムおよび音声対話方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4002356A4

Also Published As

Publication number Publication date
US20220415330A1 (en) 2022-12-29
EP4002356A4 (en) 2023-05-24
JPWO2021010056A1 (ja) 2021-01-21
CN114080641A (zh) 2022-02-22
EP4002356A1 (en) 2022-05-25
JP7462634B2 (ja) 2024-04-05

Similar Documents

Publication Publication Date Title
US10485049B1 (en) Wireless device connection handover
US10721661B2 (en) Wireless device connection handover
US11735191B2 (en) Speaker recognition with assessment of audio frame contribution
US8364486B2 (en) Speech understanding method and system
JP6402748B2 (ja) 音声対話装置および発話制御方法
CN111656440A (zh) 说话人辨识
US11425510B2 (en) Method of coupling hearing devices to one another, and hearing device
US20180158462A1 (en) Speaker identification
US10425746B2 (en) Method for operating a hearing apparatus, and hearing apparatus
CN113643707A (zh) 一种身份验证方法、装置和电子设备
JP2019184809A (ja) 音声認識装置、音声認識方法
US11064281B1 (en) Sending and receiving wireless data
JP2019035258A (ja) 車両用制御システム
JP2007156688A (ja) ユーザ認証装置およびその方法
WO2021010056A1 (ja) マイクユニット
JP6239826B2 (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JP2006048091A (ja) 自動車設備遠隔制御システム
JP2015055835A (ja) 話者認識装置、話者認識方法及び話者認識プログラム
JP2006025079A (ja) ヘッドセット及び無線通信システム
JP2018055155A (ja) 音声対話装置および音声対話方法
WO2019175960A1 (ja) 音声処理装置および音声処理方法
KR20080023033A (ko) 지능형 로봇 서비스 시스템에서 무선 마이크로폰을 이용한화자 인식 방법 및 장치
JP3522421B2 (ja) 話者認識システムおよび話者認識方法
JP7310594B2 (ja) 車両用通信システム
JP7287269B2 (ja) 車両用通信システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20840120

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021532725

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020840120

Country of ref document: EP

Effective date: 20220217