CN113475095A - 信息处理设备、可穿戴设备、信息处理方法以及存储介质 - Google Patents

信息处理设备、可穿戴设备、信息处理方法以及存储介质 Download PDF

Info

Publication number
CN113475095A
CN113475095A CN202080016555.9A CN202080016555A CN113475095A CN 113475095 A CN113475095 A CN 113475095A CN 202080016555 A CN202080016555 A CN 202080016555A CN 113475095 A CN113475095 A CN 113475095A
Authority
CN
China
Prior art keywords
acoustic information
acoustic
user
information
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080016555.9A
Other languages
English (en)
Inventor
冈部浩司
荒川隆行
越仲孝文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN113475095A publication Critical patent/CN113475095A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17857Geometric disposition, e.g. placement of microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17873General system configurations using a reference signal without an error signal, e.g. pure feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3027Feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/321Physical
    • G10K2210/3219Geometry of the configuration
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Otolaryngology (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Headphones And Earphones (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明提供了:第一声学信息获取单元,其获取通过利用用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;第二声学信息获取单元,其获取通过利用可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,第二声源与第一声源不同;以及第三声学信息获取单元,其基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。

Description

信息处理设备、可穿戴设备、信息处理方法以及存储介质
技术领域
本发明涉及一种信息处理设备、可穿戴设备、信息处理方法以及存储介质。
背景技术
专利文件1公开了一种具有人认证功能的头戴式耳机。作为人认证功能的示例,专利文件1进一步公开了一种基于耳内的声学特性来确定人的方法。
[引用列表]
[专利文件]
PTL1:日本专利申请公开No.2004-65363
发明内容
[技术问题]
由如专利文件1中描述的可穿戴设备获取的声学特性可以取决于佩戴状态变化。因此,佩戴状态的不同可以影响基于声学特性的匹配的准确性。
本发明旨在提供一种信息处理设备、可穿戴设备、信息处理方法以及存储介质,其可以使用可穿戴设备所获取的声学信息提高生物特征匹配的准确性。
[问题的解决方案]
根据本发明的一个示例方面,提供了一种信息处理设备,该信息处理设备包括:第一声学信息获取单元,其配置为获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;第二声学信息获取单元,其配置为获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及第三声学信息获取单元,其配置为基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
根据本发明的另一个示例方面,提供了一种可穿戴设备,该可穿戴设备包括:第一声学信息获取单元,其配置为获取接收由用户佩戴的可穿戴设备通过从第一声源发出的声波而获得的第一声学信息;第二声学信息获取单元,其配置为获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及第三声学信息获取单元,其配置为基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
根据本发明的另一个示例方面,提供了一种信息处理方法,该信息处理方法包括:获取接收由用户佩戴的可穿戴设备通过从第一声源发出的声波而获得的第一声学信息;获取接收由可穿戴设备通过从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
根据本发明的另一个示例方面,提供了一种存储介质,该存储介质存储程序,该程序使计算机执行:获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
[发明的有益效果]
根据本发明,可以提供一种信息处理设备、可穿戴设备、信息处理方法以及存储介质,其可以使用可穿戴设备所获取的声学信息提高生物特征匹配的准确性。
附图说明
[图1]
图1是图示了根据第一示例实施例的信息处理系统的总体配置的示意图。
[图2]
图2是图示了根据第一示例实施例的耳机的硬件配置的框图。
[图3]
图3是图示了根据第一示例实施例的信息通信设备的硬件配置的框图。
[图4]
图4是图示了根据第一示例实施例的耳机和信息通信设备的功能框图。
[图5]
图5是图示了根据第一示例实施例的由信息通信设备执行的佩戴确定处理的流程图。
[图6]
图6是示出了线性调频信号的特性的曲线图。
[图7]
图7是示出了M序列信号或白噪声的特性的曲线图。
[图8]
图8是图示了根据第二示例实施例的耳机和信息通信设备的功能框图。
[图9]
图9是图示了根据第二示例实施例的由信息通信设备执行的佩戴确定处理的流程图。
[图10]
图10是图示了根据第三示例实施例的信息处理系统的总体配置的示意图。
[图11]
图11是图示了根据第四示例实施例的信息通信设备的功能框图。
具体实施方式
本发明的示例性示例实施例在下面将参照图进行描述。在整个图中,相同的组件或相应的组件用相同的参考来标记,并且其描述可以被省略或简化。
[第一示例实施例]
根据本示例实施例的信息处理系统将被描述。本示例实施例的信息处理系统是用于通过诸如耳机的可穿戴设备执行生物特征匹配的系统。
图1是图示了根据本示例实施例的信息处理系统的总体配置的示意图。信息处理系统被设置有信息通信设备1和耳机2,它们通过无线通信相互连接。
耳塞2包括耳机控制设备20、扬声器26以及麦克风27。耳机2是能够被佩戴在用户3的耳朵上的声学设备,并且通常是无线耳机、无线耳麦等。扬声器26充当声波生成单元,该声波生成单元在被佩戴时向用户3的耳道发出声波,并且被布置在耳机2的佩戴表面侧。麦克风27也被布置在耳机2的佩戴表面侧,以在被佩戴时接收在用户的耳道等中回响的声波。耳机控制设备20控制扬声器26和麦克风27,并且与信息通信设备1进行通信。
注意,在本说明书中,诸如声波和语音等“声音”包括频率或声压级在可听范围之外的听不见的声音。
例如,信息通信设备1是计算机,该计算机被通信地连接到耳机2,并且基于声学信息执行生物特征匹配。信息通信设备1进一步控制耳机2的操作、发送从耳机2发出的用于生成声波的音频数据,并且接收从耳机2所接收到的声波获取的音频数据。作为具体示例,当用户3使用耳机2听音乐时,信息通信设备1将音乐的压缩数据发送到耳机2。当耳机2是在活动场所、医院等的用于业务命令的电话设备时,信息通信设备1将业务指令的音频数据发送到耳机2。在这种情况下,用户3的话语的音频数据可以从耳机2发送到信息通信设备1。
注意,总体配置是示例,并且例如,信息通信设备1和耳机2可以通过线缆连接。进一步地,信息通信设备1和耳机2可以被配置为集成的设备,并且进一步地,另一个设备可以被包括在信息处理系统中。
图2是图示了耳机控制设备20的硬件配置示例的框图。耳机控制设备20包括中央处理单元(CPU)201、随机存取存储器(RAM)202、只读存储器(ROM)203以及闪速存储器204。耳机控制设备20还包括扬声器接口(I/F)205、麦克风I/F 206、通信I/F 207以及电池208。注意,耳机控制设备20的每个单元都经由总线、接线、驱动设备等(未示出)相互连接。
CPU 201是具有以下功能的处理器:根据存储在ROM 203、闪速存储器204等中的程序执行预定计算,并且也控制耳机控制设备20的每个单元。RAM 202由易失性存储介质组成并且提供CPU 201的操作所需的临时存储区。ROM 203由非易失性存储介质组成并且存储必要的信息,诸如用于耳机控制设备20的操作的程序。闪速存储器204是从非易失性存储介质配置的并且暂时存储数据、存储耳机控制设备20的操作程序等的存储设备。
通信I/F 207是基于诸如Bluetooth(注册商标)和Wi-Fi(注册商标)的标准的通信接口,并且是用于执行与信息通信设备1的通信的模块。
扬声器I/F 205是用于驱动扬声器26的接口。扬声器I/F 205包括数字到模拟转换电路、放大器等。扬声器I/F 205将音频数据转换为模拟信号并且将模拟信号供应给扬声器26。因此,扬声器26基于音频数据发出声波。
麦克风I/F 206是用于从麦克风27获取信号的接口。麦克风I/F 206包括模拟到数字转换电路、放大器等。麦克风I/F 206将由麦克风27接收到的声波生成的模拟信号转换为数字信号。因此,耳机控制设备20基于接收到的声波获取音频数据。
例如,电池208是二次电池,并且供应耳机2的操作所需的电力。因此,耳机2能够无线地操作,而不通过线缆被连接到外部电源。
注意,图2中所图示的硬件配置是示例,可以添加其他设备或可以不提供一些设备。进一步地,一些设备可以被替换成具有相似功能的另一个设备。例如,耳机2可以进一步被设置有诸如按钮的输入设备,以便能够接收用户3的操作,并且进一步被设置有用于向用户3提供信息的诸如显示器或指示灯的显示设备。因此,图2中所图示的硬件配置能够被适当地改变。
图3是图示了信息通信设备1的硬件配置示例的框图。信息通信设备1包括CPU101、RAM 102、ROM 103以及硬盘驱动器(HDD)104。信息通信设备1还包括通信I/F 105、输入设备106以及输出设备107。注意,信息通信设备1的每个单元都经由总线、接线、驱动设备等(未示出)相互连接。
在图3中,构成信息通信设备1的每个单元都被图示为集成的设备,但是这些功能中的一些可以由外部设备提供。例如,输入设备106和输出设备107可以是外部设备,而不是构成包括CPU 101等的计算机的功能的单元。
CPU 101是具有以下功能的处理器:根据存储在ROM 103、HDD 104等中的程序执行预定计算,并且也控制信息通信设备1的每个单元。RAM 102由易失性存储介质组成并且提供CPU 101的操作所需的临时存储区。ROM 103由非易失性存储介质组成并且存储必要的信息,诸如用于信息通信设备1的操作的程序。HDD 104是从非易失性存储介质配置并且暂时存储发送到耳机2并且从耳机2接收到的数据、存储信息通信设备1的操作程序等的存储设备。
通信I/F 105是基于诸如Bluetooth(注册商标)和Wi-Fi(注册商标)的标准的通信接口,并且是用于执行与诸如耳机2的其他设备的通信的模块。
输入设备106是键盘、定点设备等,并且被用户3用于操作信息通信设备1。定点设备的示例包括鼠标、轨迹球、触控面板和手写板。
例如,输出设备107是显示设备。显示设备是液晶显示器、有机发光二极管(OLED)显示器等,并且被用于显示信息、用于操作输入的图形用户界面(GUI)等。输入设备106和输出设备107可以被集成地形成为触控面板。
注意,图3中所图示的硬件配置是示例,并且可以添加其他设备或可以不提供某些设备。进一步地,有些设备可以被替换成具有相似功能的其他设备。进一步地,本示例实施例的一些功能可以由另一个设备经由网络提供,或本示例实施例的功能可以通过被分配到多个设备而被实现。例如,HDD 104可以被替换成使用半导体存储器的固态驱动器(SSD),或可以被替换成云存储。因此,图3中所图示的硬件配置能够被适当地改变。
图4是根据本示例实施例的耳机2和信息通信设备1的功能框图。信息通信设备1包括第一声学信息获取单元121、第二声学信息获取单元122、第三声学信息获取单元123以及确定单元124。由于耳机2的配置与图1的配置相同,将省略其描述。
CPU 101通过将存储在ROM 103、HDD 104等中的程序加载到RAM 102中并且执行它们来执行预定算术处理。CPU 101基于程序控制诸如通信I/F 105的信息通信设备1的每个部分。因此,CPU 201实现第一声学信息获取单元121、第二声学信息获取单元122、第三声学信息获取单元123和确定单元124的功能。稍后将描述由每个功能框执行的具体处理的细节。
注意,在图4中,信息通信设备1中所描述的功能框的一些或全部功能可以被设置在耳机控制设备20中,而不是被设置在信息通信设备1中。即,上述功能可以由信息通信设备1实现,可以由耳机控制设备20实现,或可以由信息通信设备1与耳机控制设备20之间的协作实现。更一般地,信息通信设备1和耳机控制设备20有时可以被称为信息处理设备。在以下描述中,除非另有规定,否则假设关于声学信息的获取和确定的每个功能框都设置在如图4所图示的信息通信设备1中。
图5是图示了根据本示例实施例的由信息通信设备1执行的生物特征匹配处理的流程图。信息通信设备1的操作将参照图5进行描述。
例如,当用户3通过操作耳机2开始使用耳机2时,执行图5的生物特征匹配处理。可替代地,当耳机2的电源打开时,每次经过预定的时间,就可以执行图5的生物特征匹配处理。
在步骤S101中,第一声学信息获取单元121指示耳机控制设备20发出检查声。耳机控制设备20将检查信号发送到扬声器26,并且扬声器26向用户3的耳道发出基于检查信号而生成的检查声音。更一般地,扬声器26可以被称为第一声源。
在稍后将描述的处理中,由于算术处理是在基于检查声音的回声的声学信息与基于用户3的语音的声学信息之间执行的,检查声音的频带至少部分与用户3的语音的频带(即,可听见的声音的频带)重叠。
在步骤S102中,麦克风27接收耳道中的回声(耳朵声学声音)并且将其转换为电信号。麦克风27将基于耳朵声学声音的电信号发送到耳机控制设备20,并且耳机控制设备20将信号发送到信息通信设备1。
在步骤S103中,第一声学信息获取单元121基于耳道中的回声获取第一声学信息。第一声学信息包括用户3的耳道的传输特性。所获取的第一声学信息被存储在HDD 104中。
在步骤S104中,第二声学信息获取单元122指示耳机控制设备20催促用户3发出语音。催促用户3发出语音的处理的示例将被描述。第二声学信息获取单元122生成通知信息,以催促用户3发出语音。例如,通知信息是音频信息和用于通过耳机控制设备20控制扬声器26发出诸如“请讲。”或“请说XXX(特定关键词)。”的消息语音的信息。以这种方式,将催促话语的消息通知给用户3。如果信息通信设备1或耳机2包括用户3能够观看的显示设备,则以上信息可以被显示在显示设备上。通知用户发出特定关键词的原因是为了减少由于用户3发出的词的差异而导致的频率特性(共振峰)的差异的影响。
换句话说,用户3的声带、肺、口腔、鼻腔等是用于第二声学信息获取单元122获取的声源。因此,更一般地,用户3的声音发出器官可以被称为第二声源。
在步骤S105中,麦克风27接收基于用户3的语音的声音并且将其转换电信号。麦克风27将基于用户3的语音的电信号发送到耳机控制设备20,并且耳机控制设备20将信号发送到信息通信设备1。
在步骤S106中,第二声学信息获取单元122获取基于用户3的语音的第二声学信息。第一声学信息包括从用户3的声音发出器官到耳机2的语音的传输特性和用户3的语音的频率特性(声纹)。所获取的第二声学信息被存储在HDD 104中。注意,步骤S101至S103中第一声学信息的获取顺序和步骤S104至S106中第二声学信息的获取顺序可以被颠倒,并且它们中的至少一部分可以被并行执行。
在步骤S107中,第三声学信息获取单元123从HDD 104中读取第一声学信息和第二声学信息,并且基于它们生成第三声学信息。该处理可以是从第二声学信息中减去或除以第一声学信息。可替代地,该处理可以是从第一声学信息中减去或除以第二声学信息。换句话说,通过从第一声学信息和第二声学信息中的一个声学信息减去或除以另一个声学信息来生成和获取第三声学信息。第三声学信息被用于用户3的生物特征匹配。
在步骤S108中,确定单元124通过将包括用户3的生物信息的第三声学信息与之前在HDD 104中记录的注册人的生物信息进行匹配,确定用户3是否为注册。如果确定用户3是注册人(步骤S109中的是),则处理前进到步骤S110。如果确定用户3不是注册人(步骤S109中的否),则处理前进到步骤S111。
在步骤S110中,信息通信设备1将控制信号发送到耳机2,该控制信号指示允许用户使用耳机2。因此,耳机2变成用户3的许可状态。
在步骤S111中,信息通信设备1将控制信号发送到耳机2,该控制信号指示不许可用户3使用耳机2。因此,耳机2变成用户3的非许可状态。例如,非许可状态可以是没有声音从耳机2的扬声器26发出的状态。注意,步骤S110和S111中的控制不控制耳机2侧,但是可以控制信息通信设备1侧。例如,信息通信设备1与耳机2之间的通信连接可能难以在许可状态与非许可状态之间切换。
步骤S101中的由扬声器26生成的检查声音将利用具体示例进行更详细的描述。作为用于生成检查声音的检查信号的示例,包括诸如线性调频信号、最大长度序列(M序列信号)或白噪声的预定频率分量范围的信号可以被使用。因此,检查声音的频率范围能够被用于佩戴确定。
图6是示出了线性调频信号的特性的曲线图。图6分别示出了强度与时间之间的关系、频率与时间之间的关系和强度与频率之间的关系。线性调频信号是频率连续随时间变化的信号。图6示出了线性调频信号的示例,其中,频率随时间线性地增加。
图7是示出了M序列信号或白噪声的特性的曲线图。由于M序列信号生成了接近白噪声的伪噪声,M序列信号的特性和白噪声的特性大体上相同,图7,如图6,示出了强度与时间之间的关系、频率与时间之间和强度与频率之间的关系。如图7所示,M序列信号或白噪声是均匀地包括广范围的频率的信号的信号。
线性调频信号、M序列信号或白噪声具有频率特性,其中,频率在广范围上变化。因此,通过使用这些信号作为检查声音,能够在随后的步骤S102中获得包括广范围的频率分量的回声。
在步骤S107中生成第三声学信息的处理将利用具体示例进行更详细的描述。第一声学信息获取单元121所获取的信号(第一声学信息)能够通过以下等式(1)表达。
[数学公式1]
Figure BDA0003228624490000121
这里,X是表示从扬声器26向耳道发出的检查声音的频谱的函数。Ysi,wj是表示由麦克风27获得的回声的频谱的函数。例如,这些频谱是通过傅里叶变换将时间序列中的输入/输出信号转换为频率域而获得的。si(i=1、2……)是表示匹配目标的人的参数,并且由于在等式(1)中使用了s1,等式(1)是关于第一用户的。wj(j=1、2……)是表示耳机2的佩戴状态的参数,并且由于使用了w1,等式(1)是关于第一佩戴状态的等式。
Csi是表示第i个用户的耳朵声学声音的传输特性的频域的函数。由于耳道的形状对于每个人都是独特的,Csi是在用户之间不同的函数。换句话说,Csi是可以被用于识别人的生物信息。Gwj是表示由于佩戴状态的不同而引起的传输特性的变化的频域的函数。由于每当再次佩戴耳机2时Gwj都会变成不同的函数,它对Csi来说可能充当噪声。由麦克风27获得的回声包括耳朵声学声音的传输特性和传输特性取决于佩戴状态的变化的混合,并且在等式(1)中,这些能够被分为Csi和Gwj的乘积的形式。
第二声学信息获取单元122所获取的信号(第二声学信息)能够通过以下等式(2)表达。
[数学公式2]
Figure BDA0003228624490000122
这里,Unk,t是指示由用户3发出的语音的频谱的函数。Vsi,wj,nk,t是表示由麦克风27获取的声音的频谱的函数。例如,这些频谱是通过傅里叶变换将时间序列中的输入/输出信号转换为频域而获得的。nk=(k=1、2……)是表示语音中包括的各种情况的参数,诸如话语的内容和取决于说话者的声纹的特性。因为使用了n1,所以等式(1)用于第一种情况。t(其中,t是实数)是指示时间的参数。当用户3生成句子或短语时,频谱根据时间变化。例如,当用户3说出“ABC”时,用户说出“A”时的频谱与用户说出“B”时的频谱不同。同样,即使用户3多次说出相同的词语,频谱也可能取决于时间而不同。因此,时间t也可以是指定语音的频谱所必需的参数。Dsi是指示第i个用户的语音的传输特性的频域的函数。由于声纹对于用户是独特的,Unk,t是取决于用户而不同的函数。由于语音的传输特性取决于用户的头骨、口腔等的形状,Dsi也是一个用户与另一用户不同的函数。换句话说,Unk,t和Dsi是可以被用于识别人的生物信息。在等式(2)中,Gwj对等式(1)是共同的。这是因为当用户3佩戴耳机2,然后在不戴和脱下耳机2的情况下获取同一佩戴状态下的第一声学信息和第二声学信息时,指示佩戴状态的Gwi处于同一状态。
这里,将两侧转换为对数的运算是对等式(1)和等式(2)执行的。这些等式被分别转换为以下等式(3)和等式(4)。在等式(3)和等式(4)中,省略对数的底数的值的表达,但是底数的值是可选的。
[数学公式3]
Figure BDA0003228624490000131
[数学公式4]
Figure BDA0003228624490000132
当从等式(4)减去等式(3)时,消去等式两侧共有的项对数Gw1,并且获得以下等式(5)。
[数学公式5]
logVs1,w1,n1,t-logYs1,w1-logX=logDs1-logCs1+logUn1,t (5)
左侧的项是由麦克风27获取的观察信号或已知信号。右侧的项是取决于用户不同而不同的函数并且可以被用作生物信息。由于等式(5)中右侧与左侧相等,能够从观察信号中计算生物信息。以这种方式,等式(5)的左侧是通过上述计算从由等式(1)表示的第一声学信息和由等式(2)表示的第二声学信息中计算的,并且能够被用作第三声学信息以用于生物特征匹配。如能够从等式(5)理解的,第三声学信息不包括指示佩戴状态的不同的影响的项Gwj。因此,第三声学信息对由于佩戴状态引起的噪声是稳健的。因此,通过使用第三声学信息进行生物特征匹配,提高了生物特征匹配的准确性。
在上面的示例中,为了方便计算,对数转换被执行,但这并不是必需的。当对数转换不被执行时,从等式(4)减去等式(3)的运算被等式(3)除以等式(4)的运算替换。
在上面的示例中,为了执行第一声学信息与第二声学信息之间的相加和相减,通常,第一声学信息的频带与第二声学信息的频带至少部分地重叠。当第二声学信息是基于用户3的语音时,第一声学信息包括用户3的语音中包括的可听见的声音的频带。
步骤S108中的确定处理将使用特征量提取技术参照具体示例进行详细描述。确定单元124通过预定算法从第三声学信息中包括的频率特性计算特征量。此后,确定单元124将第三声学信息的特征量与通过相似技术而提取的注册人的特征量进行比较,以计算匹配分数,该匹配分数指示特征量之间的相似性。当有多个注册人时,对多个注册人中的每个注册人都执行相同的处理。确定单元124基于匹配分数是否超过预定阈值来确定用户3是否是注册人。当有多个注册人时,如果匹配分数超过多个注册人中的任何一个注册人的预定阈值时,则确定用户3是注册人。
如上所述,根据本示例实施例,通过使用基于彼此不同的声源的第一声学信息和第二声学信息,生成用于生物特征匹配的第三声学信息,提高了生物特征匹配的准确性。因此,提供了一种信息处理设备,其能够使用可穿戴设备所获取的声学信息来提高生物特征匹配的准确性。
[第二示例实施例]
本示例实施例的信息处理系统与第一示例实施例的不同在于用于确定用户是否是注册人的处理的内容。下面,将主要描述与第一示例实施例的不同,并且将省略或简化公共部分的描述。
图8是根据本示例实施例的耳机2和信息通信设备1的功能框图。本示例实施例与第一示例实施例的不同在于,确定单元124不仅进一步使用第三声学信息获取单元所获取的第三声学信息,还使用第一声学信息获取单元121所获取的第一声学信息来做出确定。
图9是图示了由信息通信设备1执行的根据本示例实施例的生物特征匹配处理的流程图。由于与第一示例实施例的不同仅在于步骤S108被步骤S112替换,在这里将描述步骤S112。
在步骤S112中,确定单元124通过将通过集成第一声学信息和第三声学信息而获得的信息与之前在HDD 104中记录的注册人的生物信息进行匹配来确定用户3是否为注册人。如果确定用户3为注册人(步骤S109中的是),则处理前进到步骤S110。如果确定用户3不是注册人(步骤S109中的否),则处理前进到步骤S111。
步骤S112中第一声学信息和第三声学信息的集成将被更详细地描述。第一声学信息是主要基于用户3的耳朵声学声音的信息,并且第三声学信息是通过将用户3的耳朵声学声音和语音的声音相互执行算术处理而获得的信息。因此,第一声学信息和第三声学信息包括不同的生物信息。一般地,使用两种不同的生物信息执行双因素匹配提高了匹配的准确性。因此,在本示例实施例中,在步骤S112中,第一声学信息和第三声学信息被集成,并且双因素匹配是通过使用集成的结果而被执行的。因此,能够进一步提高匹配准确性。
将描述声学信息的集成的具体示例。假设这样的情况,如第一示例实施例中所描述的,在确定单元124的匹配中使用了一种技术,该技术用于从声学信息中提取特征量并且计算匹配分数,该匹配分数指示特征量的相似性。在这种情况下,确定单元124计算基于第一声学信息的第一匹配分数和基于第三声学信息的第二匹配分数。此后,确定单元124计算通过加法、平均、线性组合、乘法等将第一匹配分数与第二匹配分数结合而获得的第三匹配分数。此后,确定单元124基于第三匹配分数是否超过预定阈值来确定用户3是否是注册人。通过使用这种技术,实现了用于集成并使用多种生物信息的双因素匹配,并且进一步提高了匹配准确性。
如果匹配是基于第一声学信息和第三声学信息,则可以使用除上述技术之外的技术。例如,技术可以是,基于第一声学信息的第一匹配和基于第三声学信息的第二匹配可以被执行,然后第一匹配的结果和第二匹配的结果的逻辑积或逻辑和可以被使用作为执行确定的最终匹配结果。另外,当第一匹配的结果与第二匹配的结果不同时,可以输出判断不可能的匹配结果。
一般地,已知与利用使用语音的频率特性(声纹)的匹配方法相比,利用使用耳朵声学声音的匹配方法能够获得更高的匹配准确性。因此,添加到如上所述的第三声学信息的声学信息优选地是第一声学信息,该第一声学信息包括主要基于用户3的耳朵声学声音的信息。然而,在通过使用声纹的匹配方法能够获得足够的准确性的情况下,第二声学信息和第三声学信息可以通过使用第二声学信息而不是第一声学信息被集成。
作为又一示例,第一声学信息、第二声学信息和第三声学信息可以被集成。在这种情况下,由于实现了考虑更多声学信息的匹配,进一步提高了匹配准确性。
[第三示例实施例]
本示例实施例的信息处理系统与第一示例实施例的不同在于它具有噪声消除功能。下面,将主要描述与第一示例实施例的不同,并且将省略或简化公共部分的描述。
图10是图示了根据本示例实施例的信息处理系统的总体配置的示意图。在本示例实施例中,耳机2包括布置在彼此不同的位置的多个麦克风27和28。麦克风28由耳机控制设备20控制。麦克风28被布置在与耳机2的佩戴表面相对的背面,以便当佩戴了麦克风时从外部接收声波。
在获取第一声学信息或第二声学信息时,外部声音可以是噪声。因此,在本示例实施例中,多个麦克风27和28被布置在耳机2中,并且耳机2具有通过使用麦克风28所获取的声音执行噪声消除来减少外部环境声音的影响的功能。这里,环境声音不仅包括在用户3的外部生成的声音,还包括在匹配时可以是噪声的声音,诸如在由用户3或扬声器26发出的声音中在外部回响的声音。麦克风27和麦克风28有时分别被称为第一麦克风和第二麦克风。
将描述噪声消除。环境声音以几乎相同的相位入射到麦克风27和28上。因此,通过将麦克风27所获得的声音以反相叠加在麦克风28所获得的声音上,能够消除环境声音的至少一部分。由于麦克风27和28所接收的声音的强度可能由于通过耳机2等的外壳的衰减而不同,一种或两种声音可以在叠加之前被放大或衰减。
以反相叠加声音的处理可以是对获得的音频数据数字执行的信号处理或可以通过以反相向麦克风28所获得的声音发出扬声器26的声音而被执行作为模拟处理。
上述示例实施例中所描述的系统还能够被配置为下面的第四示例实施例。
[第四示例实施例]
图11是根据第四示例实施例的信息处理设备4的功能框图。信息处理设备4包括第一声学信息获取单元421、第二声学信息获取单元422以及第三声学信息获取单元423。第一声学信息获取单元421获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息。第二声学信息获取单元422获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同。第三声学信息获取单元423基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
根据本示例实施例,提供了一种信息处理设备4,其能够使用可穿戴设备所获取的声学信息提高生物特征匹配的准确性。
[修改的示例实施例]
本发明并不限于上述示例实施例,并且在本发明的范围内可以进行适当修改。例如,将一个实施例的配置的部分添加到另一个实施例的示例或另一个实施例的配置的部分被取代的示例也是本发明的示例实施例。
在上面的示例实施例中,虽然耳机2被举例作为可穿戴设备的示例,但是本发明并不限于佩戴在耳朵上的设备,只要能够获取处理所必需的声学信息。例如,可穿戴设备可以是骨传导型声学设备。
在上述示例实施例中,假设第二声学信息是通过接收用户3发出的语音而获得的,但是本发明并不限于此。即,用于生成用于获取第二声学信息的声波的第二声源可以是除用户3的语音发出器官以外的声源。例如,当与扬声器26不同的第二扬声器单独设置在耳机2或另一设备中时,第二扬声器可以是第二声源。当可穿戴设备是佩戴在用户3的两只耳朵上的一对耳机时,例如,右耳的耳机可以是具有在第一示例实施例至第三示例实施例中所描述的耳朵声学声音匹配的功能的耳机2,并且左耳的耳机可以是具有上述第二扬声器的耳机。在该示例中,通过发出声波以从左耳中的第二扬声器获取第二声学信息并且通过右耳中的麦克风27接收声波,能够执行与第一示例实施例至第三示例实施例相同的处理。在第一示例实施例至第三示例实施例中,例如,用于使用语音的频率被限制到人类能够发出的语音的范围,但是在该示例中,由于不使用语音,没有这种限制,并且能够使用具有诸如超声波频带的频率的不可听的声音。通过使用不可听的声音,用于匹配的声波能够难以被用户3感知,并且使用舒适性被提高。
每个示例实施例的范围还包括将程序存储在存储介质中的处理方法,该程序使每个示例实施例的配置操作以实施上述每个示例实施例的功能、读取作为代码存储在存储介质中的程序、并且在计算机中执行程序。即,每个示例实施例的范围还包括计算机可读存储介质。进一步地,每个示例实施例不仅包括存储上述计算机程序的存储介质,还包括计算机程序本身。进一步地,上述示例实施例中包括的一个或两个或两个以上的组件可以是配置为实施每个组件的功能的电路,诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)等。
作为存储介质,例如,能够使用软驱(注册商标)磁盘、硬盘、光盘、磁光盘、光盘(CD)-ROM、磁带、非易失性存储卡或ROM。进一步地,每个示例实施例的范围包括示例,该示例在操作系统(OS)上操作以与另一个软件或机内插卡的功能协作执行处理,但不限于通过存储在存储介质中的单独程序执行处理的示例。
进一步地,由上述每个示例实施例的功能实施的服务可以以软件即服务(SaaS)的形式提供给用户。
应当注意,上述实施例仅仅是体现本发明的示例,并且本发明的技术范围不应被这些限制性理解。即,在不偏离其技术思想或主要特征的情况下,本发明能够以各种形式实现。
上述示例实施例的全部或部分能够被描述为但不限于下面的补充注释。
(补充注释1)
一种信息处理设备,该信息处理设备包括:
第一声学信息获取单元,其配置为获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
第二声学信息获取单元,其配置为获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及
第三声学信息获取单元,其配置为基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
(补充注释2)
根据补充注释1的信息处理设备,其中,第一声学信息包括用户的耳道的传输特性。
(补充注释3)
根据补充说明1或2所述的信息处理设备,其中,第一声源是设置在可穿戴设备中的扬声器。
(补充注释4)
根据补充注释1至3中的任一项的信息处理设备,其中,可穿戴设备是戴在用户的耳朵上的耳机。
(补充注释5)
根据补充注释1至4中的任一项的信息处理设备,其中,第二声学信息包括由用户发出的语音的传输特性。
(补充注释6)
根据补充注释1至5中的任一项的信息处理设备,其中,第二声源是用户的声音发出器官。
(补充注释7)
根据补充注释1至4中的任一项的信息处理设备,
其中,第一声源是设置在佩戴在用户的耳朵上的可穿戴设备中的扬声器,以及
其中,第二声源是设置在可穿戴设备或佩戴在用户的另一耳朵上的另一可穿戴设备中的扬声器。
(补充注释8)
根据补充注释1至7中的任一项的信息处理设备,其中,第三声学信息获取单元通过从第一声学信息和第二声学信息中的一个声学信息减去或除以另一个声学信息来生成并获取第三声学信息。
(补充注释9)
根据补充注释1至8中的任一项的信息处理设备,其中,第一声学信息的频带与第二声学信息的频带至少部分地重叠。
(补充注释10)
根据补充注释1至9中的任一项的信息处理设备,该信息处理设备进一步包括确定单元,其配置为基于第三声学信息确定用户是否是注册人。
(补充注释11)
根据补充注释1至9中的任一项的信息处理设备,该信息处理设备进一步包括确定单元,配置为基于第一声学信息和第二声学信息中的至少一个以及第三声学信息来确定用户是否是注册人。
(补充注释12)
根据补充注释1至11中的任一项的信息处理设备,
其中,可穿戴设备包括布置在彼此不同的位置的第一麦克风和第二麦克风,以及
其中,第一声学信息获取单元和第二声学信息获取单元中的至少一个获取声学信息,其中,环境声音的至少一部分基于第一麦克风所接收的声波和第二麦克风所接收的声波而被消除。
(补充注释13)
一种可穿戴设备,包括:
第一声学信息获取单元,其配置为获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
第二声学信息获取单元,其配置为获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及
第三声学信息获取单元,其配置为基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
(补充注释14)
一种信息处理方法,该信息处理方法包括:
获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及
基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
(补充注释15)
一种存储介质,该存储介质存储程序,该程序使计算机执行:
获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
获取通过由可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,该第二声源与第一声源不同;以及
基于第一声学信息和第二声学信息获取用于用户的生物特征匹配的第三声学信息。
本申请是基于并且要求2019年1月15日提交的日本专利申请No.2019-004003的优先权的权益,该案通过引用全部并入本文。
[附图标记列表]
1 信息通信设备
2 耳机
3 用户
4 信息处理设备
20 耳机控制设备
26 扬声器
27、28 麦克风
101、201 CPU
102、202 RAM
103、203 ROM
104 HDD
105、207 通信I/F
106 输入设备
107 输出设备
121、421 第一声学信息获取单元
122、422 第二声学信息获取单元
123、423 第三声学信息获取单元
124 确定单元
204 闪速存储器
205 扬声器I/F
206 麦克风I/F
208 电池

Claims (15)

1.一种信息处理设备,包括:
第一声学信息获取单元,所述第一声学信息获取单元配置为获取通过由用户佩戴的可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
第二声学信息获取单元,所述第二声学信息获取单元配置为获取通过由所述可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,所述第二声源与所述第一声源不同;以及
第三声学信息获取单元,所述第三声学信息获取单元配置为基于所述第一声学信息和所述第二声学信息获取用于所述用户的生物特征匹配的第三声学信息。
2.根据权利要求1所述的信息处理设备,其中,所述第一声学信息包括所述用户的耳道的传输特性。
3.根据权利要求1或2所述的信息处理设备,其中,所述第一声源是设置在所述可穿戴设备中的扬声器。
4.根据权利要求1至3中的任一项所述的信息处理设备,其中,所述可穿戴设备是戴在所述用户的耳朵上的耳机。
5.根据权利要求1至4中的任一项所述的信息处理设备,其中,所述第二声学信息包括由所述用户发出的语音的传输特性。
6.根据权利要求1至5中的任一项所述的信息处理设备,其中,所述第二声源是所述用户的声音发出器官。
7.根据权利要求1至4中的任一项所述的信息处理设备,
其中,所述第一声源是设置在佩戴在所述用户的耳朵上的所述可穿戴设备中的扬声器,以及
其中,第二声源是设置在所述可穿戴设备或佩戴在所述用户的另一耳朵上的另一可穿戴设备中的扬声器。
8.根据权利要求1至7中的任一项所述的信息处理设备,其中,所述第三声学信息获取单元通过从所述第一声学信息和所述第二声学信息中的一个声学信息减去或除以另一个声学信息来生成并获取所述第三声学信息。
9.根据权利要求1至8中的任一项所述的信息处理设备,其中,所述第一声学信息的频带与所述第二声学信息的频带至少部分地重叠。
10.根据权利要求1至9中的任一项所述的信息处理设备,所述信息处理设备进一步包括确定单元,所述确定单元配置为基于所述第三声学信息确定所述用户是否是注册人。
11.根据权利要求1至9中的任一项所述的信息处理设备,所述信息处理设备进一步包括确定单元,所述确定单元配置为基于所述第一声学信息和所述第二声学信息中的至少一个以及所述第三声学信息来确定所述用户是否是注册人。
12.根据权利要求1至11中的任一项所述的信息处理设备,
其中,所述可穿戴设备包括布置在彼此不同的位置的第一麦克风和第二麦克风,以及
其中,所述第一声学信息获取单元和所述第二声学信息获取单元中的至少一个获取声学信息,其中,环境声音的至少一部分基于所述第一麦克风所接收的声波和所述第二麦克风所接收的声波而被消除。
13.一种可穿戴设备,所述可穿戴设备包括:
第一声学信息获取单元,所述第一声学信息获取单元配置为获取通过由用户佩戴的所述可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
第二声学信息获取单元,所述第二声学信息获取单元配置为获取通过由所述可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,所述第二声源与所述第一声源不同;以及
第三声学信息获取单元,所述第三声学信息获取单元配置为基于所述第一声学信息和所述第二声学信息获取用于所述用户的生物特征匹配的第三声学信息。
14.一种信息处理方法,所述信息处理方法包括:
获取通过由用户佩戴的所述可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
获取通过由所述可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,所述第二声源与所述第一声源不同;以及
基于所述第一声学信息和所述第二声学信息获取用于所述用户的生物特征匹配的第三声学信息。
15.一种存储介质,所述存储介质存储程序,所述程序使计算机执行:
获取通过由用户佩戴的所述可穿戴设备接收从第一声源发出的声波而获得的第一声学信息;
获取通过由所述可穿戴设备接收从第二声源发出的声波而获得的第二声学信息,所述第二声源与所述第一声源不同;以及
基于所述第一声学信息和所述第二声学信息获取用于所述用户的生物特征匹配的第三声学信息。
CN202080016555.9A 2019-01-15 2020-01-07 信息处理设备、可穿戴设备、信息处理方法以及存储介质 Pending CN113475095A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-004003 2019-01-15
JP2019004003 2019-01-15
PCT/JP2020/000195 WO2020149175A1 (ja) 2019-01-15 2020-01-07 情報処理装置、装着型機器、情報処理方法及び記憶媒体

Publications (1)

Publication Number Publication Date
CN113475095A true CN113475095A (zh) 2021-10-01

Family

ID=71613856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080016555.9A Pending CN113475095A (zh) 2019-01-15 2020-01-07 信息处理设备、可穿戴设备、信息处理方法以及存储介质

Country Status (6)

Country Link
US (1) US20220093120A1 (zh)
EP (1) EP3913926A4 (zh)
JP (1) JP7131636B2 (zh)
CN (1) CN113475095A (zh)
BR (1) BR112021013445A2 (zh)
WO (1) WO2020149175A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015956A1 (fr) * 2006-07-31 2008-02-07 Nap Enterprise Co., Ltd. Procédé d'authentification personnelle portable et procédé de transaction commerciale électronique
US20180307818A1 (en) * 2015-10-21 2018-10-25 Nec Corporation Personal authentication device, personal authentication method, and personal authentication program
WO2018213746A1 (en) * 2017-05-19 2018-11-22 Plantronics, Inc. Headset for acoustic authentication of a user
US20190012448A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065363A (ja) 2002-08-02 2004-03-04 Sony Corp 個人認証装置と個人認証方法、及び信号伝送装置
JP4411959B2 (ja) * 2003-12-18 2010-02-10 ソニー株式会社 音声集音・映像撮像装置
US9118488B2 (en) * 2010-06-17 2015-08-25 Aliphcom System and method for controlling access to network services using biometric authentication
EP3285497B1 (en) * 2015-04-17 2021-10-27 Sony Group Corporation Signal processing device and signal processing method
JP6943248B2 (ja) * 2016-08-19 2021-09-29 日本電気株式会社 個人認証システム、個人認証装置、個人認証方法および個人認証プログラム
US10460095B2 (en) * 2016-09-30 2019-10-29 Bragi GmbH Earpiece with biometric identifiers
US11586716B2 (en) * 2017-04-28 2023-02-21 Nec Corporation Personal authentication device, personal authentication method, and recording medium
JP2019004003A (ja) 2017-06-13 2019-01-10 日東電工株式会社 電磁波吸収体及び電磁波吸収体付成形品

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008015956A1 (fr) * 2006-07-31 2008-02-07 Nap Enterprise Co., Ltd. Procédé d'authentification personnelle portable et procédé de transaction commerciale électronique
US20180307818A1 (en) * 2015-10-21 2018-10-25 Nec Corporation Personal authentication device, personal authentication method, and personal authentication program
WO2018213746A1 (en) * 2017-05-19 2018-11-22 Plantronics, Inc. Headset for acoustic authentication of a user
US20190012448A1 (en) * 2017-07-07 2019-01-10 Cirrus Logic International Semiconductor Ltd. Methods, apparatus and systems for authentication

Also Published As

Publication number Publication date
EP3913926A4 (en) 2022-03-16
JP7131636B2 (ja) 2022-09-06
US20220093120A1 (en) 2022-03-24
JPWO2020149175A1 (ja) 2021-10-28
BR112021013445A2 (pt) 2021-10-19
WO2020149175A1 (ja) 2020-07-23
EP3913926A1 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP5256119B2 (ja) 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路
US10631087B2 (en) Method and device for voice operated control
KR101606966B1 (ko) 공간 선택적 오디오 증강을 위한 시스템들, 방법들, 장치들, 및 컴퓨터 판독가능 매체들
US9570071B1 (en) Audio signal transmission techniques
US11937040B2 (en) Information processing device, information processing method, and storage medium
US20240080605A1 (en) Information processing device, wearable device, information processing method, and storage medium
US10783903B2 (en) Sound collection apparatus, sound collection method, recording medium recording sound collection program, and dictation method
KR20110090066A (ko) 청력을 검사하는 휴대용 음원재생장치 및 이를 수행하는 방법
CN112767908B (zh) 基于关键声音识别的主动降噪方法、电子设备及存储介质
US20220122605A1 (en) Method and device for voice operated control
CN111161699A (zh) 一种环境噪音的掩蔽方法、装置及设备
JP2012063614A (ja) マスキング音生成装置
KR101676018B1 (ko) 출력되는 음원 신호를 보정하는 음원재생장치 및 이를 수행하는 방법
CN113475095A (zh) 信息处理设备、可穿戴设备、信息处理方法以及存储介质
KR102038464B1 (ko) 청음 보조 장치
KR102353771B1 (ko) 청력 역치를 고려한 어음 청력 검사음 생성 장치, 방법 및 프로그램
JP2021022883A (ja) 音声増幅装置及びプログラム
KR20200064397A (ko) 음향 전달 장치
KR102350890B1 (ko) 휴대용 청력검사장치
CN116017250A (zh) 数据处理方法、装置、存储介质、芯片与辅听设备
US11705101B1 (en) Irrelevant voice cancellation
KR102310542B1 (ko) 일음절어를 이용한 청력 검사 장치, 방법 및 프로그램
CN113242719A (zh) 信息处理设备、可穿戴设备、信息处理方法和存储介质
Aharonson et al. Harnessing Music to Enhance Speech Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination