CN113455017A - 信息处理设备、可佩戴设备、信息处理方法和存储介质 - Google Patents

信息处理设备、可佩戴设备、信息处理方法和存储介质 Download PDF

Info

Publication number
CN113455017A
CN113455017A CN201880100711.2A CN201880100711A CN113455017A CN 113455017 A CN113455017 A CN 113455017A CN 201880100711 A CN201880100711 A CN 201880100711A CN 113455017 A CN113455017 A CN 113455017A
Authority
CN
China
Prior art keywords
wearing
user
information processing
information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880100711.2A
Other languages
English (en)
Inventor
荒川隆行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN113455017A publication Critical patent/CN113455017A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1016Earpieces of the intra-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/15Determination of the acoustic seal of ear moulds or ear tips of hearing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Headphones And Earphones (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

提供了一种信息处理设备,包括:声学信息获取单元,该声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及佩戴确定单元,该佩戴确定单元被配置为基于声学信息,来确定所述用户是否佩戴着可佩戴设备。

Description

信息处理设备、可佩戴设备、信息处理方法和存储介质
技术领域
本公开涉及信息处理设备、可佩戴设备、信息处理方法和存储介质。
背景技术
专利文献1公开了一种具有外麦克风和内麦克风的头戴式耳机设备。头戴式耳机设备能够通过将由外麦克风获得的外部声音的语音信号与由内麦克风获得的外部声音的语音信号进行比较来检测头戴式耳机设备是处于佩戴状态还是非佩戴状态。
专利文献2公开了一种具有检测麦克风和扬声器的耳麦。耳麦将诸如输入到耳麦中的音乐等声学信号与由检测麦克风检测到的声学检测信号进行比较,并且当信号不相互匹配时,确定耳麦处于非佩戴状态。
[引用列表]
[专利文献]
PTL 1:日本专利申请特许公开No.2014-33303
PTL 2:日本专利申请特许公开No.2007-165940
发明内容
[技术问题]
专利文献1中的头戴式耳机设备使用外部声音来检测佩戴状态。由于外部声音可以取决于外部环境而变化,所以可能无法取决于外部环境而充分获得佩戴确定的准确性。专利文献2中的耳麦基于输入的声学信号与检测到的声学检测信号之间的匹配或不匹配来检测穿戴状态。因此,当耳麦被密封时,例如,当耳麦在箱子中时,即使耳麦处于非佩戴状态,声学信号和声学检测信号也可以匹配。因此,取决于耳麦被放置的环境,可能无法充分获得穿戴确定的准确性。
示例实施例旨在提供一种信息处理设备、一种可佩戴设备、一种信息处理方法和一种存储介质,它们能够在宽环境范围中执行可佩戴设备的佩戴确定。
[问题的解决方案]
根据示例实施例的一个示例方面,提供了一种信息处理设备,包括:声学信息获取单元,该声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及佩戴确定单元,该佩戴确定单元被配置为基于声学信息,来确定用户是否佩戴着可佩戴设备。
根据示例实施例的另一示例方面,提供了一种可穿戴设备,包括:声学信息获取单元,该声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及佩戴确定单元,该佩戴确定单元被配置为基于声学信息,来确定用户是否佩戴着可佩戴设备。
根据示例实施例的另一示例方面,提供了一种信息处理方法,包括:获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及基于声学信息,来确定用户是否佩戴着可佩戴设备。
根据示例实施例的另一示例方面,提供了一种存储程序的存储介质,该程序使计算机执行:获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及基于声学信息,来确定用户是否佩戴着可佩戴设备。
[本发明的有益效果]
根据示例实施例,能够提供一种信息处理设备、一种可佩戴设备、一种信息处理方法和一种存储介质,它们能够在宽环境范围中执行可佩戴设备的佩戴确定。
附图说明
图1是图示根据第一示例实施例的信息处理系统的总体配置的示意图。
图2是图示根据第一示例实施例的耳机的硬件配置的框图。
图3是图示根据第一示例实施例的信息通信设备的硬件配置的框图。
图4是根据第一示例实施例的耳机控制设备的功能框图。
图5是图示根据第一示例实施例的由耳机控制设备执行的佩戴确定处理的流程图。
图6是示出线性调频信号的特性的曲线图。
图7是示出M序列信号或白噪声的特性的曲线图。
图8是示出回音特性的示例的曲线图。
图9是一端为开口端并且另一端为封闭端的气柱管的结构图。
图10是两端均为封闭端的气柱管的结构图。
图11是示出佩戴确定中使用的声学信号的类型和确定标准的表。
图12是图示根据第二示例实施例的信息处理系统的总体配置的示意图。
图13是示出根据第三示例实施例的佩戴状态分值随时间变化的曲线图。
图14是示出通过两个阈值执行佩戴状态确定的示例的曲线图。
图15是根据第四示例实施例的信息处理设备的功能框图。
具体实施方式
下面将参考附图描述示例实施例。在整个附图中,相同的组件或对应的组件用相同的附图标记表示,并且其描述可以被省略或简化。
[第一示例实施例]
将描述根据示例实施例的信息处理系统。该示例实施例的信息处理系统是用于检测诸如耳机的可穿戴设备的佩戴的系统。
图1是图示根据示例实施例的信息处理系统的总体配置的示意图。信息处理系统被设置有可以通过无线通信彼此连接的信息通信设备1和耳机2。
耳机2包括耳机控制设备20、扬声器26和麦克风27。耳机2是一种能够被佩戴在用户3的耳朵上的声学设备,并且通常是无线耳机、无线耳麦等。扬声器26用作在佩戴时向用户3的耳道发出声波的声波生成单元,并且被布置在耳机2的佩戴表面侧。麦克风27也被布置耳机2的佩戴表面侧上,以便接收佩戴时由用户3的耳道等反射的声波。耳机控制设备20控制扬声器26和麦克风27并与信息通信设备1通信。
注意,在本说明书中,诸如声波和语音等“声音”包括频率或声压级在可听范围之外的听不见的声音。
信息通信设备1例如是计算机,并且控制耳机2的操作,发送用于生成从耳机2发出的声波的音频数据,并接收从由耳机2接收到的声波中获取的音频数据。作为具体示例,当用户3使用耳机2收听音乐时,信息通信设备1将音乐的压缩数据发送到耳机2。当耳机2是用于活动现场、医院等处的业务指挥的电话设备时,信息通信设备1将业务指令的音频数据发送到耳机2。在这种情况下,用户3的话语的音频数据可以从耳机2发送到信息通信设备1。信息通信设备1或耳机2可以具有使用由耳机2接收到的声波进行耳声认证的功能。
应当注意,总体配置是示例,并且例如,信息通信设备1和耳机2可以通过线缆连接。此外,信息通信设备1和耳机2可以被配置为集成的设备,并且此外,另一设备可以被包括在信息处理系统中。
图2是图示耳机控制设备20的硬件配置示例的框图。耳机控制设备20包括中央处理单元(CPU)201、随机存取存储器(RAM)202、只读存储器(ROM)203和闪存204。耳机控制设备20还包括扬声器接口(I/F)205、麦克风I/F 206、通信I/F 207和电池208。注意,耳机控制设备20的每个单元经由总线、线缆、驱动设备等(未示出)被相互连接。
CPU 201是具有根据存储在ROM 203、闪存204等中的程序执行预定计算并且还控制耳机控制设备20的每个单元的功能的处理器。RAM 202由易失性存储介质组成,并且提供CPU 201的操作所需的临时存储区。ROM 203由非易失性存储介质组成,并且存储必要的信息,诸如用于耳机控制设备20的操作的程序20。闪存204是由非易失性存储介质组成的存储设备,并且临时存储数据、存储耳机控制设备20的操作程序等。
通信I/F 207是基于诸如Bluetooth(注册商标)和Wi-Fi(注册商标)的标准的通信接口,并且是用于执行与信息通信设备1的通信的模块。
扬声器I/F 205是用于驱动扬声器26的接口。扬声器I/F 205包括数字到模拟转换电路、放大器等。扬声器I/F 205将音频数据转换成模拟信号并且将模拟信号供应到扬声器26。因此,扬声器26基于音频数据来发出声波。
麦克风I/F 206是用于从麦克风27获取信号的接口。麦克风I/F 206包括模拟到数字转换电路、放大器等。麦克风I/F 206将由麦克风27接收到的声波生成的模拟信号转换成数字信号。因此,耳机控制设备20基于接收到的声波来获取音频数据。
电池208例如是二次电池,并且供应耳机2的操作所需的电力。因此,耳机2能够无线地操作而不通过线缆被连接至外部电源。
注意,图2中图示的硬件配置是示例,并且除这些之外的设备可以被添加或者一些设备可以不被提供。此外,一些设备可以被替换为具有相似功能的另一设备。例如,耳机2可以进一步被设置有诸如按钮的输入设备,以便能够接收用户3的操作,并且进一步被设置有诸如显示器或显示灯的显示设备,以用于向用户3提供信息。因此,可以图2中图示的硬件配置能够被适当地改变。
图3是图示信息通信设备1的硬件配置示例的框图。信息通信设备1包括CPU 101、RAM 102、ROM 103以及硬盘驱动器(HDD))104。信息通信设备1还包括通信I/F 105、输入设备106以及输出设备107。注意,信息通信设备1的每个单元经由总线、线缆、驱动设备等(未示出)被相互连接。
在图3中,构成信息通信设备1的每个单元被图示为集成的设备,但是这些功能中的一些可以由外部设备提供。例如,输入设备106和输出设备107可以是除构成包括CPU 101等的计算机的功能的单元之外的外部设备。
CPU 101是具有根据存储在ROM 103、HDD 104等中的程序执行预定计算并且还控制信息通信设备1的每个单元的功能的处理器。RAM 102由易失性存储介质组成,并且提供CPU 101的操作所需的临时存储区。ROM 103由非易失性存储介质组成,并且存储必要的信息,诸如用于信息通信设备1的操作的程序。HDD 104是由非易失性存储介质组成的存储设备,并且临时存储发送到耳机2和从耳机2接收到的数据、存储信息通信设备1的操作程序等。
通信I/F 105是基于诸如Bluetooth(注册商标)和Wi-Fi(注册商标)等标准的通信接口,并且是用于执行与诸如耳机2的其他设备的通信的模块。
输入设备106是键盘、定点设备等,并且被用户3用于操作信息通信设备1。定点设备的示例包括鼠标、轨迹球、触摸面板和手写平板。
输出设备107例如是显示设备。显示设备是液晶显示器、有机发光二极管(OLED)显示器等,并且被用于显示信息、操作输入的图形用户接口(GUI)等。输入设备106和输出设备107可以被集成地形成为触摸面板。
注意,图3中图示的硬件配置是示例,并且除这些之外的设备可以被添加,或者一些设备可以不被提供。此外,一些设备可以被替换为具有相似功能的其他设备。此外,示例实施例的功能中的一些可以由另一设备经由网络提供,或者示例实施例的功能可以通过被分布在多个设备上而被实现。例如,HDD 104可以被替换为使用半导体存储器的固态驱动器(SSD),或者可以被替换为云存储装置。因此,可以图3中图示的硬件配置能够被适当地改变。
图4是根据示例实施例的耳机控制设备20的功能框图。耳机控制设备20包括声学信息获取单元211、佩戴确定单元212、发声控制单元213、通知信息生成单元214以及存储单元215。
CPU 201将存储在ROM 203、闪存204等中的程序加载到RAM 202中并且执行它们。因此,CPU 201实现声学信息获取单元211、佩戴确定单元212、发声控制单元213和通知信息生成单元214的功能。此外,CPU 201基于程序来控制闪存204以实现存储单元215的功能。在这些单元中的每个中执行的具体处理将随后被描述。
注意,图4的功能块的功能中的一些或全部可以被提供在信息通信设备1而不是耳机控制设备20中。即,上述每个功能可以由耳机控制设备20实现、可以由信息通信设备1实现、或者可以通过信息通信设备1与耳机控制设备20之间的协作实现。信息通信设备1和耳机控制设备20有时被统称为信息处理设备。
然而,期望示例实施例的佩戴确定处理由耳机2中提供的耳机控制设备20执行。在这种情况下,在佩戴确定处理中,信息通信设备1与耳机2之间的通信能够变成不必要的,并且能够降低耳机2的电力消耗。由于耳机2是佩戴型设备,所以要求尺寸小。因此,电池208的尺寸被限制,并且难以使用具有大放电容量的电池。在这种情形下,通过在耳机2中完成佩戴确定处理来降低电力消耗是有效的。在以下描述中,除非另有注释,否则假设在耳机2中提供了图4的功能块的每个功能。
图5是图示根据示例实施例的由耳机控制设备20执行的佩戴确定处理的流程图。将参考图5描述耳机控制设备20的操作。
例如,当耳机2的电力接通时每次经过预定时间,执行图5中的佩戴确定处理。替代地,可以在用户3通过操作耳机2开始使用耳机2时执行图5中的佩戴确定处理。
在步骤S101中,发声控制单元213生成检查信号并且经由扬声器I/F 205向扬声器26发送检查信号。因此,扬声器26向用户3的耳道发出用于佩戴确定的检查声音。
注意,在步骤S101中,代替使用来自扬声器26的检查声音的方法,可以使用在用户3的身体中生成的声音。作为在身体中生成的声音的具体示例,由用户3的呼吸、心跳、肌肉移动等生成的生物声音能够被提及。作为另一示例,通过促使用户3说出语音而从用户3的声带发出的用户3的语音可以被使用。
将描述用于促使用户3说出语音的处理的示例。通知信息生成单元214生成促使用户3说出语音的通知信息。通知信息例如是语音信息,并且可以通过从扬声器26发出诸如“请讲”的消息来促使用户3说出语音。如果信息通信设备1或耳机2具有用户3能够观看的显示设备,则以上消息可以被显示在显示设备上。
此外,可以在佩戴确定中一直执行发出检查声音的处理或促使说出语音的处理,或者可以仅在满足预定条件时或不满足预定条件时执行。作为该预定条件的示例,存在获取的声学信息中包括的声压级不足以进行确定的情况。当满足该条件时,促使话语获取高声压级的声学信息。因此,佩戴确定的准确性能够被提高。
在步骤S102中,声学信息获取单元211基于由麦克风27接收到的声波来获取声学信息。声学信息作为关于用户3的身体中的共振的声学信息而被存储在存储单元215中。声学信息获取单元211在获取声学信息时可以适当地执行诸如傅立叶变换、相关性计算、噪声移除和水平校正的信号处理。
在步骤S103中,佩戴确定单元212基于声学信息来确定用户3是否佩戴着耳机2。如果确定用户3佩戴着耳机2(步骤S103中的“是”),则处理前进到步骤S104。如果确定用户3没有佩戴耳机2(步骤S103中的“否”),则处理前进到步骤S105。
在步骤S104中,耳机2基于从信息通信设备1获取的信息来继续诸如与信息通信设备1的通信以及生成声波的操作。在经过预定时间后,处理返回到步骤S101,并且再次执行佩戴确定。
在步骤S105中,耳机2基于从信息通信设备1获取的信息来停止诸如与信息通信设备1的通信以及生成声波的操作,并且结束处理。
因此,当用户3佩戴着耳机2时,操作被继续,否则,耳机2的操作被停止。因此,耳机2在非佩戴时的操作造成的电力的浪费被抑制。
在图5中,假设在步骤S105之后处理结束并且耳机2不操作,但这仅是示例。例如,在经过预定时间之后,处理可以返回到步骤S101,并且可以再次执行佩戴确定,并且当确定用户3佩戴着耳机2时,可以重新开始耳机2的操作。
将描述在步骤S101中由扬声器26发出的检查声音的具体示例。作为用于生成检查声音的信号的示例,可以使用包括诸如线性调频(chirp)信号、最大长度序列(M-序列)信号或白噪声等预定范围的频率分量的信号。因此,检查声音的频率范围能够被用于佩戴确定。
图6是示出线性调频信号的特性的曲线图。图6分别示出了强度与时间之间的关系、频率与时间之间的关系以及强度与频率之间的关系。线性调频信号是频率随时间连续变化的信号。图6示出线性调频信号的示例,其中频率随时间线性增加。
图7是示出M序列信号或白噪声的特性的曲线图。由于M序列信号生成接近白噪声的伪噪声,所以M序列信号与白噪声的特性基本相同。图7与图6一样,示出了强度与时间之间的关系、频率与时间之间的关系以及强度与频率之间的关系。如图7中所示,M序列信号或白噪声是均匀地包括频率的宽范围信号的信号。
线性调频信号、M序列信号或白噪声具有频率在宽范围上变化的频率特性。因此,在步骤S102中,通过将这些信号用作检查声音,可能获得频率的宽范围内的回音。
将描述在步骤S102中获得的回音的具体示例。图8是示出回音特性的示例的曲线图。
在图8中,水平轴线指示频率,并且竖直轴线指示获得的声波的声压级。在图8中,获得的声波按每个生成的原因被划分为“噪声”、“言语”和“回音”三种类别。
“噪声”指示生物噪声,具体地,由用户3的呼吸、心跳、肌肉移动等生成的生物声音。如图8中所示,“噪声”被集中在1kHz或更小的范围内。
“言语”指示由用户3的话语生成的声音。如图8中所示,“言语”被集中在3kHz或更小的范围内。在6kHz附近也存在小峰值。该峰值由耳道中的回音产生。
“回音”指示由检查声音在用户3的身体(诸如,耳道和声道)中回响而生成的声音。如图8中所示,“回音”指示具有多个峰值的特性。在2kHz附近,由于声道共振声音,存在多个峰值。另外,耳道共振声音的第一峰值、第二峰值和第三峰值分别存在于6kHz、12kHz和14kHz附近。由这些共振产生的峰值可以被用于佩戴确定。因为20kHz附近的峰值是耳机2的外壳等中的共振声音,所以该峰值不是用户3的身体中的回声。然而,由于共振声音的吸收率在佩戴状态与非佩戴状态之间是不同的,所以峰值水平取决于佩戴状态而变化。因此,20kHz附近的峰值可以被用于佩戴确定。
现在将更详细地描述共振声音。共振通常是一种现象,其中当在具体时间段对物理系统施加动作时,物理系统表现出特性行为。在声学现象的情况下共振的示例是当各种频率的声波被发送到某个声学系统时在具体频率下生成大回音的现象。这种回音被称为共振。
作为解释共振声音的简单模型,已知气柱管共振的模型。图9是一端为开口端并且另一端为封闭端的气柱管的结构图。在图9的示例中,假设气柱管的长度是L,声音速度是V,并且共振阶数为n(n=1,2,...),则共振频率f通过以下等式(1)被表达。然而,在等式(1)中,开口端校正被忽略。
[数学等式1]
Figure BDA0003217241090000121
图10是两端均为封闭端的气柱管的结构图。在图10的示例中,共振频率f通过以下等式(2)被表达。
[数学等式2]
Figure BDA0003217241090000122
如从等式(1)和(2)中能够理解的,观察到的共振频率越高,其中发生共振的气柱管越短,并且观察到的共振频率越低,其中发生共振的气柱管越长。即,共振频率和发生共振的部分的长度彼此成反比,并且能够彼此相关。
作为具体示例,考虑图8中在6kHz附近观察到的一阶峰值。当用户3佩戴着耳机2时,耳道的结构对应于气柱管,其中两端是封闭端。因此,能够使用等式(2)计算气柱管的长度。因为声音速度V约为340m/s,共振频率f在6kHz附近,并且阶数为1,当这些被代入等式(2)时,计算出L的值约为2.8cm。由于该长度大致对应于人类耳道的长度,所以能够说图8中在6kHz附近看到的峰值肯定是由于耳道共振而引起的。人体中除耳道外的其他腔体(例如,声道、呼吸道等)也能够由气柱管模型来描述,使得能够将共振频率与腔体的长度相关。因此,能够根据回声的特性中包括的峰值来指定共振被生成的部分的长度,并且也能够指定共振部分。
接着,将描述步骤S103中的佩戴确定的具体示例。图11是示出声学信号的类型和用于佩戴确定的确定标准的表。由于生物声音(图8中的“噪声”)是在用户3的身体中被生成的,所以这在耳机2没有被佩戴时不被检测到,或者即使被检测到,也生成非常小的声压。因此,可能在以下情况下通过算法来执行佩戴确定:当1kHz或更小的预定检测频率的声学信号的声压级小于预定阈值时,确定没有佩戴设备;以及当声压级等于或大于阈值时,确定佩戴设备。
由于声道回音(图8中在2kHz附近的“回音”)也是在用户3的身体中被生成的,所以这在耳机2没有被佩戴时不被检测到,或者即使被检测到,也生成非常小的声压。因此,可能在以下情况下通过算法来执行佩戴确定:当2kHz附近的声学信号的声压级中不存在峰值或峰值足够小时,确定没有佩戴设备;以及当存在峰值时,可能确定是否佩戴着设备。
由于耳道回音(图8中在5kHz至20kHz附近的“回音”)也是在用户3的身体中被生成的,所以这在耳机2没有被佩戴时不被检测到,或者即使被检测到,也生成非常小的声压。因此,可能在以下情况下通过算法来执行佩戴确定:当5kHz至20kHz附近的声学信号的声压级中不存在峰值或峰值足够小时,确定没有佩戴设备;以及如果存在峰值,则确定佩戴了设备。
另外,由于由声道回音或耳道音发生的峰值可以是由生物声音生成的,所以由生物声音导致的峰值可以被用于佩戴确定,但该峰值经常是弱的。因此,当声道回音或耳道回音的峰值被用于佩戴确定时,期望使用检查声音或执行用于促使话语的处理。由于与当检查声音在耳道中被发出时相比,当用户说出语音时的声道回音的峰值变得更大,所以期望在使用声道回音佩戴确定时执行促使话语的处理。由于当检查声音在耳道中被发出时耳道回音的峰值比当用户说出语音时更大,所以期望在用于声道回音佩戴确定时使用检查声音执行处理。
可以使用图11中示出那些中的任何一种执行佩戴确定,或者可以在通过将一个或多个标准参数化来计算佩戴状态分值之后基于佩戴状态分值是否等于或大于阈值来执行佩戴确定。
根据示例实施例,可能获取关于佩戴诸如耳机2的可佩戴设备的用户3的身体中的共振的声学信息,并且基于声学信息来确定用户3是否佩戴着可佩戴设备。因此,佩戴确定不仅能够在具有外部声音的环境中被执行而且能够在没有外部声音的安静环境中被执行。另外,由于身体中的共振被用于确定,所以在封闭环境中不太可能发生误判。因此,可能提供能够在更宽的环境中执行可佩戴设备的佩戴确定的信息处理设备。
在示例实施例中,当使用检查声音执行佩戴确定时,可以基于自从扬声器26生成声波到由麦克风27获取声波的回音时间来确定用户3是否佩戴着耳机2。从向耳道发出检查声音到获得回声的时间由耳道的长度确定,因为它是声波在用户3的耳道中的往返时间。如果回音时间明显偏离由耳道长度确定的时间,则没有佩戴耳机2的可能性高。因此,通过使用回音时间作为佩戴确定的元素,能够以更高的准确性执行佩戴确定。
[第二示例实施例]
示例实施例的信息处理系统与第一示例实施例的不同之处在于耳机2的结构和佩戴确定的处理。在下文中,将主要描述与第一示例实施例的不同,并且将省略或简化对共同部分的描述。
图12是图示根据示例实施例的信息处理系统的总体配置的示意图。在示例实施例中,耳机2包括布置在不同位置处的多个麦克风27和28。麦克风28由耳机控制设备20控制。麦克风28被布置在与耳机2的佩戴表面相对的背面侧上,以便在佩戴麦克风时接收来自外部的声波。
示例实施例的耳机2在使用生物声音的佩戴确定中更有效。因为生物声音是由呼吸声、心跳声、肌肉移动等导致的,所以声压弱,并且使用生物声音的佩戴确定的准确性可能由于外部噪声而不足。
因为生物声音是在身体中生成的,所以它们具有许多通过身体传播的分量。因此,当佩戴了耳机2时,由麦克风27获取的生物声音变得大于由麦克风28获取的生物声音。因此,当由麦克风27获取的生物声音大于由麦克风28获取的生物声音时,能够确定处于佩戴状态。在该技术中,由于外部噪声的影响被消除,可能执行具有比与阈值进行比较的大小关系的技术中更高的准确性的佩戴确定。因此,根据示例实施例,除了获得与第一示例实施例相同的效果之外,还能够实现具有高准确性的佩戴确定。
[第三示例实施例]
示例实施例的信息处理系统与第一示例实施例的不同之处在于图5的步骤S103中的佩戴确定处理的算法。下面主要描述与第一示例实施例的不同,并且将省略或简化对共同部分的描述。
在示例实施例中,假设使一个或多个标准参数化来计算佩戴状态分值,并且基于佩戴状态分值是否等于或大于阈值来执行佩戴确定。另外,在图5的处理中,即使在步骤S105中停止操作之后,处理也返回到步骤S101,并且以恒定时间段重复佩戴确定。图13是示出根据示例实施例的佩戴状态分值随时间变化的曲线图。图中的佩戴状态分值S1是佩戴状态与非佩戴状态之间的阈值(第一阈值)。
根据第一示例实施例的技术,当佩戴状态分值等于或大于第一阈值时,当前状态被确定为佩戴状态,并且当佩戴状态分值小于第一阈值时,当前状态被确定为非佩戴状态。因此,确定时刻t1之前的时间段、时刻t2与时刻t3之间的时间段以及时刻t4之后的时间段处于非佩戴状态,并且时刻t1与时刻t2之间的时间段以及时刻t3与时刻t4之间的时间段处于佩戴状态。
在这种情况下,当佩戴状态分值在从时刻t2到时刻t3的短时间内变化时,状态也被改变。由于用户3不在短时间段内重复地戴上和摘下耳机2,所以这种短时间段上的变化通常不能恰当地指示佩戴状态。特别地,当不顾佩戴着耳机2的事实而确定耳机2处于非佩戴状态时,耳机2的部分功能被停止,因此对于用户3的便利性变差。因此,在示例实施例的信息处理系统中,当佩戴状态分值在短时间段内变化时,执行佩戴确定处理以便使得状态难以改变。这种短时间段上的变化的示例是当用户3触摸耳机2时。下面将描述适用于示例实施例的佩戴确定处理的四个示例。
[佩戴确定处理的第一示例]
在根据示例实施例的佩戴确定处理的第一示例中,当佩戴状态分值从等于或大于第一阈值的状态变为小于第一阈值的状态时,佩戴状态被维持预定时间段。当佩戴状态分值在佩戴状态被维持的时间段内返回第一阈值或更高时,佩戴状态分值被视为没有变成非佩戴状态。结果,当在图13中从时刻t2到时刻t3的短时间段内佩戴状态分值减少时,佩戴状态被维持。
[佩戴确定处理的第二示例]
在根据示例实施例的佩戴确定处理的第二示例中,提供了用于佩戴确定的两个阈值。图14是示出通过两个阈值执行佩戴状态确定的示例的曲线图。图14中的佩戴状态分值S1是确定从非佩戴状态切换到佩戴状态的第一阈值,并且佩戴状态分值S2是确定从佩戴状态切换到非佩戴状态的第二阈值。
在示例中,在从时刻t2至时刻t3的时间段期间,佩戴状态分值低于第一阈值但不低于第二阈值,使得佩戴状态被维持。佩戴状态在从时刻t4到时刻t5的时间段内也相似地被维持。在时刻t5之后,当佩戴状态分值变得等于或小于第二阈值时,确定处于非佩戴状态。因此,在该示例中,通过提供两个阈值,能够为从佩戴状态切换到非佩戴状态以及从非佩戴状态切换到佩戴状态提供滞后。因此,由于短时间内发生的佩戴状态分值的微小波动而导致的佩戴状态与非佩戴状态之间的切换被抑制。
[佩戴确定处理的第三示例]
在根据示例实施例的佩戴确定处理的第三示例中,佩戴确定的时间段根据佩戴状态分值而不同。更具体地,当佩戴状态分值大于预定值时,佩戴确定的时间段被设置为长时间,并且当佩戴状态分值小于预定值时,佩戴确定的时间段被设置为短时间。预定值被设置为高于用于佩戴确定的第一阈值的值。因此,当佩戴状态分值变低时,如在图13中的时刻t2或t4附近,佩戴确定的时间段变长,使得由于佩戴状态分值在短时间段内的波动而导致的状态切换被抑制。因此,如果佩戴状态分值仅在诸如从图13中的时刻t2到时刻t3的短时间段内降低,则佩戴状态能够被容易地维持。
[佩戴确定处理的第四示例]
在根据示例实施例的佩戴确定处理的第四示例中,佩戴确定的时间段根据佩戴状态分值与第一阈值之间的不同而不同。更具体地,当佩戴状态分值与阈值之间的差异大于预定值时,佩戴确定的时间段被设置为长时间,并且当佩戴状态分值与第一阈值之间的不同小于预定值时,佩戴确定的时间段被设置为短时间。因此,当佩戴状态分值接近阈值时,如在图13中的时刻t1、t2、t3和t4附近,佩戴确定的时间段变长,使得由于佩戴状态分值在短时间段内的波动而导致的状态切换被抑制。因此,如果佩戴状态分值仅在诸如从图13中的时刻t2到时刻t3的短时间段内降低,则佩戴状态能够被容易地维持。
如上所述,在示例实施例中,当佩戴状态分值在短时间段内变化时,用于抑制状态改变的佩戴确定处理被实现。因此,降低了为用户3的便利性变差的可能性,诸如由于不顾用户佩戴着耳机2而确定没有佩戴该耳机而无法使用耳机2。因此,根据示例实施例,除了获得与第一示例实施例相同的效果之外,还能够提高用户的便利性。
也能够如以下第四示例实施例配置以上示例实施例中描述的系统。
[第四示例实施例]
图15是根据第四示例实施例的信息处理设备40的功能框图。信息处理设备40包括声学信息获取单元411和佩戴确定单元412。声学信息获取单元411获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息。佩戴确定单元412基于声学信息来确定用户是否佩戴着可佩戴设备。
根据示例实施例,提供了一种能够在更宽的环境中执行可佩戴设备的佩戴确定的信息处理设备40。
[修改的示例实施例]
本公开不限于上述示例实施例,并且可以在本公开的范围内适当地被修改。例如,一个实施例的配置的一部分被添加到另一实施例的示例或者另一实施例的配置的一部分被替换的示例也是示例实施例。
在以上示例实施例中,虽然耳机2被举例为可佩戴设备的示例,但是本公开不限于佩戴在耳朵上的设备,只要能够获取处理所必需的声学信息即可。例如,可佩戴设备可以是骨传导型声学设备。
此外,在上述示例实施例中,例如,如图8中所示,用于佩戴确定的声音的频率范围在20kHz或更小的可听范围内,但不限于此,并且检查声音可能是听不见的声音。例如,如果扬声器26和麦克风27的频率特性适用于超声波带,则检查声音可以是超声波。在这种情况下,减少了在佩戴确定时由于听到检查声音导致的不适。
示例实施例中的每个的范围还包括在存储介质中存储程序的处理方法,该程序使示例实施例中的每个的配置操作以便实现上述示例实施例中的每个的功能,读取作为代码存储在存储介质中的程序,并且在计算机中执行该程序。即,示例实施例中的每个的范围还包括计算机可读存储介质。此外,示例实施例中的每个不仅包括存储有上述计算机程序的存储介质,还包括计算机程序本身。此外,上述示例实施例中包括的一个或两个或更多个组件可以是被配置为实现每个组件的功能的诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)的电路。
作为存储介质,例如,可以使用软(注册商标)盘、硬盘、光盘、磁光盘、光盘(CD)-ROM、磁带、非易失性存储卡或ROM。此外,示例实施例中的每个的范围包括在操作系统(OS)上操作以与另一软件或机内插卡的功能协作执行处理的示例,而不限于通过存储介质中存储的各个程序执行处理的示例。
此外,可以以软件即服务(SaaS)的形式向用户提供由上述示例实施例中的每个的功能实现的服务。
应当注意,上述实施例仅仅是体现本公开的示例,并且本公开的技术范围不应由这些示例限制性地解释。即,本公开能够被实现为各种形式而不脱离本公开技术思想或主要特征。
以上所公开的示例实施例的全部或部分能够被描述为但不限于以下补充注释。
(补充注释1)
一种信息处理设备,包括:
声学信息获取单元,该声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
佩戴确定单元,该佩戴确定单元被配置为基于声学信息,来确定用户是否佩戴着所述可佩戴设备。
(补充注释2)
根据补充注释1的信息处理设备,其中,声学信息包括关于用户的声道中的共振的信息。
(补充注释3)根据补充注释2的信息处理设备,其中,佩戴确定单元基于具有与声道中的共振对应的频率的信号的峰值,来确定用户是否佩戴着可佩戴设备。
(补充注释4)
根据补充注释1至3中的任一项的信息处理设备,其中,声学信息包括关于用户的耳道中的共振的信息。
(补充注释5)根据补充注释4的信息处理设备,其中,佩戴确定单元基于具有与耳道中的共振对应的频率的信号的峰值,来确定用户是否佩戴着可佩戴设备。
(补充注释6)
根据补充注释1至5中的任一项的信息处理设备,其中,可佩戴设备包括声波发出单元,该声波发出单元被配置为向用户的耳道发出声波。
(补充注释7)
根据补充注释6的信息处理设备,进一步包括发声控制单元,该发声控制单元被配置为在声学信息中包括的声压级不足以进行佩戴确定单元中的确定的情况下,控制声波发出单元发出声波。
(补充注释8)根据补充注释6或7的信息处理设备,其中,佩戴确定单元基于在从声波发出单元发出声波与获取可佩戴设备中的回声之间的回音时间,来确定用户是否佩戴着可佩戴设备。
(补充注释9)
根据补充注释8的信息处理设备,其中,回音时间是基于声波在用户的耳道中的往返时间。
(补充注释10)
根据补充注释6至9中的任一项的信息处理设备,其中,从声波发出单元发出的声波具有基于线性调频信号、M序列信号或白噪声的频率特性。
(补充注释11)
根据补充注释1至10中的任一项的信息处理设备,进一步包括通知信息生成单元,该通知信息生成单元被配置为在声学信息中包括的声压级不足以进行佩戴确定单元中的确定的情况下,生成通知信息以促使用户发出语音。
(补充注释12)
根据补充注释1至11中的任一项的信息处理设备,其中,佩戴确定单元基于在基于声学信息的分值与第一阈值之间的大小关系,来确定用户是否佩戴着可佩戴设备。
(补充注释13)
根据补充注释12的信息处理设备,其中,可佩戴设备在分值从分值大于或等于第一阈值的状态改变为分值小于第一阈值的状态之后,停止至少一部分功能。
(补充注释14)
根据补充注释13的信息处理设备,其中,在分值已经改变为小于第一阈值之后的预定时间段内分值再次改变为等于或大于第一阈值的情况下,可佩戴设备不停止至少一部分功能。
(补充注释15)根据补充注释13的信息处理设备,
其中佩戴确定单元基于小于第一阈值的第二阈值来进一步确定用户是否佩戴着可佩戴设备,以及
其中,在分值已经从分值等于或大于第一阈值的状态改变为分值小于第一阈值的状态之后,分值不改变为分值小于第二阈值的状态的情况下,可佩戴设备不停止至少一部分功能。
(补充注释16)
根据补充注释1至15中的任一项的信息处理设备,其中,可佩戴设备是佩戴在用户的耳朵上的声学设备。
(补充注释17)根据补充注释1至16中的任一项的信息处理设备,其中,声学信息包括关于在用户的身体中生成的声音的信息。
(补充注释18)
根据补充注释17所述的信息处理设备,其中,佩戴确定单元基于与用户的身体中生成的声音对应的声压级,来确定用户是否佩戴着可佩戴设备。
(补充注释19)
根据补充说明1至18中的任一项的信息处理设备,其中,佩戴确定单元基于由布置在相互不同的位置的多个麦克风获取的声学信息,来确定用户是否佩戴着可佩戴设备。
(补充注释20)
一种可佩戴设备,包括:
声学信息获取单元,该声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
佩戴确定单元,该佩戴确定单元被配置为基于声学信息,来确定用户是否佩戴着可佩戴设备。
(补充注释21)
一种信息处理方法,包括:
获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
基于声学信息,来确定用户是否佩戴着可佩戴设备。
(补充注释22)
一种存储程序的存储介质,该程序使计算机执行:
获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
基于声学信息,来确定用户是否佩戴着可佩戴设备。
附图标记列表
1 信息通信设备
2 耳机
3 用户
20 耳机控制设备
26 扬声器
27、28 麦克风
40 信息处理设备
101、201 CPU
102、202 RAM
103、203 ROM
104 HDD
105、207 通信I/F
106 输入设备
107 输出设备
204 闪存
205 扬声器I/F
206 麦克风I/F
208 电池
211、411 声学信息获取单元
212、412 佩戴确定单元
213 发声控制单元
214 通知信息生成单元
215 存储单元

Claims (22)

1.一种信息处理设备,包括:
声学信息获取单元,所述声学信息获取单元被配置为获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
佩戴确定单元,所述佩戴确定单元被配置为基于所述声学信息,来确定所述用户是否佩戴着所述可佩戴设备。
2.根据权利要求1所述的信息处理设备,其中,所述声学信息包括关于所述用户的声道中的共振的信息。
3.根据权利要求2所述的信息处理设备,其中,所述佩戴确定单元基于具有与所述声道中的所述共振对应的频率的信号的峰值,来确定所述用户是否佩戴着所述可佩戴设备。
4.根据权利要求1至3中的任一项所述的信息处理设备,其中,所述声学信息包括关于所述用户的耳道中的共振的信息。
5.根据权利要求4所述的信息处理设备,其中,所述佩戴确定单元基于具有与所述耳道中的所述共振对应的频率的信号的峰值,来确定所述用户是否佩戴着所述可佩戴设备。
6.根据权利要求1至5中的任一项所述的信息处理设备,其中,所述可佩戴设备包括声波发出单元,所述声波发出单元被配置为向所述用户的耳道发出声波。
7.根据权利要求6所述的信息处理设备,进一步包括发声控制单元,所述发声控制单元被配置为在所述声学信息中包括的声压级不足以进行所述佩戴确定单元中的确定的情况下,控制所述声波发出单元发出声波。
8.根据权利要求6或7所述的信息处理设备,其中,所述佩戴确定单元基于在从所述声波发出单元发出声波与获取所述可佩戴设备中的回声之间的回音时间,来确定所述用户是否佩戴着所述可佩戴设备。
9.根据权利要求8所述的信息处理设备,其中,所述回音时间是基于声波在所述用户的所述耳道中的往返时间。
10.根据权利要求6至9中的任一项所述的信息处理设备,其中,从所述声波发出单元发出的声波具有基于线性调频信号、M序列信号或白噪声的频率特性。
11.根据权利要求1至10中的任一项所述的信息处理设备,进一步包括通知信息生成单元,所述通知信息生成单元被配置为在所述声学信息中包括的声压级不足以进行所述佩戴确定单元中的确定的情况下,生成通知信息以促使所述用户发出语音。
12.根据权利要求1至11中的任一项所述的信息处理设备,其中,所述佩戴确定单元基于在基于所述声学信息的分值与第一阈值之间的大小关系,来确定所述用户是否佩戴着所述可佩戴设备。
13.根据权利要求12所述的信息处理设备,其中,在所述分值从所述分值大于或等于所述第一阈值的状态改变为所述分值小于所述第一阈值的状态之后,所述可佩戴设备停止至少一部分功能。
14.根据权利要求13所述的信息处理设备,其中,在所述分值已经改变为小于所述第一阈值之后的预定时间段内所述分值再次改变为等于或大于所述第一阈值的情况下,所述可佩戴设备不停止所述至少一部分功能。
15.根据权利要求13所述的信息处理设备,
其中,所述佩戴确定单元进一步基于小于所述第一阈值的第二阈值,来确定所述用户是否佩戴着所述可佩戴设备;以及
其中,在所述分值已经从所述分值等于或大于所述第一阈值的状态改变为所述分值小于所述第一阈值的状态之后,所述分值不改变为所述分值小于所述第二阈值的状态的情况下,所述可佩戴设备不停止所述至少一部分功能。
16.根据权利要求1至15中的任一项所述的信息处理设备,其中,所述可佩戴设备是佩戴在所述用户的耳朵上的声学设备。
17.根据权利要求1至16中的任一项所述的信息处理设备,其中,所述声学信息包括关于在所述用户的所述身体中生成的声音的信息。
18.根据权利要求17所述的信息处理设备,其中,所述佩戴确定单元基于与所述用户的所述身体中生成的声音对应的声压级,来确定所述用户是否佩戴着所述可佩戴设备。
19.根据权利要求1至18中的任一项所述的信息处理设备,其中,所述佩戴确定单元基于由布置在相互不同的位置的多个麦克风获取的所述声学信息,来确定所述用户是否佩戴着所述可佩戴设备。
20.一种可佩戴设备,包括:
声学信息获取单元,所述声学信息获取单元被配置为获取关于佩戴着所述可佩戴设备的用户的身体中的共振的声学信息;以及
佩戴确定单元,所述佩戴确定单元被配置为基于所述声学信息,来确定所述用户是否佩戴着所述可佩戴设备。
21.一种信息处理方法,包括:
获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
基于所述声学信息,来确定所述用户是否佩戴着所述可佩戴设备。
22.一种存储程序的存储介质,所述程序使计算机执行:
获取关于佩戴着可佩戴设备的用户的身体中的共振的声学信息;以及
基于所述声学信息,来确定所述用户是否佩戴着所述可佩戴设备。
CN201880100711.2A 2018-12-19 2018-12-19 信息处理设备、可佩戴设备、信息处理方法和存储介质 Pending CN113455017A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/046878 WO2020129196A1 (ja) 2018-12-19 2018-12-19 情報処理装置、装着型機器、情報処理方法及び記憶媒体

Publications (1)

Publication Number Publication Date
CN113455017A true CN113455017A (zh) 2021-09-28

Family

ID=71100434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880100711.2A Pending CN113455017A (zh) 2018-12-19 2018-12-19 信息处理设备、可佩戴设备、信息处理方法和存储介质

Country Status (5)

Country Link
US (2) US11895455B2 (zh)
EP (1) EP3902283A4 (zh)
JP (2) JP7300091B2 (zh)
CN (1) CN113455017A (zh)
WO (1) WO2020129196A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11122350B1 (en) 2020-08-18 2021-09-14 Cirrus Logic, Inc. Method and apparatus for on ear detect
US20240160709A1 (en) * 2021-03-18 2024-05-16 Nec Corporation Authentication management device, authentication method, and recording medium
TWI773382B (zh) * 2021-06-15 2022-08-01 台灣立訊精密有限公司 耳機及耳機狀態檢測方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090154720A1 (en) * 2007-12-18 2009-06-18 Yutaka Oki Sound output control device and sound output control method
US20090208027A1 (en) * 2008-02-15 2009-08-20 Takashi Fukuda Apparatus for rectifying resonance in the outer-ear canals and method of rectifying
CN101682811A (zh) * 2008-04-10 2010-03-24 松下电器产业株式会社 使用入耳式耳机的声音再生装置
CN101765035A (zh) * 2008-12-04 2010-06-30 索尼株式会社 音乐再现系统与信息处理方法
JP2010154563A (ja) * 2010-03-23 2010-07-08 Toshiba Corp 音響再生装置
GB2499781A (en) * 2012-02-16 2013-09-04 Ian Vince Mcloughlin Acoustic information used to determine a user's mouth state which leads to operation of a voice activity detector
JP2016006925A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 ヘッドセット
CN106162489A (zh) * 2015-03-27 2016-11-23 华为技术有限公司 一种耳机状态检测方法及终端
US20170347180A1 (en) * 2016-05-27 2017-11-30 Bugatone Ltd. Determining earpiece presence at a user ear

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065363A (ja) 2002-08-02 2004-03-04 Sony Corp 個人認証装置と個人認証方法、及び信号伝送装置
JP2004153350A (ja) 2002-10-29 2004-05-27 Matsushita Electric Ind Co Ltd 装着式音響出力装置、および音響再生装置
JP2007165940A (ja) 2005-12-09 2007-06-28 Nec Access Technica Ltd 携帯電話機及び携帯電話機の音響再生動作自動停止方法
JP2009207053A (ja) 2008-02-29 2009-09-10 Victor Co Of Japan Ltd ヘッドホン,ヘッドホンシステム,及びヘッドホンが接続された情報再生装置の電源制御方法
JP2009232423A (ja) 2008-03-25 2009-10-08 Panasonic Corp 音響出力装置、携帯端末装置および耳装着判定方法
US8199956B2 (en) 2009-01-23 2012-06-12 Sony Ericsson Mobile Communications Acoustic in-ear detection for earpiece
JP5907068B2 (ja) 2010-10-19 2016-04-20 日本電気株式会社 携帯機器
JPWO2014010165A1 (ja) 2012-07-10 2016-06-20 パナソニックIpマネジメント株式会社 補聴器
JP5880340B2 (ja) 2012-08-02 2016-03-09 ソニー株式会社 ヘッドホン装置、装着状態検出装置、装着状態検出方法
WO2014061578A1 (ja) 2012-10-15 2014-04-24 Necカシオモバイルコミュニケーションズ株式会社 電子機器、及び音響再生方法
JP2014187413A (ja) 2013-03-21 2014-10-02 Casio Comput Co Ltd 音響機器並びにプログラム
GB201801526D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801532D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090154720A1 (en) * 2007-12-18 2009-06-18 Yutaka Oki Sound output control device and sound output control method
US20090208027A1 (en) * 2008-02-15 2009-08-20 Takashi Fukuda Apparatus for rectifying resonance in the outer-ear canals and method of rectifying
CN101682811A (zh) * 2008-04-10 2010-03-24 松下电器产业株式会社 使用入耳式耳机的声音再生装置
US20100177910A1 (en) * 2008-04-10 2010-07-15 Yasuhito Watanabe Sound reproducing apparatus using in-ear earphone
CN101765035A (zh) * 2008-12-04 2010-06-30 索尼株式会社 音乐再现系统与信息处理方法
JP2010154563A (ja) * 2010-03-23 2010-07-08 Toshiba Corp 音響再生装置
GB2499781A (en) * 2012-02-16 2013-09-04 Ian Vince Mcloughlin Acoustic information used to determine a user's mouth state which leads to operation of a voice activity detector
JP2016006925A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 ヘッドセット
CN106162489A (zh) * 2015-03-27 2016-11-23 华为技术有限公司 一种耳机状态检测方法及终端
US20170347180A1 (en) * 2016-05-27 2017-11-30 Bugatone Ltd. Determining earpiece presence at a user ear

Also Published As

Publication number Publication date
EP3902283A4 (en) 2022-01-12
US11895455B2 (en) 2024-02-06
JPWO2020129196A1 (ja) 2021-09-27
EP3902283A1 (en) 2021-10-27
US20240080605A1 (en) 2024-03-07
US20220053257A1 (en) 2022-02-17
JP7300091B2 (ja) 2023-06-29
WO2020129196A1 (ja) 2020-06-25
JP2023105135A (ja) 2023-07-28

Similar Documents

Publication Publication Date Title
US10631087B2 (en) Method and device for voice operated control
US20240080605A1 (en) Information processing device, wearable device, information processing method, and storage medium
CN108701449B (zh) 耳机中的主动降噪的系统和方法
US10129624B2 (en) Method and device for voice operated control
US9570071B1 (en) Audio signal transmission techniques
JP5256119B2 (ja) 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路
US11937040B2 (en) Information processing device, information processing method, and storage medium
CN113630708B (zh) 耳机麦克风异常检测的方法、装置、耳机套件及存储介质
KR101535112B1 (ko) 청력 보호를 위한 이어폰, 이동 단말기 및 이를 포함하는 이어폰 시스템, 이를 수행하기 위한 기록매체
US20220122605A1 (en) Method and device for voice operated control
WO2008128173A1 (en) Method and device for voice operated control
WO2019228329A1 (zh) 个人听力装置、外部声音处理装置及相关计算机程序产品
US11290802B1 (en) Voice detection using hearable devices
JP7131636B2 (ja) 情報処理装置、装着型機器、情報処理方法及び記憶媒体
KR102038464B1 (ko) 청음 보조 장치
JP7315045B2 (ja) 情報処理装置、装着型機器、情報処理方法及び記憶媒体
US11418878B1 (en) Secondary path identification for active noise cancelling systems and methods
JP7028339B2 (ja) 情報処理装置、装着型機器、情報処理方法及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination