CN109460120A - 一种基于声场定位的现实模拟方法及智能穿戴设备 - Google Patents

一种基于声场定位的现实模拟方法及智能穿戴设备 Download PDF

Info

Publication number
CN109460120A
CN109460120A CN201811370657.1A CN201811370657A CN109460120A CN 109460120 A CN109460120 A CN 109460120A CN 201811370657 A CN201811370657 A CN 201811370657A CN 109460120 A CN109460120 A CN 109460120A
Authority
CN
China
Prior art keywords
receptor
feedback
sound source
reality simulation
sound field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811370657.1A
Other languages
English (en)
Inventor
李祖应
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201811370657.1A priority Critical patent/CN109460120A/zh
Publication of CN109460120A publication Critical patent/CN109460120A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于声场定位的现实模拟方法,包括:在空间周围设置多个的扬声器;扬声器通过一个音频解码器与音频输出装置相连接,音频解码器将音频输出装置输出的音频信号进行解码,从而在空间内部的受体周围形成一个立体的声场;音频解码器通过调节各个扬声器的输出的声波信号的声强差、时间差以及波形相位差,从而在受体周围的确定一个虚拟声源。该方法通过三轴声场定位技术拟合出一个虚拟声源并将该虚拟声源与其他的场景信息相对应并匹配,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,进一步增加现实代入感。本发明还公开了一种用于现实模拟的智能穿戴设备。

Description

一种基于声场定位的现实模拟方法及智能穿戴设备
技术领域
本发明涉及现实模拟与反馈的方法,特别涉及一种基于声场定位的现实模拟方法。
背景技术
声学成像(acoustic imaging)是基于传声器阵列测量技术,通过测量一定空间内的声波到达各传声器的信号相位差异,依据相控阵原理确定声源的位置,测量声源的幅值,并以图像的方式显示声源在空间的分布,即取得空间声场分布云图-声像图,其中以图像的颜色和亮度代表声音的强弱。
声成像的研究开始于20世纪20年代末期。最早使用的方法是液面形变法。随后,很多种声成像方法相继出现,至70年代已形成一些较为成熟的方法,并有了大量的商品化产品。声成像方法可分为主动声成像、扫描声成像和声全息。
由于很多声检测器均能记录声波的幅度和相位,并将其转换成相应的电信号,记录换能器阵列各单元接收信号的幅度和相位,即可重现物体声像。
目前随着虚拟现实技术的发展,出现了很多智能的穿戴设备。通过投影眼镜或者显示屏可以将虚拟的物体投射于现实的影像中。但是这些装置一般缺少相应的反馈动作,佩戴者的代入感不强,难以形成较好的沉浸式虚拟现实体验。
发明内容
本发明的一个目的是提供一种基于声场定位的现实模拟方法。本发明的另一个目的是提供一种用于现实模拟的智能穿戴设备。
根据本发明的一个方面,提供了一种基于声场定位的现实模拟方法,包括:
在空间周围设置多个的扬声器;
扬声器通过一个音频解码器与音频输出装置相连接,音频解码器将音频输出装置输出的音频信号进行解码,从而在空间内部的受体周围形成一个立体的声场;
音频解码器通过调节各个扬声器的输出的声波信号的声强差、时间差以及波形相位差,从而在受体周围的空间内确定一个虚拟声源;
虚拟声源位于受体周围且其方位与其他的场景信息相对应并匹配,受体通过场景信息结合虚拟声源获得一个将虚拟场景现实化的一个真实体验。
在一些实施方式中,多个扬声器构成一个三轴定位声场。
在一些实施方式中,多个扬声器至少包括至少三组分别没置在不同的维度上的扬声器,扬声器分别设于空间的边缘。
在一些实施方式中,其他的场景信息包括受体接收到的视觉信息和/或受体表面相应的部位产生的动作反馈,动作反馈包括振动刺激、微流电击和挤压刺激。
在一些实施方式中,受体为穿戴有一个与中央处理器相连接的智能穿戴设备的人,受体处于声场中,智能穿戴设备用于接受中央处理器控制并对受体施加动作反馈。
采用以上技术方案的基于声场定位的现实模拟方法,通过三轴声场定位技术拟合出一个虚拟声源并将该虚拟声源与其他的场景信息相对应并匹配,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
根据本发明的另一个方面,提供了一种用于现实模拟的智能穿戴设备,智能穿戴设备为智能马甲或者智能外套,智能马甲或者智能外套分布有多个换能器、微流电击装置或者可控充气气囊,中央处理器控制换能器、微流电击装置或者可控充气气囊与扬声器同步动作,从而产生与虚拟声源相对应的动作反馈。
在一些实施方式中,智能马甲或者智能外套沿受体表面分为多个独立控制的反馈区域,反馈区域按照点阵式设置且每个反馈区域分别设有换能器或者微流电击装置,中央处理器设有一个点阵驱动器,点阵驱动器与换能器或者微流电击装置相连接,并对换能器或者微流电击装置进行独立的控制。
在一些实施方式中,智能马甲或者智能外套至少具有以下三种工作模式其中之一:
贯穿模式,用于模拟利器或者子弹对人体产生的贯穿感觉,在此模式下,受体两个表面上相对应的且不相邻的两个反馈区域进行反馈动作,两个反馈区域同时进行反馈动作,或者靠近虚拟声源的反馈区域的先进行反馈动作,另一反馈区域随后进行反馈动作,虚拟声源位于受体一侧或者先位于受体一侧然后跳跃至受体另一侧;
剐蹭模式,用于模拟外部环境中的物体对人体产生的剐蹭或者抚摸的感觉,在此模式下,受体表面上的多个相邻的反馈区域按照一条路径依次进行反馈动作,多个反馈区域按照点动的方式动作,另一个反馈区域动作时前一个反馈区域停止,虚拟声源沿与路径相对应的范围进行移动;
切割模式,用于模拟利器对人体产生的切割感觉,在此模式下,受体表面上的多个相邻的反馈区域按照一条路径依次进行反馈动作,多个反馈区域按照自锁的方式动作,另一个反馈区域动作时前一个反馈区域继续保留,直至整做反馈动作完成,虚拟声源沿与路径相对应的范围进行移动。
在一些实施方式中,智能马甲或者智能外套沿受体表面设有多个可控充气气囊,每个可控充气气囊对应一个或者多个反馈区域,可控充气气囊分别与排气阀和充气泵相连接,排气阀和充气泵与中央处理器相连接,中央处理器通过排气阀和充气泵控制可控充气气囊的充放气,当可控充气气囊充气时,智能马甲或者智能外套对受体的相应区域产生挤压刺激。
在一些实施方式中,智能马甲或者智能外套通过可控充气气囊实现撞击模式,撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉。
采用以上技术方案的用于现实模拟的智能穿戴设备,针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
附图说明
图1为本发明一种实施方式的基于声场定位的现实模拟方法的声场的布置结构示意图。
图2为基于声场定位的现实模拟方法的装置连接关系图。
图3为本发明一种实施方式的用于现实模拟的智能马甲的结构示意图。
图4为图3所示的智能马甲的贯穿模式的反馈过程示意图。
图5为图3所示的智能马甲的剐蹭模式的反馈过程示意图。
图6为图3所示的智能马甲的切割模式的反馈过程示意图。
图7为本发明另一种实施方式的基于声场定位的现实模拟方法的声场的装置连接关系图。
具体实施方式
下面结合附图对本发明作进一步详细的说明。
实施例1
图1至图3示意性地显示了根据本发明的一种实施方式的一种基于声场定位的现实模拟方法。
如图1所示,声场由设置在空间周围的多个扬声器1共同构建。
受体2为穿戴有可穿戴式智能穿戴设备的人。
其中,扬声器1通过一个音频解码器4与音频输出装置5相连接。
音频解码器4将音频输出装置5输出的音频信号进行解码,形成多个声道并通过扬声器1产生声波信号,从而在空间内部的受体2周围形成一个立体的声场。
音频解码器4通过调节各个扬声器1的输出的声波信号的声强差、时间差以及波形相位差。
人耳在接收到各个扬声器1声波信号后在受体2周围的空间内确定一个虚拟声源6。
虚拟声源6位于受体2周围且其方位与其他的场景信息相对应并匹配。
受体2通过场景信息结合虚拟声源6获得一个将虚拟场景现实化的一个真实体验。
在本实施例中,多个扬声器1构成一个三轴定位声场。
优选地,多个扬声器1至少包括至少三组分别没置在不同的维度上的扬声器1。扬声器1分别设于空间的边缘。
在本实施例中,其他的场景信息包括受体2接收到的视觉信息和/或受体表面相应的部位产生的动作反馈,动作反馈包括振动刺激、微流电击和挤压刺激。
在本实施例中,受体2为穿戴有一个与中央处理器7相连接的智能穿戴设备的人。
受体2处于声场中,智能穿戴设备用于接受中央处理器7控制并对受体2施加动作反馈。
在本实施例中,智能穿戴设备为智能马甲8,智能马甲8分布有多个换能器91或者微流电击装置92。
换能器91是利用某些单晶材料的压电效应和某些多晶材料的电致伸缩效应来将电能与声能进行相互转换的器件。因其电声效率高、功率容量大以及结构和形状可以根据不同的应用分别进行设计,在功率超声领域应用广泛。
微流电击装置92将电流直接进入人体内从而在人体表面引起的轻微电击,电流强度小于1微安,从而不会对人体造成伤害。
中央处理器7控制换能器91、微流电击装置92或者可控充气气囊93与扬声器1同步动作,从而产生与虚拟声源6相对应的动作反馈。
在其他的实施例中,智能穿戴设备还可以为智能外套或者智能头盔等装备。
如图3所示,智能马甲8沿受体2表面分为多个独立控制的反馈区域81。
反馈区域81按照点阵式设置且每个反馈区域91分别设有换能器91或者微流电击装置92。
中央处理器7设有一个点阵驱动器71。
点阵驱动器71与换能器91或者微流电击装置92相连接,并对换能器91或者微流电击装置92进行独立的控制。
如图4至图6所示,智能马甲8至少具有以下三种工作模式其中之一:
贯穿模式,用于模拟利器或者子弹对人体产生的贯穿感觉,在此模式下,受体两个表面上相对应的且不相邻的两个反馈区域(81a,81b)进行反馈动作,两个反馈区域(81a,81b)可以同时进行反馈动作,也可以靠近虚拟声源6的反馈区域(81a)的先进行反馈动作,另一反馈区域(81b)随后进行反馈动作,虚拟声源位于受体一侧或者先位于受体一侧然后跳跃至受体另一侧。
剐蹭模式,用于模拟外部环境中的物体对人体产生的剐蹭或者抚摸的感觉,在此模式下,受体表面上的多个相邻的反馈区域(81c,81d,81e,81f)按照一条路径A依次进行反馈动作,多个反馈区(81c,81d,81e,81f)域按照点动的方式动作,另一个反馈区域动作时前一个反馈区域停止,虚拟声源沿与路径A相对应的范围进行移动。
切割模式,用于模拟利器对人体产生的切割感觉,在此模式下,受体表面上的多个相邻的反馈区域(81c,81d,81e,81f)按照一条路径A依次进行反馈动作,多个反馈区域(81c,81d,81e,81f)按照自锁的方式动作,另一个反馈区域动作时前一个反馈区域继续保留,直至整做反馈动作完成,虚拟声源沿与路径A相对应的范围进行移动。
采用以上技术方案的基于声场定位的现实模拟方法,通过三轴声场定位技术拟合出一个虚拟声源并将该虚拟声源与其他的场景信息相对应并匹配,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
实施例2
图7示意性地显示了根据本发明的另一种实施方式的用于现实模拟的智能穿戴设备。与实施例1的不同之处在于,智能马甲或者智能外套沿受体表面设有多个可控充气气囊93。
每个可控充气气囊93对应智能马甲或者智能外套的一个或者多个反馈区域。
可控充气气囊93分别与排气阀931和充气泵932相连接。
排气阀931和充气泵932与中央处理器7相连接。
中央处理器7通过排气阀931和充气泵932控制可控充气气囊93的充放气。
当可控充气气囊93充气时,智能马甲或者智能外套对受体的相应区域产生挤压刺激。由此智能马甲或者智能外套通过可控充气气囊93实现撞击模式,撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉,从而可以突出冲击的感觉。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种基于声场定位的现实模拟方法,其特征在于,包括:
在空间周围设置多个的扬声器;
所述扬声器通过一个音频解码器与音频输出装置相连接,所述音频解码器将所述音频输出装置输出的音频信号进行解码,从而在空间内部的受体周围形成一个立体的声场;
所述音频解码器通过调节各个扬声器的输出的声波信号的声强差、时间差以及波形相位差,从而在受体周围的空间内确定一个虚拟声源;
所述虚拟声源位于所述受体周围且其方位与其他的场景信息相对应并匹配,所述受体通过所述场景信息结合所述虚拟声源获得一个将虚拟场景现实化的一个真实体验。
2.根据权利要求1所述的基于声场定位的现实模拟方法,其特征在于,所述多个扬声器构成一个三轴定位声场。
3.根据权利要求2所述的基于声场定位的现实模拟方法,其特征在于,所述多个扬声器至少包括至少三组分别没置在不同的维度上的所述扬声器,所述扬声器分别设于空间的边缘。
4.根据权利要求1所述的基于声场定位的现实模拟方法,其特征在于,所述其他的场景信息包括所述受体接收到的视觉信息和/或所述受体表面相应的部位产生的动作反馈,所述动作反馈包括振动刺激、微流电击和挤压刺激。
5.根据权利要求1所述的基于声场定位的现实模拟方法,其特征在于,所述受体为穿戴有一个与中央处理器相连接的智能穿戴设备的人,所述受体处于所述声场中,所述智能穿戴设备用于接受所述中央处理器控制并对所述受体施加所述动作反馈。
6.一种用于现实模拟的智能穿戴设备,其特征在于,所述智能穿戴设备为智能马甲或者智能外套,所述智能马甲或者智能外套分布有多个换能器、微流电击装置或者可控充气气囊,所述中央处理器控制所述换能器、微流电击装置或者可控充气气囊与所述扬声器同步动作,从而产生与所述虚拟声源相对应的动作反馈。
7.根据权利要求6所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套沿所述受体表面分为多个独立控制的反馈区域,所述反馈区域按照点阵式设置且每个反馈区域分别设有所述换能器或者所述微流电击装置,所述中央处理器设有一个点阵驱动器,所述点阵驱动器与所述换能器或者所述微流电击装置相连接,并对所述换能器或者所述微流电击装置进行独立的控制。
8.根据权利要求7所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套至少具有以下三种工作模式其中之一:
贯穿模式,用于模拟利器或者子弹对人体产生的贯穿感觉,在此模式下,所述受体两个表面上相对应的且不相邻的两个所述反馈区域进行反馈动作,两个所述反馈区域同时进行反馈动作,或者靠近所述虚拟声源的所述反馈区域的先进行反馈动作,另一所述反馈区域随后进行反馈动作,所述虚拟声源位于所述受体一侧或者先位于所述受体一侧然后跳跃至所述受体另一侧;
剐蹭模式,用于模拟外部环境中的物体对人体产生的剐蹭或者抚摸的感觉,在此模式下,所述受体表面上的多个相邻的所述反馈区域按照一条路径依次进行反馈动作,多个所述反馈区域按照点动的方式动作,另一个所述反馈区域动作时前一个所述反馈区域停止,所述虚拟声源沿与所述路径相对应的范围进行移动;
切割模式,用于模拟利器对人体产生的切割感觉,在此模式下,所述受体表面上的多个相邻的所述反馈区域按照一条路径依次进行反馈动作,多个所述反馈区域按照自锁的方式动作,另一个所述反馈区域动作时前一个所述反馈区域继续保留,直至整做反馈动作完成,所述虚拟声源沿与所述路径相对应的范围进行移动。
9.根据权利要求8所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套沿所述受体表面设有多个可控充气气囊,每个可控充气气囊对应一个或者多个所述反馈区域,所述可控充气气囊分别与排气阀和充气泵相连接,所述排气阀和所述充气泵与所述中央处理器相连接,所述中央处理器通过所述排气阀和所述充气泵控制所述可控充气气囊的充放气,当所述可控充气气囊充气时,所述智能马甲或者所述智能外套对所述受体的相应区域产生挤压刺激。
10.根据权利要求9所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套通过所述可控充气气囊实现撞击模式,所述撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉。
CN201811370657.1A 2018-11-17 2018-11-17 一种基于声场定位的现实模拟方法及智能穿戴设备 Pending CN109460120A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811370657.1A CN109460120A (zh) 2018-11-17 2018-11-17 一种基于声场定位的现实模拟方法及智能穿戴设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811370657.1A CN109460120A (zh) 2018-11-17 2018-11-17 一种基于声场定位的现实模拟方法及智能穿戴设备

Publications (1)

Publication Number Publication Date
CN109460120A true CN109460120A (zh) 2019-03-12

Family

ID=65610816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811370657.1A Pending CN109460120A (zh) 2018-11-17 2018-11-17 一种基于声场定位的现实模拟方法及智能穿戴设备

Country Status (1)

Country Link
CN (1) CN109460120A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114513742A (zh) * 2020-11-17 2022-05-17 Oppo广东移动通信有限公司 一种设备位置指示方法、存储介质及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120250869A1 (en) * 2011-03-30 2012-10-04 Yamaha Corporation Sound Image Localization Control Apparatus
CN104407701A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种面向个人的集群化虚拟现实交互系统
US20170108929A1 (en) * 2015-04-28 2017-04-20 Morgan Walker Sinko System and Method for Full Motion Capture and Haptic Feedback Suite
CN107197407A (zh) * 2016-02-19 2017-09-22 汤姆逊许可公司 用于确定处于目标位置的目标声音场景的方法及装置
CN108604439A (zh) * 2016-02-04 2018-09-28 奇跃公司 增强现实系统中定向音频的技术
CN108829372A (zh) * 2018-09-07 2018-11-16 厦门海傲斯科技有限公司 一种现实模拟方法及用于现实模拟的智能穿戴设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120250869A1 (en) * 2011-03-30 2012-10-04 Yamaha Corporation Sound Image Localization Control Apparatus
CN104407701A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种面向个人的集群化虚拟现实交互系统
US20170108929A1 (en) * 2015-04-28 2017-04-20 Morgan Walker Sinko System and Method for Full Motion Capture and Haptic Feedback Suite
CN108604439A (zh) * 2016-02-04 2018-09-28 奇跃公司 增强现实系统中定向音频的技术
CN107197407A (zh) * 2016-02-19 2017-09-22 汤姆逊许可公司 用于确定处于目标位置的目标声音场景的方法及装置
CN108829372A (zh) * 2018-09-07 2018-11-16 厦门海傲斯科技有限公司 一种现实模拟方法及用于现实模拟的智能穿戴设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114513742A (zh) * 2020-11-17 2022-05-17 Oppo广东移动通信有限公司 一种设备位置指示方法、存储介质及设备
CN114513742B (zh) * 2020-11-17 2023-07-21 Oppo广东移动通信有限公司 一种设备位置指示方法、存储介质及设备

Similar Documents

Publication Publication Date Title
US10390139B2 (en) Apparatus and methods for audio-tactile spatialization of sound and perception of bass
US11422628B2 (en) Methods, devices, and systems for modifying perceived haptic stimulations on a user
CN108829372A (zh) 一种现实模拟方法及用于现实模拟的智能穿戴设备
US11263879B2 (en) Tactile transducer with digital signal processing for improved fidelity
JP6904963B2 (ja) 拡張現実システムにおいてオーディオを指向させるための技法
CN105472527B (zh) 一种马达矩阵控制方法及一种可穿戴设备
JP2019523498A (ja) オーディオコンテンツをユーザに送出するための触覚システム
US6549122B2 (en) Portable orientation system
JPH04249500A (ja) オンラインで指向性音響を提供する方法並びに装置
JP2018507485A (ja) 触覚系における知覚
CN106226903A (zh) 一种虚拟现实头戴设备
CN105997448B (zh) 频域投影式超声回波定位导盲仪
US11397467B1 (en) Tactile simulation of initial contact with virtual objects
US11234073B1 (en) Selective active noise cancellation
CN109460120A (zh) 一种基于声场定位的现实模拟方法及智能穿戴设备
CN205510353U (zh) 头戴式骨传导耳机
US11595760B2 (en) Bone conduction speaker and compound vibration device thereof
CN109379659A (zh) 一种用于虚拟与增强现实的人机交互声学定向耳机
WO2018139150A1 (ja) マスク型振動マッサージ装置
CA2410463C (en) Microphone in a cylindrical housing having elliptical end faces
CN209046856U (zh) 近耳式音响装置
CN205829940U (zh) 一种录音传声器
CN208424733U (zh) 一种个人独享放音装置
CN109490832A (zh) 一种基于声场定位的现实模拟方法
CN108462916B (zh) 人工智能广场舞聚焦音响系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination