CN108829372A - 一种现实模拟方法及用于现实模拟的智能穿戴设备 - Google Patents
一种现实模拟方法及用于现实模拟的智能穿戴设备 Download PDFInfo
- Publication number
- CN108829372A CN108829372A CN201811042537.9A CN201811042537A CN108829372A CN 108829372 A CN108829372 A CN 108829372A CN 201811042537 A CN201811042537 A CN 201811042537A CN 108829372 A CN108829372 A CN 108829372A
- Authority
- CN
- China
- Prior art keywords
- intelligent
- receptor
- feedback
- reality simulation
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种现实模拟方法,包括:通过一个与音频输出装置相连接音频解码器引出各个声道的控制信号;在受体表面创建一个三维坐标系;通过处理器将各个声道的控制信号进行拟合,并模拟出一个与受体表面的对应的三维坐标值,在反馈位置对受体执行相应的反馈动作;受体通过场景信息结合反馈动作的刺激获得真实体验。该方法通过三轴声场定位技术拟合出一个反馈位置并在该反馈位置实施与其他的场景信息相对应并匹配的反馈动作,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,进一步增加现实代入感。本发明还公开了一种用于现实模拟的智能穿戴设备。
Description
技术领域
本发明涉及虚拟现实模拟与反馈的方法,特别涉及一种现实模拟方法及用于现实模拟的智能穿戴设备。
背景技术
声学成像(acoustic imaging)是基于传声器阵列测量技术,通过测量一定空间内的声波到达各传声器的信号相位差异,依据相控阵原理确定声源的位置,测量声源的幅值,并以图像的方式显示声源在空间的分布,即取得空间声场分布云图-声像图,其中以图像的颜色和亮度代表声音的强弱。
声成像的研究开始于20世纪20年代末期。最早使用的方法是液面形变法。随后,很多种声成像方法相继出现,至70年代已形成一些较为成熟的方法,并有了大量的商品化产品。声成像方法可分为主动声成像、扫描声成像和声全息。
由于很多声检测器均能记录声波的幅度和相位,并将其转换成相应的电信号,记录换能器阵列各单元接收信号的幅度和相位,即可重现物体声像。
目前随着虚拟现实技术的发展,出现了很多智能的穿戴设备。通过投影眼镜或者显示屏可以将虚拟的物体投射于现实的影像中。但是这些装置一般缺少相应的反馈动作,佩戴者的代入感不强,难以形成较好的沉浸式虚拟现实体验。
发明内容
本发明的一个目的是提供一种现实模拟方法。本发明的另一个目的是提供一种用于现实模拟的智能穿戴设备。
根据本发明的一个方面,提供了一种现实模拟方法,包括:
通过一个与音频输出装置相连接音频解码器引出各个声道的控制信号;
在受体表面创建一个三维坐标系;
通过处理器将各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与音频输出装置输出的立体音频信号相对应的三维坐标值,三维坐标值对应于受体表面的一个反馈位置;
在反馈位置对受体执行相应的反馈动作,使受体接收到反馈刺激;
反馈位置位于受体周围且其方位与场景信息相对应并匹配,受体通过场景信息结合反馈动作的刺激获得一个将虚拟场景现实化的一个真实体验。
在一些实施方式中,处理器通过分析各个声道的控制信号对应的声波信号的声强差、时间差以及波形相位差,从而确定三维坐标值。
在一些实施方式中,音频输出装置输出的立体音频信号包括但不限于双声道,3声道,5.1声道信号或者7.1声道信号。
在一些实施方式中,场景信息包括受体接收到的声音信息和/或视觉信息,反馈刺激包括振动刺激、微流电击和挤压刺激。
在一些实施方式中,受体为穿戴有一个与处理器相连接的智能穿戴设备的人,智能穿戴设备用于接受处理器控制并对受体施加动作反馈。
采用以上技术方案的基于声场定位的现实模拟方法,通过三轴声场定位技术拟合出一个虚拟声源并将该虚拟声源与其他的场景信息相对应并匹配,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
根据本发明的另一个方面,提供了一种用于现实模拟的智能穿戴设备,智能穿戴设备为智能马甲或者智能外套或者智能头盔,智能马甲或者智能外套或者智能头盔分布有多个换能器、振动泵、微流电击装置或者可控充气气囊,换能器、振动泵、微流电击装置或者可控充气气囊分别与一个处理器相连接并受其控制,处理器通过一个音频解码器与音频输出装置相连接并引出各个声道的控制信号,处理器再将各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与音频输出装置输出的立体音频信号相对应的三维坐标值,三维坐标值对应于受体表面的一个反馈位置,并在反馈位置通过换能器、振动泵、微流电击装置或者可控充气气囊产生与各个声道的控制信号相对应的动作反馈。
在一些实施方式中,智能马甲或者智能外套或者智能头盔沿受体表面分为多个独立控制的反馈位置,反馈位置按照点阵式设置且每个反馈位置分别设有换能器或者振动泵或者微流电击装置,处理器设有一个驱动器,驱动器与换能器或者微流电击装置相连接,并对换能器或者振动泵或者微流电击装置进行独立的控制。
在一些实施方式中,智能马甲或者智能外套或者智能头盔沿受体表面设有多个可控充气气囊,每个可控充气气囊对应一个或者多个反馈位置,可控充气气囊分别与排气阀和充气泵相连接,排气阀和充气泵与处理器相连接,处理器通过排气阀和充气泵控制可控充气气囊的充放气,当可控充气气囊充气时,智能马甲或者智能外套对受体的相应区域产生挤压刺激。
在一些实施方式中,智能马甲或者智能外套或者智能头盔通过可控充气气囊实现撞击模式,撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉。
在一些实施方式中,,智能马甲或者智能外套或者智能头盔还设有信号接收装置,信号接收装置用于接收手持信号源发出的无线信号,并在相对应位置产生动作反馈。
采用以上技术方案的用于现实模拟的智能穿戴设备,针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
附图说明
图1为本发明一种实施方式的用于现实模拟的智能马甲的结构示意图。
图2为图1所示智能马甲的装置连接关系图。
图3为本发明另一种实施方式的用于现实模拟的智能头盔的结构示意图。
图4为图3所示智能头盔的装置连接关系图。
图5为本发明另一种实施方式的用于现实模拟的智能穿戴设备的装置连接关系图。
图6为本发明又一种实施方式的用于现实模拟的智能穿戴设备的装置连接关系图。
具体实施方式
下面结合附图对本发明作进一步详细的说明。
实施例1
图1和图2示意性地显示了根据本发明的一种实施方式的一种用于现实模拟的智能马甲。
如图所示,处理器1通过音频解码器2与音频输出装置3相连接。
受体表面创建有一个三维坐标系。
音频输出装置3输出的立体音频信号为双声道,多声道,5.1声道信号或者7.1声道信号。
5.1声道信号或者7.1声道信号本身就是分离的信号,一般是通过其驱动不同的扬声器以达到身临其境的立体声的效果。
在本实施例中,处理器1同样也是接收分离的信号,在对其进行算法拟合,从而像立体声中确定声源一样,通过六声道拟合确定一个坐标点。
音频解码器2分别引出音频输出装置3的各个声道的控制信号并将其发送至处理器1。
处理器1将各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与音频输出装置3输出的立体音频信号相对应的三维坐标值,三维坐标值对应于受体表面的一个反馈位置。
在反馈位置对受体执行相应的反馈动作,使受体接收到反馈刺激;
反馈位置位于受体周围且其方位与场景信息相对应并匹配,受体通过场景信息结合反馈动作的刺激获得一个将虚拟场景现实化的一个真实体验。
在本实施例中,处理器1通过分析各个声道的控制信号对应的声波信号的声强差、时间差以及波形相位差,从而确定三维坐标值。
在本实施例中,场景信息包括受体接收到的声音信息和/或视觉信息,反馈刺激包括振动刺激、微流电击和挤压刺激。
在本实施例中,受体为穿戴有一个与处理器1相连接的智能穿戴设备的人,智能穿戴设备用于接受处理器1控制并对受体施加动作反馈。
对于受体而言,这个三维坐标系的Z轴上一般具有两个值,以对应受体的前方和后方。
在本实施例中,智能穿戴设备为智能马甲8,智能马甲8分布有多个换能器91或者微流电击装置92。
换能器91是利用某些单晶材料的压电效应和某些多晶材料的电致伸缩效应来将电能与声能进行相互转换的晶体换能器或者利用电磁作用的电磁换能器。因其电声效率高、功率容量大以及结构和形状可以根据不同的应用分别进行设计,在功率超声领域应用广泛。
微流电击装置92将电流直接进入人体内从而在人体表面引起的轻微电击,电流强度小于1微安,从而不会对人体造成伤害。
处理器1控制换能器91、微流电击装置92与音频输出装置3同步动作,从而产生相对应的动作反馈。
在其他的实施例中,智能穿戴设备既可以为智能外套或者智能头盔等装备,也可以为具有智能功能的裤子、鞋子或者腰带等穿戴设施。智能穿戴设备可以单独设置换能器91或者微流电击装置92或者同时设置换能器91或者微流电击装置92。
如图1所示,智能马甲8沿受体表面分为多个独立控制的反馈位置。
反馈位置按照点阵式设置且每个反馈位置91分别设有换能器91或者微流电击装置92。
处理器1设有一个驱动器4。
驱动器4与换能器91或者微流电击装置92相连接,并对换能器91或者微流电击装置92进行独立的控制。
采用以上技术方案的基于声场定位的现实模拟方法,通过三轴声场定位技术拟合出一个虚拟声源并将该虚拟声源与其他的场景信息相对应并匹配,由此获得一个将虚拟场景现实化的一个真实体验。该方法还针对虚拟声源的方位在相应的反馈位置执行反馈动作,通过对受体进行刺激,从而进一步增加现实代入感。
该智能马甲8的使用过程如下:
1)、处理器1通过音频解码器2与音频输出装置3相连接。
2)、在智能马甲8表面创建有一个三维坐标系,在该坐标系中每个坐标值对应于一个独立控制的反馈位置。
3)、音频输出装置3输出的立体音频信号为5.1声道信号或者7.1声道信号。
4)、音频解码器2分别引出音频输出装置3的各个声道的控制信号并将其发送至处理器1。
5)、处理器1将各个声道的控制信号进行拟合,并利用声场定位技术,通过分析各个声道的控制信号对应的声波信号的声强差、时间差以及波形相位差,从而模拟出一个与音频输出装置3输出的立体音频信号相对应的三维坐标值,三维坐标值对应于智能马甲8的一个反馈位置。
启动在反馈位置的换能器91或者微流电击装置92,对人体执行相应的振动或者电击动作,使人体接收到振动刺激和微流电击刺激。
反馈位置位于人体周围且其方位与场景信息相对应并匹配,受体通过场景信息结合反馈动作的刺激获得一个将虚拟场景现实化的一个真实体验。场景信息包括受体接收到的声音信息和/或视觉信息,反馈刺激包括和挤压刺激。
在另外的实施例中,音频解码器2还可以与音频输出装置3以外的其他信号输出装置相连接。
在其他的实施例中,音频输出装置3输出的立体音频信号包括但不限于5.1声道信号或者7.1声道信号。
实施例2
图3和图4示意性地显示了根据本发明的另一种实施方式的用于现实模拟的智能头盔。与实施例1的不同之处在于,智能马甲沿受体表面设有多个可控充气气囊93。
每个可控充气气囊93对应智能马甲或者智能外套的一个或者多个反馈位置。
可控充气气囊93分别与排气阀931和充气泵932相连接。
排气阀931和充气泵932与处理器7相连接。
处理器7通过排气阀931和充气泵932控制可控充气气囊93的充放气。
当可控充气气囊93充气时,智能马甲或者智能外套对受体的相应区域产生挤压刺激。由此智能马甲或者智能外套通过可控充气气囊93实现撞击模式,撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉,从而可以突出冲击的感觉。
智能头盔7还设有信号接收装置5。
信号接收装置5用于接收手持信号源发出的无线信号,并在相对应位置产生所述动作反馈。
由此该智能马甲7可以用于实景对战游戏中,对战武器作为手持信号源,与信号接收装置5通过激光或者红外线相连接,由此可以很直观地在游戏者身上体验更加真实的射击感。
智能头盔7可以单独设置换能器91或者微流电击装置92或者同时设置换能器91或者微流电击装置92。
在其他的实施例中,智能头盔7表面还可以设置LED指示灯等指示装置。
在其他的实施例中,智能头盔7表面还可以设置LED指示灯等指示装置或者舵机、电机丝杆等电动执行机构。
实施例3
图5示意性地显示了根据本发明的又一种实施方式的用于现实模拟的智能穿戴设备。与实施例1的不同之处在于,换能器91或者微流电击装置92直接由处理器1进行驱动。与实施例1相比,换能器91或者微流电击装置92的位置更加灵活。
音频解码器2分别引出音频输出装置3的各个声道的控制信号并将其发送至处理器1。
处理器1将各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与音频输出装置3输出的立体音频信号相对应的三维坐标值,三维坐标值对应于智能穿戴设备表面的一个换能器91或者微流电击装置92。
智能头盔7可以单独设置换能器91或者微流电击装置92或者同时设置换能器91或者微流电击装置92。
实施例4
图6示意性地显示了根据本发明的又一种实施方式的用于现实模拟的智能穿戴设备。与实施例1的不同之处在于,该智能穿戴设备可以分别与音频信号源和数字信号源相连接。其中数字信号源发出的数字信号经过处理器1进行处理后再发往驱动器4,音频信号源发出的模拟信号则直接与驱动器4相连接。驱动器4将数字信号或者模拟信号进行矩阵话处理之后,再分别驱动智能穿戴设备上杯体位置的换能器91或者微流电击装置92。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (10)
1.一种现实模拟方法,其特征在于,包括:
通过一个与音频输出装置相连接音频解码器引出各个声道的控制信号;
在受体表面创建一个三维坐标系;
通过处理器将所述各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与所述音频输出装置输出的立体音频信号相对应的三维坐标值,所述三维坐标值对应于所述受体表面的一个反馈位置;
在所述反馈位置对所述受体执行相应的反馈动作,使所述受体接收到反馈刺激;
所述反馈位置位于所述受体周围且其方位与场景信息相对应并匹配,所述受体通过所述场景信息结合所述反馈动作的刺激获得一个将虚拟场景现实化的一个真实体验。
2.根据权利要求1所述的现实模拟方法,其特征在于,所述处理器通过分析所述各个声道的控制信号对应的声波信号的声强差、时间差以及波形相位差,从而确定所述三维坐标值。
3.根据权利要求1所述的现实模拟方法,其特征在于,所述音频输出装置输出的立体音频信号为双声道,3声道,5.1声道信号或者7.1声道信号。
4.根据权利要求1所述的现实模拟方法,其特征在于,所述场景信息包括所述受体接收到的声音信息和/或视觉信息,所述反馈刺激包括振动刺激、微流电击和挤压刺激。
5.根据权利要求1至4任一项所述的现实模拟方法,其特征在于,所述受体为穿戴有一个与处理器相连接的智能穿戴设备的人,所述智能穿戴设备用于接受所述处理器控制并对所述受体施加所述动作反馈。
6.一种用于现实模拟的智能穿戴设备,其特征在于,所述智能穿戴设备为智能马甲或者智能外套或者智能头盔,所述智能马甲或者智能外套或者智能头盔分布有多个换能器、振动泵、微流电击装置或者可控充气气囊,所述换能器、振动泵、微流电击装置或者可控充气气囊分别与一个处理器相连接并受其控制,所述处理器通过一个音频解码器与音频输出装置相连接并引出各个声道的控制信号,所述处理器再将所述各个声道的控制信号进行拟合,并利用声场定位技术模拟出一个与所述音频输出装置输出的立体音频信号相对应的三维坐标值,所述三维坐标值对应于所述受体表面的一个反馈位置,并在所述反馈位置通过所述换能器、振动泵、微流电击装置或者可控充气气囊产生与所述各个声道的控制信号相对应的动作反馈。
7.根据权利要求6所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套或者智能头盔沿所述受体表面分为多个独立控制的反馈位置,所述反馈位置按照点阵式设置且每个反馈位置分别设有所述换能器或者所述振动泵或者所述微流电击装置,所述处理器设有一个驱动器,所述驱动器与所述换能器或者所述微流电击装置相连接,并对所述换能器或者所述振动泵或者所述微流电击装置进行独立的控制。
8.根据权利要求7所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套或者智能头盔沿所述受体表面设有多个可控充气气囊,每个可控充气气囊对应一个或者多个所述反馈位置,所述可控充气气囊分别与排气阀和充气泵相连接,所述排气阀和所述充气泵与所述处理器相连接,所述处理器通过所述排气阀和所述充气泵控制所述可控充气气囊的充放气,当所述可控充气气囊充气时,所述智能马甲或者所述智能外套对所述受体的相应区域产生挤压刺激。
9.根据权利要求8所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套或者智能头盔通过所述可控充气气囊实现撞击模式,所述撞击模式用于模拟外部环境中高速运动的物体对人体造成的撞击感觉。
10.根据权利要求6至9任一项所述的用于现实模拟的智能穿戴设备,其特征在于,所述智能马甲或者智能外套或者智能头盔还设有信号接收装置,所述信号接收装置用于接收手持信号源发出的无线信号,并在相对应位置产生所述动作反馈。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811042537.9A CN108829372A (zh) | 2018-09-07 | 2018-09-07 | 一种现实模拟方法及用于现实模拟的智能穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811042537.9A CN108829372A (zh) | 2018-09-07 | 2018-09-07 | 一种现实模拟方法及用于现实模拟的智能穿戴设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108829372A true CN108829372A (zh) | 2018-11-16 |
Family
ID=64149667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811042537.9A Withdrawn CN108829372A (zh) | 2018-09-07 | 2018-09-07 | 一种现实模拟方法及用于现实模拟的智能穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108829372A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460120A (zh) * | 2018-11-17 | 2019-03-12 | 李祖应 | 一种基于声场定位的现实模拟方法及智能穿戴设备 |
CN109490832A (zh) * | 2018-11-17 | 2019-03-19 | 李祖应 | 一种基于声场定位的现实模拟方法 |
CN109999488A (zh) * | 2018-12-29 | 2019-07-12 | 瑞声科技(新加坡)有限公司 | 一种振动方法、终端及存储介质 |
CN110554775A (zh) * | 2019-08-29 | 2019-12-10 | 天津大学 | 一种虚拟现实定位腰带及其定位系统 |
CN112448860A (zh) * | 2019-08-30 | 2021-03-05 | 北京奇艺世纪科技有限公司 | 一种应用程序的测试方法及相关设备 |
-
2018
- 2018-09-07 CN CN201811042537.9A patent/CN108829372A/zh not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460120A (zh) * | 2018-11-17 | 2019-03-12 | 李祖应 | 一种基于声场定位的现实模拟方法及智能穿戴设备 |
CN109490832A (zh) * | 2018-11-17 | 2019-03-19 | 李祖应 | 一种基于声场定位的现实模拟方法 |
CN109999488A (zh) * | 2018-12-29 | 2019-07-12 | 瑞声科技(新加坡)有限公司 | 一种振动方法、终端及存储介质 |
CN110554775A (zh) * | 2019-08-29 | 2019-12-10 | 天津大学 | 一种虚拟现实定位腰带及其定位系统 |
CN112448860A (zh) * | 2019-08-30 | 2021-03-05 | 北京奇艺世纪科技有限公司 | 一种应用程序的测试方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108829372A (zh) | 一种现实模拟方法及用于现实模拟的智能穿戴设备 | |
US11422628B2 (en) | Methods, devices, and systems for modifying perceived haptic stimulations on a user | |
US10528815B2 (en) | Method and device for visually impaired assistance | |
US10535195B2 (en) | Virtual reality system with drone integration | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
CN108170262A (zh) | 触觉环绕功能 | |
US10782782B1 (en) | Devices, systems, and methods for radar-based artificial reality tracking | |
CN106951098A (zh) | 一种vr系统触感手套装置及其实现方法 | |
US11500465B1 (en) | Systems including vibrotactile actuators and inflatable bladders, and related methods | |
CN105472527B (zh) | 一种马达矩阵控制方法及一种可穿戴设备 | |
US20240160285A1 (en) | Systems and methods for contextualized interactions with an environment | |
CN105997448B (zh) | 频域投影式超声回波定位导盲仪 | |
CN102929386A (zh) | 一种动感重现虚拟现实的方法及系统 | |
CN106226903A (zh) | 一种虚拟现实头戴设备 | |
EP3576427A1 (en) | Haptics device for producing directional sound and haptic sensations | |
US11397467B1 (en) | Tactile simulation of initial contact with virtual objects | |
US10891905B1 (en) | Devices, systems, and methods for improving high-power drivers | |
CN109782916A (zh) | 基于超声触觉的盲文交互系统及其交互方法 | |
Hu et al. | Stereopilot: A wearable target location system for blind and visually impaired using spatial audio rendering | |
CN109011556A (zh) | 一种体感游戏设备 | |
WO2017059618A1 (zh) | 模拟场景的方法及装置 | |
CN109460120A (zh) | 一种基于声场定位的现实模拟方法及智能穿戴设备 | |
CN111459276A (zh) | 一种虚拟人手现实系统的动作捕捉手套及虚拟现实系统 | |
CN106726378A (zh) | 基于立体视觉和电致触觉阵列的盲人导路器 | |
US11550397B1 (en) | Systems and methods for simulating a sensation of expending effort in a virtual environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Lai Haitang Inventor before: Lai Haitang Inventor before: Feng Jingen |
|
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181116 |