CN109144257A - 从歌曲中提取特征并转化为触觉感受的方法 - Google Patents
从歌曲中提取特征并转化为触觉感受的方法 Download PDFInfo
- Publication number
- CN109144257A CN109144257A CN201810957738.5A CN201810957738A CN109144257A CN 109144257 A CN109144257 A CN 109144257A CN 201810957738 A CN201810957738 A CN 201810957738A CN 109144257 A CN109144257 A CN 109144257A
- Authority
- CN
- China
- Prior art keywords
- bass
- treble
- indicate
- frequency band
- subband
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000008447 perception Effects 0.000 claims abstract description 47
- 230000005236 sound signal Effects 0.000 claims abstract description 32
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000010355 oscillation Effects 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 229910017435 S2 In Inorganic materials 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 claims 1
- 230000005611 electricity Effects 0.000 claims 1
- 238000005303 weighing Methods 0.000 claims 1
- 238000000926 separation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 241000272173 Calidris Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1091—Details not provided for in groups H04R1/1008 - H04R1/1083
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
Abstract
本发明公开从歌曲中提取特征并转化为触觉感受的方法,是将音频信号分割成相等单位长度,计算出每个单位长度的音频信号的能量,然后根据所计算出的音频信号的能量对音频信号进行特征提取,提取其中的低音频带与高音频带,对应计算听觉感知幅度,之后将听觉感知幅度计算转换为振动感知幅度;根据低音频带与高音频带的振动感知幅度比值,将相应频率范围内的低音频带所对应音频的时间轴转换为电压指令,发送至振动传感器,由振动传感器响应该电压指令进行振动。从而实现将相应的低音频转换为触觉振动感知。
Description
技术领域
本发明涉及信号处理技术领域,具体涉及从歌曲中提取特征并转化为触觉感受的方法。
背景技术
耳机作为目前便携的听音乐设备,能让人们可以随时随地享受音乐的乐趣。随着人们音乐鉴赏水平的提高,不少人对于耳机音质有更高的要求,除了对音质的高要求,音乐的体验也越来越被看重。很多发烧友不惜花重金升级设备,从而获得更好的体验,尤其是临场感受,那种身临其境的感觉是普通耳机无法达到的。评价一部耳机的好坏因人而异,每个人对于音乐的感受各有不同,高频的解析,中频的动态,低频的下沉各有所好,但是对于喜爱低音,重低音的人来说,耳机的重低音远远不如音响的体验感受。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种从歌曲中提取特征并转化为触觉感受的方法,以实现将音频信号中的低频及中低频的部分按预设的方法转换为耳机中的振动模块的振动输出给佩戴者,让佩戴者听音乐的同时可以“感受”到低音冲击,从而加强人体对音频信号的体感的感受,增强音乐的沉浸感,提升音乐体验。
为实现本发明的目的所采用的技术方案是:
从歌曲中提取特征并转化为触觉感受的方法,包括步骤:
S1,将音频信号分割成相等单位长度,计算出每个单位长度的音频信号的能量;
S2,根据所计算出的音频信号的能量对音频信号进行特征提取,提取其中的低音频带与高音频带,并对应的计算听觉感知幅度;
S3,将所述听觉感知幅度计算转换为振动感知幅度;
S4,根据低音频带与高音频带的振动感知幅度的比值,确定需要转换为电压指令的低音频带,然后将该低音频带所对应音频的时间轴转换为电压指令,发送至振动传感器,由振动传感器响应该电压指令进行振动。
步骤S2中,在计算听觉感知幅度时,先根据低音频带能量Ebass(n)以及高音频带第i个子带的能量Ei(n),计算初始高音感知幅度Atreble(n)和初始低音感知幅度Abass(n),然后再获得两种最终听觉感知幅度Lbass(n),Ltreble(n),
Ebass(n)=Sum(E(fftbass(n)))
Ei(n)=Sum(E(ffti(n)))
Lbass(n)=Abass(n),
Ltreble(n)=g(n)Atreble(n),
式中,n表示输入的音频信号,I表示分割的音频信号长度,ωi表示第i个子带在触觉平衡器中的系数,e为系数,g(n)为增益,1≤g(n)≤2,u为高音频带的子带的个数,fftbass(n)为对低音频带能量进行傅立叶变换,ffti(n))为对高音频带第i个子带的能量进行傅立叶变换。
所述增益g(n)的计算方法如下:
At表示多条高音频子带中具有最大能量的子带所表示的听觉感知幅度,Emax(n)表示具有最大能量的子带的能量,ωmax表示具有最大能量子带的系数。
步骤S3中,根据两种最终听觉感知幅度Lbass(n),Ltreble(n),转换为振动感知幅度Ibass和Itreble,计算方式如下:
Sbass(n)=Lbass(n)*logEbass(n)
Ibass(n)=ωbasscSbass(n)Pbass(n)γ
Si(n)=Ai(n)Li(n)*logEi(n)
式中,Ii表示每个振动所需的感知振动幅度,Si表示高音频带的第i条子带的显著性分数,Pbass表示低音频带信号的相关峰值间距,Pi表示高音频带的第i条子带信号的相关峰值间距,c表示跨模态缩放常数,γ表示由峰值间距引起的明显衰减的系数,ωbass和ωtreble表示控制低音频带和高音频带增益的系数,S1表示第一条低音频带Sbass,P1表示第一条低音频带Pbass,Ai表示高音频带第i个子带的初始听觉感知幅度Atreble,Li表示高音频带第i个子带的最终听觉感知幅度Ltreble,k表示输入的音频信号中划分出的子带的数量。
当低音频带与高音频带的振动感知幅度比值大于一数值Y时,输出低音频带为体感振动信号和中低音频带为体感振动信号否则不输出;
其中,表示体感振动感知幅度;θ表示不同频率下使用的振动的加速度幅度,e表示一个高度相关的确定系数;k表示坡度值;αj和βj表示心理物理学功能系数,j表示固定数字,0≤j≤3,,f表示需要计算的指定频率。
步骤S4中,所述电压指令对应的振动传感器驱动器电压计算方法如下:
V(t)=V1sin(2πf1t)+V2sin(2πf2t),V1+V2≤Vrated
式中,Vrated表示驱动器的额定电压,V1,V2表示频率f1,f2的电压,V(t)表示驱动器电压。
本发明利用音频信号中的低音频带的穿透力强,没有明显方向性,将音频信号中的低音和中低音部分的音频转为对应振动频率传导给耳机的佩戴者,让佩戴者听音乐的同时可以“感受”到低音;对这种振动感知可加强人体对音频信号的感受,增强音乐的沉浸感,提升音乐体验。
附图说明
图1是从歌曲中提取特征并转化为触觉感受的方法的处理流程示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明是通过对音频信号预处理,将音频信号分割成相等单位长度,计算出输入耳机的音频信号的能量;之后进入对输入的音频信号进行特征提取,按声音信号的能量按照需要提取其中的低频,中低频,高频的信号,根据人体听觉和振动感知频率的范围及幅度,判断加入振动感知的时间,计算振动感知的幅度的大小;完成判断和计算后,将振动幅度对应音频的时间轴转换为电压指令,最终发送至耳机中的振动传感器,控制振动传感器振动,将相应的音频信号转换为特定频率的物理振动,实现将音频信号中的低音部分转换为振动输出。
由于人耳的可感知的听觉范围是20赫兹到20000赫兹;但振动频率的范围是存在小于20赫兹和大于20000赫兹的;因此,本发明中,仅依据人体敏感的振动频率选择一定范围转换。下面,详细说明本发明的实现步骤:
信号预处理:将音频信号按固定单位长度进行快速傅里叶变换后,选取一定数量音频子带,对相应频带所有频率的绝对频谱幅度求和,计算声音信号能量。如取6条子带,包括1条低音子带(<200hz)和5条高音子带(>200hz)。具体可根据需要选取不同数量的子带和不同的频率范围。
Ebass(n)=Sum(E(fftbass(n))) (1)
Ei(n)=Sum(E(ffti(n))) (2)
Ebass(n)为低音频带能量,Ei(n)为高音频带i个子带的能量,n表示输入的音频信号。
信号特征提取:S201,利用上述获得的低音频带能量Ebass(n),以及高音频带i个子带的能量Ei(n),将声音信号转化为初始听觉感知两种幅度:初始高音感知幅度Atreble(n)和初始低音感知幅度Abass(n):
式(3),(4)中,I表示分割的信号长度,ωi表示第i个子带的在触觉平衡器中的系数(参照表1中系数),e为系数,e=0.67,ω为不同风格(如摇滚,舞曲,经典,人声)的音乐在触觉平衡器中各频段系数,参照表1。
频率范围(hz) | 摇滚 | 舞曲 | 经典 | 人声 |
200-400 | 0.25 | 0.25 | 0.25 | 0.05 |
400-800 | 0.15 | 0.15 | 0.20 | 0.15 |
800-1600 | 0.12 | 0.15 | 0.15 | 0.70 |
1600-3200 | 0.18 | 0.20 | 0.15 | 0.05 |
3200-6400 | 0.30 | 0.25 | 0.25 | 0.05 |
表1
S202,在初始高音感知幅度Atreble(n)和初始低音感知幅度Abass(n)的基础上,按下式(5)、(6)处理,最终获得两种听觉感知幅度Lbass(n),Ltreble(n),
Lbass(n)=Abass(n) (5)
Ltreble(n)=g(n)Atreble(n) (6)
由于听觉感知幅度L在高音频带的某一子带中有可能出现能量过小的情况,比如人声独唱,这时某一子带的能量可能会远小于人声频带,此时Atreble就不足以代表整个高音频段的听觉感知幅度,所以需要增益g(n)计算这一子带幅值,因此需要引入在其余几条,如5条,高音子带中具有最大能量的子带所表示的听觉感知幅度At,当Atreble≤At时,则有:
1≤g(n)≤2
如果Atreble>At,则不需要此增益,g(n)=1.Emax(n)表示具有最大能量的子带的能量,ωmax表示最大能量子带的系数,同时为避免过度步长,At的大小设置为人体感知幅度的90%。
S203,根据最终获得的听觉感知幅度Lbass(n),Ltreble(n),转换为振动感知幅度Ibass和Itreble,按下式处理:
Si(n)=Ai(n)Li(n)*logEi(n) (8)
Sbass(n)=Lbass(n)*logEbass(n (9)
Ibass(n)=ωbasscSbass(n)Pbass(n)γ, (10)
and-0.4<γ<0
式(8)(9)(10)(11)中,Ii表示每个振动所需的感知振动幅度,Si表示高音频带的第i条子带的显著性分数,Pbass表示低音频带信号的相关峰值间距,Pi表示高音频带的第i条子带信号的相关峰值间距,c表示跨模态缩放常数,γ表示由峰值间距引起的明显衰减的系数,ωbass和ωtreble表示控制低音频带和高音频带增益的系数。
判断特征根据低音频带与高音频带的振动感知幅度Ibass和Itreble的比值,确定需要转换为电压指令的低音频带的频率范围及加入振动感知的时间,本发明中,设人声频率范围在600hz-1.8khz之间,确定出需要转换体感振动的频率范围为:1.低音频带20hz-200hz,2.中低音频带201hz-500hz。
当时,输出为and
当时,输出为
当人声频率(高音频段)与低音频带或中低音频带的比值超过一特定数值Y(根据经验确定)时,加入振动,转换输出低音频带为体感振动信号和中低音频带为体感振动信号而在人声明显大于低音或中低音部分不转换体感振动信号,即小于等于特定数值Y,停止加入振动。上面式中的的感知幅度按以下式(11),(12)处理;
其中,表示音频信号的振动感知幅度;θ表示不同频率下振动感知幅度使用的加速度幅度(0.5-3),相同频率下,θ越大,感知强度越大,感受范围越广,这个值的取值范围主要参考硬件所支持的最大范围,它们间关系见表3所示;e表示一个高度相关的确定系数;k表示坡度值;αj和βj表示心理物理学功能的系数,具体可参考表1所示;j表示0,1,2,3的固定数字,f表示需要计算的指定频率:低音(20-200hz),中低音(201-500hz),高音(600-1.8khz)。
j | 0 | 1 | 2 | 3 |
α<sub>i</sub> | 409.00 | -543.90 | 249.10 | -38.48 |
β<sub>j</sub> | -31.11 | 49.92 | -25.61 | 4.29 |
表2
表3
表3中,通过振动感知幅度的计算发现,低音频带中,在150hz-250hz范围内,人体对振动的感受相似,同理,在中低音频带中也有感受相同的一个频率范围,在这个范围内选择振动频率和谐振频率输出至振动驱动器。
由于一个振动驱动器只能执行单一频率的振动,所以将中低音和低音部分分别非配给两个不同振动器(左右各一个),可极大提高反应速度,可实现更多振动细节,如快慢变换,从而通过使用不同频率振动驱动器,可模拟低音和中低音时不同的振动触觉,增加振动感受音乐的层次感。可使用下式计算振动的驱动器电压来转换处理对应物理振动幅度:
V(t)=V1sin(2πf1t)+V2sin(2πf2t),V1+V2≤Vrated
式中,Vrated表示驱动器的额定电压,V1,V2表示频率f1,f2的电压,V(t)表示驱动器电压。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.从歌曲中提取特征并转化为触觉感受的方法,其特征在于,包括:
S1,将音频信号分割成相等单位长度,计算出每个单位长度的音频信号的能量;
S2,根据所计算出的音频信号的能量对音频信号进行特征提取,提取其中的低音频带与高音频带,并对应的计算听觉感知幅度;
S3,将所述听觉感知幅度计算转换为振动感知幅度;
S4,根据低音频带与高音频带的振动感知幅度的比值,确定需要转换为电压指令的低音频带,然后将该低音频带所对应音频的时间轴转换为电压指令,发送至振动传感器,由振动传感器响应该电压指令进行振动。
2.如权利要求1所述从歌曲中提取特征并转化为触觉感受的方法,其特征在于,步骤S2中,在计算听觉感知幅度时,先根据低音频带能量Ebass(n)以及高音频带第i个子带的能量Ei(n),计算初始高音感知幅度Atreble(n)和初始低音感知幅度Abass(n),然后再获得两种最终听觉感知幅度Lbass(n),Ltreble(n),
Ebass(n)=Sum(E(fftbass(n)))
Ei(n)=Sum(E(ffti(n)))
Lbass(n)=Abass(n),
Ltreble(n)=g(n)Atreble(n),
式中,n表示输入的音频信号,I表示分割的音频信号长度,ωi表示第i个子带在触觉平衡器中的系数,e为系数,g(n)为增益,1≤g(n)≤2,u为高音频带的子带的个数,fftbass(n)为对低音频带能量进行傅立叶变换,ffti(n))为对高音频带第i个子带的能量进行傅立叶变换。
3.如权利要求2所述从歌曲中提取特征并转化为触觉感受的方法,其特征在于,所述增益g(n)的计算方法如下:
At表示多条高音频子带中具有最大能量的子带所表示的听觉感知幅度,Emax(n)表示具有最大能量的子带的能量,ωmax表示具有最大能量子带的系数。
4.如权利要求3所述从歌曲中提取特征并转化为触觉感受的方法,其特征在于,步骤S3中,根据两种最终听觉感知幅度Lbass(n),Ltreble(n),转换为振动感知幅度Ibass和Itreble,计算方式如下:
Sbass(n)=Lbass(n)*logEbass(n)
Ibass(n)=ωbasscSbass(n)Pbass(n)γ
Si(n)=Ai(n)Li(n)*logEi(n)
式中,Ii表示每个振动所需的感知振动幅度,Sbass表示低音频带的显著性分数,Si表示高音频带的第i条子带的显著性分数,Pbass表示低音频带信号的相关峰值间距,Pi表示高音频带的第i条子带信号的相关峰值间距,c表示跨模态缩放常数,γ表示由音频信号峰值间距引起的明显衰减的系数,ωbass和ωtreble表示控制低音频带和高音频带增益的系数,Ai表示高音频带第i个子带的初始听觉感知幅度Atreble,Li表示高音频带第i个子带的最终听觉感知幅度Ltreble,k表示输入的音频信号中划分出的子带的数量。
5.如权利要求4所述从歌曲中提取特征并转化为触觉感受的方法,其特征在于,步骤S4中,当低音频带与高音频带的振动感知幅度比值大于一数值Y时,输出低音频带为体感振动信号和中低音频带为体感振动信号否则不输出;
其中,表示体感振动感知幅度;θ表示不同频率下使用的振动的加速度幅度,e表示一个高度相关的确定系数;k表示坡度值;αj和βj表示心理物理学功能系数,j表示固定数字,0≤j≤3,f表示需要计算的指定频率。
6.如权利要求5所述从歌曲中提取特征并转化为触觉感受的方法,其特征在于,步骤S4中,所述电压指令对应的振动传感器驱动器电压计算方法如下:
V(t)=V1sin(2πf1t)+V2sin(2πf2t),V1+V2≤Vrated
式中,Vrated表示驱动器的额定电压,V1,V2表示不同音频信号的频率f1,f2所对应的电压,V(t)表示驱动器电压。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810957738.5A CN109144257B (zh) | 2018-08-22 | 2018-08-22 | 从歌曲中提取特征并转化为触觉感受的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810957738.5A CN109144257B (zh) | 2018-08-22 | 2018-08-22 | 从歌曲中提取特征并转化为触觉感受的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109144257A true CN109144257A (zh) | 2019-01-04 |
CN109144257B CN109144257B (zh) | 2021-07-20 |
Family
ID=64791010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810957738.5A Active CN109144257B (zh) | 2018-08-22 | 2018-08-22 | 从歌曲中提取特征并转化为触觉感受的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109144257B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887528A (zh) * | 2019-02-15 | 2019-06-14 | 上海艾为电子技术股份有限公司 | 马达随音频振动的方法及装置、存储介质及电子设备 |
CN112669873A (zh) * | 2020-12-25 | 2021-04-16 | 瑞声光电科技(常州)有限公司 | 一种基于音乐频率的振动频率设计方法 |
CN112933590A (zh) * | 2021-03-31 | 2021-06-11 | 歌尔股份有限公司 | 终端设备的振动控制方法、终端设备及存储介质 |
CN113627482A (zh) * | 2021-07-09 | 2021-11-09 | 南京邮电大学 | 一种基于音频—触觉信号融合的跨模态图像生成方法及装置 |
CN114995638A (zh) * | 2022-05-12 | 2022-09-02 | 北京有竹居网络技术有限公司 | 触觉信号生成方法、装置、可读介质及电子设备 |
WO2024082389A1 (zh) * | 2022-10-20 | 2024-04-25 | 瑞声开泰声学科技(上海)有限公司 | 音乐分轨匹配振动的触觉反馈方法、系统及相关设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1128482A (zh) * | 1994-02-22 | 1996-08-07 | 松下电器产业株式会社 | 耳机 |
CN1259005A (zh) * | 1998-12-25 | 2000-07-05 | 松下电器产业株式会社 | 提供带有振动的动态声音的耳机装置及用于该装置的方法 |
CN101421707A (zh) * | 2006-04-13 | 2009-04-29 | 伊默生公司 | 从数字音频信号自动产生触觉事件的系统和方法 |
CN102024481A (zh) * | 2009-09-14 | 2011-04-20 | 展讯通信(上海)有限公司 | 从音频文件提取振动信息的方法、装置以及振动装置 |
US20140167940A1 (en) * | 2012-12-17 | 2014-06-19 | Postech Academy - Industry Foundation | Method of converting audio signal to haptic signal and apparatus thereof |
CN104811838A (zh) * | 2013-12-30 | 2015-07-29 | 骷髅头有限公司 | 用于立体声触觉振动的耳机以及相关系统和方法 |
US20160027264A1 (en) * | 2014-07-25 | 2016-01-28 | Postech Academy - Industry Foundation | Method and apparatus for generating haptic signal with auditory saliency estimation |
CN206212241U (zh) * | 2016-11-21 | 2017-05-31 | 深圳市景创科技电子有限公司 | 一种音频放大电路及其头戴式耳机 |
-
2018
- 2018-08-22 CN CN201810957738.5A patent/CN109144257B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1128482A (zh) * | 1994-02-22 | 1996-08-07 | 松下电器产业株式会社 | 耳机 |
CN1259005A (zh) * | 1998-12-25 | 2000-07-05 | 松下电器产业株式会社 | 提供带有振动的动态声音的耳机装置及用于该装置的方法 |
CN101421707A (zh) * | 2006-04-13 | 2009-04-29 | 伊默生公司 | 从数字音频信号自动产生触觉事件的系统和方法 |
CN102024481A (zh) * | 2009-09-14 | 2011-04-20 | 展讯通信(上海)有限公司 | 从音频文件提取振动信息的方法、装置以及振动装置 |
US20140167940A1 (en) * | 2012-12-17 | 2014-06-19 | Postech Academy - Industry Foundation | Method of converting audio signal to haptic signal and apparatus thereof |
CN104811838A (zh) * | 2013-12-30 | 2015-07-29 | 骷髅头有限公司 | 用于立体声触觉振动的耳机以及相关系统和方法 |
US20160027264A1 (en) * | 2014-07-25 | 2016-01-28 | Postech Academy - Industry Foundation | Method and apparatus for generating haptic signal with auditory saliency estimation |
CN206212241U (zh) * | 2016-11-21 | 2017-05-31 | 深圳市景创科技电子有限公司 | 一种音频放大电路及其头戴式耳机 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887528A (zh) * | 2019-02-15 | 2019-06-14 | 上海艾为电子技术股份有限公司 | 马达随音频振动的方法及装置、存储介质及电子设备 |
CN112669873A (zh) * | 2020-12-25 | 2021-04-16 | 瑞声光电科技(常州)有限公司 | 一种基于音乐频率的振动频率设计方法 |
CN112669873B (zh) * | 2020-12-25 | 2024-05-03 | 瑞声光电科技(常州)有限公司 | 一种基于音乐频率的振动频率设计方法 |
CN112933590A (zh) * | 2021-03-31 | 2021-06-11 | 歌尔股份有限公司 | 终端设备的振动控制方法、终端设备及存储介质 |
CN113627482A (zh) * | 2021-07-09 | 2021-11-09 | 南京邮电大学 | 一种基于音频—触觉信号融合的跨模态图像生成方法及装置 |
CN113627482B (zh) * | 2021-07-09 | 2023-08-18 | 南京邮电大学 | 一种基于音频—触觉信号融合的跨模态图像生成方法及装置 |
CN114995638A (zh) * | 2022-05-12 | 2022-09-02 | 北京有竹居网络技术有限公司 | 触觉信号生成方法、装置、可读介质及电子设备 |
WO2024082389A1 (zh) * | 2022-10-20 | 2024-04-25 | 瑞声开泰声学科技(上海)有限公司 | 音乐分轨匹配振动的触觉反馈方法、系统及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109144257B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109144257A (zh) | 从歌曲中提取特征并转化为触觉感受的方法 | |
US9640047B2 (en) | Method and apparatus for generating haptic signal with auditory saliency estimation | |
CN103677249B (zh) | 使用映射的声音-触觉效应转换系统 | |
US9078065B2 (en) | System and method for displaying sound as vibrations | |
CN109256146B (zh) | 音频检测方法、装置及存储介质 | |
US20040193422A1 (en) | Compensating for ambient noise levels in text-to-speech applications | |
US8057234B2 (en) | Foreign language learning apparatus | |
Hamill et al. | The hearing sciences | |
CN103841241B (zh) | 音量调整方法及装置 | |
TWI797341B (zh) | 用於產生觸覺輸出以增強使用者體驗的系統及方法 | |
CN105912296A (zh) | 语音控制方法及系统 | |
Branje et al. | Vibrotactile display of music on the human back | |
CN101425004B (zh) | 用声音作为计算机系统输入控制的方法和装置 | |
US5828758A (en) | System and method for monitoring the oral and nasal cavity | |
Hwang et al. | Improved haptic music player with auditory saliency estimation | |
KR102212409B1 (ko) | 오디오 신호 및 오디오 신호를 기반으로 한 진동 신호를 생성하는 방법 및 장치 | |
CN116980804A (zh) | 音量调整方法、装置、设备及可读存储介质 | |
CN103136970A (zh) | 用触觉提高英语发音质量的方法 | |
CN106859943A (zh) | 基于音源驱动的被动式微运动控制方法 | |
CN101600132A (zh) | 在便携式手持设备上调节音频文件播放效果的方法及装置 | |
CN103167161A (zh) | 一种基于麦克风输入实现手机吹奏乐器的系统及方法 | |
Chiu et al. | Audio output enhancement algorithms for piezoelectric loudspeakers | |
WO2011147015A1 (en) | System and method for displaying sound as vibrations | |
US20080159569A1 (en) | Method and Arrangement for the Sensitive Detection of Audio Events and Use Thereof | |
Ilkowska et al. | Sharpness versus brightness: A comparison of magnitude estimates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
DD01 | Delivery of document by public notice |
Addressee: Zhang Yongbing Zhang Rui Document name: Notice of preservation procedure |
|
DD01 | Delivery of document by public notice | ||
GR01 | Patent grant | ||
GR01 | Patent grant |