CN101421707A - 从数字音频信号自动产生触觉事件的系统和方法 - Google Patents

从数字音频信号自动产生触觉事件的系统和方法 Download PDF

Info

Publication number
CN101421707A
CN101421707A CNA2007800131612A CN200780013161A CN101421707A CN 101421707 A CN101421707 A CN 101421707A CN A2007800131612 A CNA2007800131612 A CN A2007800131612A CN 200780013161 A CN200780013161 A CN 200780013161A CN 101421707 A CN101421707 A CN 101421707A
Authority
CN
China
Prior art keywords
incident
events
mark
frequency
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007800131612A
Other languages
English (en)
Other versions
CN101421707B (zh
Inventor
克里斯托弗·J·乌尔里希
丹尼·A·格兰特
斯蒂芬·D·兰克
穆尼卜·M·贝吉尔卡尔哲奥卢
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Priority to CN201210082397.4A priority Critical patent/CN102736732B/zh
Publication of CN101421707A publication Critical patent/CN101421707A/zh
Application granted granted Critical
Publication of CN101421707B publication Critical patent/CN101421707B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Closures For Containers (AREA)
  • Circuits Of Receivers In General (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

所描述的系统和方法涉及接收数字音频文件并自动地将该文件转换成触觉事件。在一实施例中,所接收的文件是采样的数字音频文件或数字化的模拟音频文件。该系统和方法将音频信号分离成多个子频段信号,并且将该子频段信号分段成多个事件。然后,该系统和方法将触觉效果分配给所述事件,以产生由致动器输出的触觉事件信号。与致动器的物理参数和音频信号中的频率特性一起,该系统和方法利用限幅和最小时间分隔参数,以分析并提供与该音频相对应的不连续的触觉事件。

Description

从数字音频信号自动产生触觉事件的系统和方法
相关引用
本申请要求基于2006年4月13日提交的名称为“音乐-触觉码转换”、发明人Stephen D.Rank和Christopher J.Ullrich共同拥有的美国临时专利申请序列号60/792,137的优先权的利益。
技术领域
这里描述的主题总体涉及触觉领域,更具体地说,涉及产生对应于数字音频或音频/视频文件的触觉效果(haptic effect)控制信号或触觉音轨。
背景技术
在用户接口装置中能触知的振动通常是所希望的。触摸使空间感觉:在整个世界上你用于引导你的途径的那些感觉——视觉、声音、和触摸成为一体。触摸产生几毫秒的反射速率响应,并且提供视觉和声音加在一起也不能替代的完整性。
在用户接口装置中,具有匹配声音的能触知的振动是很有用的,例如当在蜂窝电话上播放音乐文件时。末端用户装置的音频可以用两种方式编码:结构化的表象格式,例如将被播放的声音符号化地编码成已知的符号串(例如,乐器数字接口或“MIDI”)的协议;和数字采样的音频,其是一组的音频波形的周期性采样。
近来,采样的音频文件能够通过手工转换来转换。设计人收听、分析并判断采样的音频文件,并且选择采样的音频特征,从所选择的特征中产生触觉效果。但是,人类设计介入是有限的资源。
所需要的是将音乐文件转换成触觉效果的自动或半自动的方法。
发明内容
在一实施例中,用于处理数字音频信号的方法包括将音频信号分离成多个子频段信号,将至少一个子频段信号分段成多个事件;将触觉效果分配给至少一个事件,以产生由致动器输出的触觉事件。
在一实施例中,用于处理数字音频信号的设备包括用于将音频信号分离成多个子频段信号的电路;用于将至少一个子频段信号分段成多个事件的电路;用于将触觉效果分配给至少一个事件以产生触觉事件的电路;以及被构造成输出触觉事件的致动器。
在一实施例中,用于处理数字音频信号的设备包括:用于将音频信号分离成多个子频段信号的装置;用于将至少一个子频段信号分段成多个事件的装置;和用于将触觉效果分配给至少一个事件以产生由致动器输出的触觉事件的装置。
在一实施例中,该系统和方法计算音频信号的频谱分解(spectraldecomposition)。在一实施例中,该系统和方法指定事件之间的最小的分隔时间。在一实施例中,该系统和方法在第一触觉事件之前指定最小的致动器启动时间。在一实施例中,该系统和方法指定多个触觉事件中的每个触觉事件的最小的持续时间。在一实施例中,该系统和方法指定事件之间的最小的分隔时间。在一实施例中,该系统和方法在第一触觉事件之前指定最小的致动器启动时间。在一实施例中,在子频段内信号的事件对应于用户规定的每秒钟的触觉效果的平均数。在一实施例中,在子频段信号内的事件具有小于最大混叠目标值的混叠值。在一实施例中,该系统和方法在指定的时间段上计算平均值,用于一个或多个子频段信号的参数。
在一实施例中,如果子频段信号的参数的短期值超过用于该参数的平均值的多倍(multiple),则该系统和方法指定事件。在一实施例中,该系统和方法计算音频信号的频谱分解的功率谱;至少部分地根据该功率谱选择频率;并且至少部分地根据所选择的频率识别事件。在一实施例中,该系统和方法将触觉事件存储在能够与网络上的客户机通信的服务器中,其中服务器为客户机提供触觉事件。
附图说明
包含在本说明书中并构成本说明书的一部分的附图示出了本发明的一个或多个实施例,并且与详细描述一道用于说明本发明的原理和装置。
在附图中:
图1是用包含一系列音符、和弦和休止符的传统的纸页音乐形式以视觉可见的方式表示的音乐作品的一部分。
图2是采样的音频信号的一部分的时间-幅度图。
图3是示出根据实施例的用于触觉效果映射的方法的处理流程图。
图4是根据实施例的系统部件(piece)的整体结构图。
图5是示出根据实施例的用于图4的音乐作品的高频和中频子频段信号的滤波的时间-幅度曲线图。
图6是示出根据实施例的用于分段中频子频段信号的平均功率和瞬时功率的表示(representation)的标准化的时间-幅度曲线图。
图7是根据实施例的用于分段低频子频段信号的频率-功率曲线图。
图8是根据实施例的用于图4的音乐作品例子的一系列触觉效果的时间-符号表示。
图9是根据实施例的构成音乐作品的一系列MIDI事件的时间-音符表示。
图10是根据实施例的构成音乐作品的一系列MIDI事件的替换的时间-乐器-音符表示。
图11A、11B、和11C一起构成处理流程图,示出用于MIDI序列处理以产生对应于根据实施例的一系列触觉效果的方法。
具体实施方式
在用于自动音频到触觉转换的系统的范围内,描述该主题的实施例。本领域的技术人员将会认识到,本发明的下面的详细描述仅仅是说明性的,并且不意图以任何方式限制。这种技术人员受到这里公开的内容的启发,自己也能够容易地提出本发明的其它实施例。下面详细参考附图中所示的本发明的设备。相同的附图标记将用于所有的附图,并且下面的详细描述将参考相同或类似的零部件。
为了清楚起见,这里没有示出和描述设备的所有的常规特征。当然,应当理解,在任何实际设备的研制中,必需做出特定实现方式的决定以便实现研制者的特定目标,例如符合与应用及业务相关的约束,这些特定的目标随着不同的实现方式而变化,并且随着不同的研制者而变化。而且,应当理解,这种研制工作是复杂和耗时的,但是尽管如此,对于受到本发明公开内容启发的普通技术人员而言所进行的技术工作是常规的。
根据这里描述的主题,能够利用各种类型的操作系统、计算平台、计算机程序、和/或通用机器来制造、操作和/或执行各种部件、系统、装置、处理步骤和/或数据结构。此外,本领域的普通技术人员将会明白,也可以利用不太通用的装置,例如,硬件装置、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等,而不脱离这里公开的发明构思的范围和精神实质。其中,所包含的方法由计算机、装置或机器执行,并且该方法可以被存储为由机器可读的指令,它们可以存储在确定的介质上,例如计算机存储装置,包括但不限于ROM(只读存贮器)、PROM(可编程只读存储器)、EEPROM(电可擦的可编程只读存储器、FLASH存储器、转移装置等)、磁存储介质(例如,磁带、磁盘驱动器等)、光学存储介质(例如,CD-ROM、DVD-ROM、纸卡、纸带等)以及其他熟知类型的程序存储器。此外,应当认识到,该方法可以利用软件工具的选择由人类操作者执行,而不需要人或创造性的判断。
这里所描述的系统和方法涉及接收数字文件并自动地将该文件转换成触觉事件。在一实施例中,所接收的文件是采样的数字音频文件或数字化的模拟音频文件。在另一个实施例中,所接收的文件是结构化的表示(representation)文件(例如,MIDI文件)。应当指出,虽然在这里MIDI文件用结构化的表示文件来描述,但是也可以用由系统使用的任何其他协议,从而,协议利用可以输出音频、视频或其它信号的结构化的表示文件。转换的触觉事件由末端设备处理并输出,其中用户感受令人愉快的触觉感受,这种触觉感受与该末端设备和/或其他设备输出的音频相对应。该末端设备包括但不限于音频播放器、移动电话、视频播放器、PDA、计算机、电视机、视频游戏控制板、计算机外围设备(例如,鼠标、操纵杆、滚球、键盘)、转向轮、设备、滑动器、按钮、头戴受话器、触摸屏、便携式或非便携式收音机、单向或双向传呼机、以及其他合适的用户可操作的装置。
还应当注意,虽然在这里该系统和方法被描述成由末端装置输出,但是根据实施例,多个末端装置可以同时或在不同的时间输出相同的触觉事件和/或相同触觉事件的不同部分。应当注意,末端装置在这里可以包括一个或多个致动器。在末端装置中的多个致动器的实施例中,对于每个触觉事件,由多个致动器输出的触觉事件可以同时进行、选择地进行、交替地进行、和/或单个地进行。
图4示出实施根据实施例的系统的整体结构。如图4所示,各种源可以为系统300提供输入信号99。例如,可以从服务器402、音频信号源(CD、DVD、DAT等)404、主计算机406、移动装置408和/或商业信息站410接收数字采样的音频信号或结构化的表示信号。该输入信号在有线或无线私人或公共网络98上发送到系统300的接收模块412。如在下面更详细地讨论的,该信号然后由处理器414处理。一旦处理之后,系统300通过有线或无线接口(through port)416将触觉事件序列输出到一个或多个末端装置420。当接收具有触觉事件序列(具有或不具有伴随的音频)的输出文件时,末端装置420然后能够利用一个或多个致动器422以及可选的音频扬声器424一道输出该触觉事件。应当指出,在图4中描述的结构是一个实施例,因而可以利用附加的和/或可选的部件而不脱离这里所描述的主题的范围。
现在回到附图,图1示出利用包括一系列音符、和弦和休止符的传统的纸张乐谱形式以视觉可见方式表示的音乐作品的一部分100。该音乐作品可以,例如,以数字采样的形式或结构化的表示形式演奏并记录。每个音乐音符表示机械振动的频率。音符的类型(即,A、A#、B、C、C#、D、D#、E、F、G、G#)在音调上是彼此不同的。全音符,二分音符、四分音符、八分音符、十六分音符等等表示每个音符演奏的持续时间或频率。同样,全休止符,二分休止符、四分休止符、八分休止符、十六分休止符等等表示没有音符被演奏的持续时间。音符序列及其持续时间确定了在何时演奏何种频率的表示法(representation)。
本发明的实施例涉及将触觉事件自动地映射到数字采样的音频文件。采样的音频源(和多个文件)具有但不限于WAV、MP3、MP4、ACC、ASX、WMA格式,所有的都提供基本相同类型的信息,例如采样率和一组(通常左和右声道)时间顺序的采样。但是,与结构化的表示文件不同,从采样的源部能够获得关于乐器的、音调、拍子或其他音乐内容的清楚的信息——只能够获得完全呈现的声音。采样的音频信号的例子的时间-幅度曲线图示于图2中。
附加地,或替换地,系统能够从结构化表象信号中自动地映射触觉事件。具体说,给出一音频文件的特定的结构化表示,系统通过分析由该结构化表象信号固有地提供的数据,能够自动地映射触觉事件。但是,自动地映射任何一种类型的文件,输入信号被仔细地处理,并且由于末端装置中的致动器的性能限制,分析被简化,以从该文件的音频信号中提供令人愉快的特殊的触觉序列。
当前的触觉技术能够演奏多至四个同时的触觉事件,并且用大约1毫秒的控制回路来操作。这是由于现有致动器的限制。给定现有偏心旋转质量(ERM)电机的技术的限制,演奏同时的触觉效果能够导致意想不到的致动器行为。而且ERM电机具有比较低的机械带宽,这种比较低的机械带宽限制了触觉事件的频率最大到每秒钟大约4个触觉事件。ERM电机在到达峰值加速度之前还具有大约50至80毫秒的启动延迟,并且在形成触觉控制信号中必需考虑到这种启动延迟,以驱动这种ERM电机。尽管在这里描述的主题的上下文中描述了ERM电机,但是,考虑到根据末端装置的类型、触觉效果分辨率、将被转换的音频的数字的质量、以及使用的用途,可以使用其他类型的电机或致动器。仅仅作为一个例子,致动器可以是线性共振致动器(LRA),其具有优于ERM电机的分辨能力。考虑到其他类型的致动器,包括但不限于线性电流控制电机、步进电机、磁致动器、气动/液压作用致动器、力矩器(具有有限角度范围的电机),以及声音线圈制动器。
为了向与能够触觉的末端装置相接触的用户提供令人愉快的触觉体验,系统在一个时间周期内不应当产生太多的触觉事件。此外,触觉事件应当足够远地间隔开,使得不产生一个恒定的振动或“模糊”,但是尽管如此,应与声音效果、音乐拍子和/或曲调相一致。例外的事件,例如键的改变、旋律的转变等,应当经常被触觉事件所强调。音乐韵律通常应当通过识别音频程序信号的拍子和与音频程序信号的开始相关的拍子的相位偏移而被加重。事先具有基本静音的量的音频事件由于它们在音乐上的重音(例如,作为声音效果的钹、汽车碰撞)也同样可以是触觉事件。
图3是示出根据实施例的用于所接收的数字化采样音频信号的触觉事件映射的系统和方法的处理方块图。一般而言,根据实施例,所接收的采样音频输入被该系统接收并且被自动地“转换”或“映射”,以与该信号中的所识别的音频事件的重放同步的方式,形成在末端装置中控制触觉效果的重放的触觉控制信号或触觉事件。图3中的方块被指定为原生的(generic)部件,其可以是模拟的或数字的硬件,包括但不限于硬连线的电路、集成电路以及ASIC。附加地或可替换地,图3中的方块是软件编码部件,例如由处理器和存储器实施或利用的程序、子程序、编码、线程等。
根据图3中的实施例,所接收的采样音频信号在方块310中被装入计算装置的存储器中。该计算装置可以是常规的个人计算机、处理模块、服务器、客户机、上面定义的末端装置本身,或具有足够处理能力的任何其他的电子器件。采样的音频信号可以取自压缩盘(CD)小磁盘、DVD、DAT、硬盘驱动器或其它介质。在一实施例中,音频信号可以直接地(有线或无线地)从商业或非商业网站下载,其然后由末端装置转换或播放。在另一个实施例中,音频音轨被远程转换并且然后存储在服务器上,从而该转换的触觉音轨能够直接从服务器下载到一个或多个被播放的末端装置。在一实施例中,所接收的文件被系统离线处理,从而在文件被接受之后,系统处理一部分或整个文件。在一实施例中,所接收的文件以实时方式被系统处理,从而当文件被接收时,系统处理并输出数据。
所接收的文件可以被输入到文件阅读器/播放器,其包括在商业计算机软件程序中,例如,Microsoft Windows Media 
Figure A200780013161D00181
Figure A200780013161D00182
Figure A200780013161D00183
MusicMatch 
Figure A200780013161D00184
或者服务器和/或末端装置上的其他所有者的程序。可替换地,能够与系统一起使用产生PCM类型输出的任何编解码器(codec)(编码器-解码器)。
在一实施例中,系统接收采样的音频作为单一的(非立体声的)输入信号。在一实施例中,系统接收采样的音频作为立体的或多声道输入,例如,其可以通过预先混合或子选择而被转换或映射。附加地,如果希望的话,多个触觉音轨可以被同时处理或者在不同的时间处理。
在一实施例中,在输入信号被加载到系统的可选存储器中之后,系统从该存储器检索该信号并且在方块312中依据其每个时间的能量大小和频率分析该输入信号。在一实施例中,系统利用开窗口的(windowed)快速傅氏变换(FFT)算法,以在方块312中产生音频信号的能量分布数据。在一实施例中,可以用任何其他合适的程序或算法,包括但不限于小波变换,以产生信号的能量分布信息。频谱分解分析还产生相位信息,其被编码作为在处理信号的过程中能够被系统利用的复系数。
在一实施例中,在频率子频段的分段之前,系统对于频谱分析计算利用补偿因子,以说明人耳传输功能和感性的因素。例如,与60Hz的声音相比,人耳对于3-4kHz的声音更加敏感。在一个例子中,系统将使60Hz左右的频率含量衰减大约40dB,而在3kHz和4kHz之间的频率含量不被衰减。因此,即便在60Hz的拍子(beat)中可能存在相当多的能量,由于衰减的缘故,用户可能更明显地感觉出在更高频段中的拍子。
同样,可以考虑用于目标触觉装置的扬声器的音频传输功能并且在分段之前将其应用于频谱分解。例如,大多数耳机扬声器的频率响应是这样的,低于200Hz的频率不被传输。因此,当伴随着由这种扬声器提供的音频信号时,强调在200Hz之下的拍子将产生意想不到的触觉效果。在处理中忽略频谱分解中的这些频段将产生更加一致的效果。
在一实施例中,系统利用来自频谱分解分析的复系数的绝对值,以依据频率来映射音频信号的能量分布,用以允许子频段信号的指定和音频信号的交叉频率。这是图3中的方块314所指出的。
如图3所示,该系统和方法在方块314从输入音频信号的能量分布中来确定许多子频段频率。如上所述,系统能够利用软件、模拟或数字硬件和/或固件进行这种分析。在一实施例中,系统分析信号的能量分布并且根据频率将能量指定为三个子频段类别。在一实施例中,子频段类别是高频子频段、中频子频段和低频子频段。图5示出滤波的时间-频率曲线图的例子,其示出了输入音频信号的高频子频段信号500和中频子频段信号502。在一实施例中,系统和方法将输入音频信号的能量分布指定为比三个子频段类别更多或更少。
在一实施例中,低频子频段被系统指定为在低频值的范围内,而高频子频段被指定为高频值的范围内。系统指定中频子频段为在低子频段的最高频和高子频段的最低频之间。应当指出,每个频率子频段范围不限于已讨论的这种,并且根据设计者的愿望,每个子频段能够被指定为具有任何上限频率和下限频率。在一实施例中,低频、中频和高频范围由系统根据整个信号的总的平均功率谱或整个信号的分段部分来确定。可以预期利用任何其他合适的方法由系统来确定低频、中频和高频范围。
具体说,系统和方法依据子频段交叉频率来分析输入音频信号。在一实施例中,系统计算在低频子频段和中频子频段之间的一个或多个子频段交叉频率fm。附加地,系统和方法计算中频子频段和高频子频段之间的一个或多个交叉频率fh。在例子中,fm被指定为在大约300Hz到大约1000Hz之间。在例子中,fh被指定为在大约3500Hz到大约5000Hz之间。应当指出,这些范围仅仅是例子,并且在该系统和方法的范围内,其他频率范围也是被考虑的。
在一实施例中,fm和fh频率被计算为第15和第85百分位频谱下降(衰减)的平均值,其中频谱下降(spectral rolloff)是低于其能够发现音频输入信号的总能量的规定的百分比的频率。该规定的百分比可以从在方块312中计算的信号的能量分布来计算。应当指出,其他频谱下降百分位也是被考虑的,并且不必限制在第15和第85百分位。在一实施例中,该系统和方法使与在每个时间窗中的指定的频率的能量标准化,并且计算对应于规定的百分位的积累值。应当指出,这是计算交叉频率的一种方法,并且计算交叉频率的其他方法也是被考虑的。例如,在一实施例中,可以通过计算整个信号的FFT并且计算下降值来计算子频段信号交叉频率。于是,三个子频段信号可以通过将每个子频段的能量值求和,从输入音频信号的能量分布(频谱)来构造。由于在频谱分解计算中,44KHz时间信息(原始音频采样率)可以被转换成128Hz时间数据,这个过程也可以用于向下采样(down-sample)输入信号。
在一实施例中,高频-中频-和低频子频段信号每个都被系统分段并且被处理。如图3所示,中频子频段信号被发送到由方块316指定的中频段优化器。该中频段优化器316产生对应于所希望的每秒钟效果(EPS)的数目的不连续事件的音轨。在一实施例中,目标EPS由用户定义,尽管EPS也可以根据特定因素来定义,包括但不限于致动器的分辨率、音乐的类型、末端装置的类型以及该系统的处理能力或用户的希望。
系统执行触觉事件之间的最小分隔,以允许末端装置中的致动器一个合适的时间来启动,并逐步结束其输出的每个触觉事件。该最小的分隔允许末端装置中的致动器产生不连续的多个触觉事件,并且防止两个或更多个触觉事件彼此重叠或者产生彼此重叠的多个触觉事件的一部分的“混淆”感。在一实施例中,根据子频段,限制在触觉事件之间的时间量为50毫秒,并且规定的持续时间为120至250毫秒。应当指出,该系统不限于这些值,并且其他值也在预料中。
中频段优选器316试图通过产生不连续的触觉事件的音轨来捕获有声事件的旋律,以对应于音频输入信号的有声的旋律。系统这样利用限幅参数(clipping parameter),以在希望的EPS的目标范围内识别具有最大能量值的事件。
当限幅的输入信号被从中频段优选器316输出时,该信号被输入到本地分段器318,如图3所示。一般而言,本地分段器318利用将限幅输入信号的长时间平均值与限幅输入信号的短时间平均值进行比较的算法,来将中频子频段分段成用于每个事件的一系列的开始和结束时间。如图3中的箭头所示,本地分段器318然后将这种信息向回提供给优选器316,从而优选器316施加一维线搜寻,以单调地调整一个或多个限幅参数,直到不连续事件的分段在所希望的EPS目标范围内。在一实施例中,重复这种处理直到达到用于该信号的所希望的EPS数。在一实施例中,该分段处理被重复预先设定的迭代数目。下面将讨论分段处理的具体情况。
图6示出根据实施例,用于将中频子频段信号分段成不连续的触觉事件的平均功率和短时间功率的表象的时间-信号曲线图。图6的曲线图示出在20秒窗口内的中频子频段信号的时间平均值600以及短时间信号值602。应当指出,其他时间段窗口也可以被系统所利用。
在一实施例中,短时间信号值可以通过用5Hz的Butterworth滤波器低通滤波输入音频信号而得到。应当指出,可以利用任何装置,或者模拟或数字领域的方法对输入信号进行滤波。在一实施例中,系统在特定时间产生新的事件,在这个特定时间点,短时间平均值信号超过用于这个时间点的规定的门限值。依据图6的曲线图,事件在短时间平均值沿着所希望的方向(例如,向上或向下)与长时间平均值交叉的时间点开始和结束。例如,在图6中,本地分段器318通过识别短时间平均值602沿着向上的方向与长期限平均值600交叉的地方来确定事件在何处开始(点604)。本地分段器318还通过识别短时间平均值602沿着向下的方向(点606)与长期限平均值600交叉的地方确定事件在何处结束。应当指出,上面所述仅仅是分段处理的一个例子,很显然系统也可以利用其他分段处理和算法。
对于低频和高频,每秒钟能够有效地产生比末端装置的致动器更多的被看作触觉事件的事件是很平常的。由于在高频和低频子频段中通常固有的密集的频率峰值的数目很大(图5),上面讨论的关于中频子频段的优化处理对于更高或更低频率的子频段不是优选的。这些很大数目的密集的频率峰值能够使致动器产生与输入音频信号的拍子不一致的混叠的结果。
为了解决这个问题,对于高频和低频子频段的信号,系统利用与中频子频段不同的优化和分段方法。图3示出系统不同地处理高频和低频子频段。关于高频子频段,当处理信号时,混叠是系统所考虑的事情。因此,没有考虑到这种混叠所产生的触觉事件可能发生与音乐不一致的节拍或韵律。
一般而言,如图3所示,系统包括高频优化器320方块,其进行一维(1-D)线搜寻,以调整高频信号的一个或多个限幅参数。优化器方块320利用输出信号中的混叠量的测量,并且调整被提供给分段方块322的限幅的值。高频子频段分段器322确定每个触觉事件的开始和/或结束时间,并且如箭头所示,将结果向回提供给优化器方块320。然后,优化器320相应地调整限幅的值,直到达到目标混叠水平或特定数目的预先定义的步骤已经发生。
通过检查所产生的触觉事件的开始时间之间的不同分布,来测量混叠。如果作为由致动器规定的最小效果(effect)分隔,这种分布在同一个delta具有很大的峰值,则分段的结果被认为具有高混叠。合理的目标混叠值应当是30%,这意味着30%的效果具有差别恰好最小间隔值的开始时间。
在分段方块322中所用的算法可以与在一实施例中的中频子频段320所用的相同。在一实施例中,用于由方块322处理高频子频段信号的算法类似于方块318用于中频子频段信号所执行的算法,但是具有若干不同。在一实施例中,对于高频信号,长时间平均值为50毫秒。
在一实施例中,输入信号被预处理,以增加信噪比(S/N)。S/N可以被计算为限幅信号的平均值对信号的最大值之比,从而,被处理的信号通过从输入信号中减去成比例的(scaled)1.5秒移动平均值来计算,并且将负值设置为零。应当指出,这仅仅是一个例子,系统也能够利用其它方法以提高信号的信噪比。
在一实施例中,对于高频信号,被测量为长于250毫秒的触觉事件被限幅为250毫秒的最大值。在一实施例中,在最近的50毫秒窗口中,只有当被限幅的信号大于最高峰值时才产生新的分段。应当指出,上面所说的仅仅是例子,而不限于上面所述的这些因素。还应当指出,上述一个或多个因数可以在执行该算法中被应用。高频子频段分段的结果通常是大致对应于输入音频信号的拍子的一组短触觉事件。
返回来参考图3,在一实施例中,低频子频段信号的处理不同于中频子频段信号。输入音频信号的低频部分通常对应于音乐的韵律,并且通常也是由各种类型的打击乐器和/或非常低频的声音(例如,贝斯声音)占优势。正如高频的情况一样,系统和方法处理低频子频段信号以产生与韵律一致的触觉事件,并且产生过多的混叠产物。在音乐中鼓的拍子(beat)在低频子频段频谱中的特定频率范围内是很通常的。因此,在一实施例中,系统考虑低频子频段中的很窄的频率范围,以识别该拍子。
在一实施例中,首先通过利用比方块312长得多的时间框架窗口来对原始输入信号的低频子频段信号进行频谱分解分析(方块324),系统识别这种特定的频率范围。在一实施例中,时间框架窗口是1/32秒或31毫秒,尽管其他的持续时间也在考虑之中并且不限于31毫秒。时间框架窗口在低频范围内比在方块312中计算的频谱分解提供非常高的分辨率,以评估信号的频谱下降。一旦系统和方法计算较高分辨率能量分布(方块324),系统计算该信号的功率谱。这由方块326进行,其中该系统对来自整个指定的时间窗口上的频谱分解的能量分布求和。应当指出,虽然输入信号被示为进行两种不同的频谱分解分析(图3中的方块312和324),但是低频子频段信号的频谱分解可替换地由方块312进行,从而该结果在计算低频子频段信号的功率谱中被方块326所利用。
系统和方法对低频子频段信号利用功率谱计算(方块326),以根据功率水平对频率进行分类(方块328)。在功率谱中若干个频率可以对应于相同的峰值是很常见的,从而冗余频率将被消除,以便能够更有效地对频率峰值进行分类。
图7示出根据实施例,用于对低频子频段信号进行分段的频率-功率曲线图。该功率谱表示在设定数目的频率储存器(frequency bin)中存在于输入信号中的能量值。由系统利用该信息,以将频率分类为总功率的储存器(bin)。例如,2.1和2.8(×104)之间的总功率的储存器具有以下降的总功率的方式排列的640Hz、672Hz、416Hz、320Hz以及608Hz的频率峰值。
为了消除这些冗余频率以及消除可能具有完全相同的能量或功率的瞬时分布的其他峰值,例如同样的拍子,系统计算与每个频率储存器相关的瞬时信号之间的互相关矩阵,这在下面更详细地讨论。在一实施例中,如果在频率储存器fi和fj处的时间信号是正相关,则相关矩阵将在位置(I,j)具有近似高值。根据实施例,所有的频率储存器被限幅,这些频率储存器与具有较高的相关功率的储存器具有高于0.5的相关系数。换句话说,系统将保持最高能量信号,并且不使用高于限幅的互相关系数的较低的能量信号。应当指出,相关系数不限于0.5,并且0.5之外的其他值也是被考虑的。对于这些剩余的频率,在方块324中所用的算法利用具有15%的最大目标混叠的优化器和分段器(方块330、332),尽管其他目标百分比也是被考虑的。
在一实施例中,系统计算低频段中的所有连续频率储存器之间的互相关系数。对应于周期性的小鼓拍音、拍手等的音频分段通常是高带宽事件,并且最容易通过搜寻最大互相关系数而识别。对于下一频率具有最高互相关系数的频段被系统选择,用于在低通检测算法中进一步处理。两个随机变量x和y的互相关系数由下式给出:
cor ( x , y ) = E ( x , y ) - E ( x ) E ( y ) σ x 2 σ y 2 - - - ( 1 )
如上所述,在高频、中频、低频被限幅并且分段之后,对于每个子频段信号,系统和方法将生成备选触觉事件表。具体说,如图3所示,分段的高频子频段信号从高频分段方块322通过到优先权限幅方块334。此外,分段的中频子频段信号从方块322通过到优先权限幅求和方块334。此外,分段的低频子频段信号从方块322通过到优先权限幅方块334。
对于系统和方法,可以简单地直接输出触觉事件而不使它们通过优先权限幅方块334,但是,这样做使得末端装置中的致动器将可能产生混乱的或模糊的触觉感觉。这是由于若干个触觉事件在时间上重叠造成的。为了克服这个问题,系统利用优先权限幅方块334,以从每个子频段信号按优先序排列备选触觉事件。
具体说,优先权限幅方块334能够防止来自相同或不同频率子频段的多于一个的触觉事件被致动器输出,如果它们在彼此的规定时间段内。这也防止重叠的剧烈的或强烈的事件彼此消除。例如,如果剧烈事件和强烈事件两者同时或基本上同时被致动器输出,诸如制动脉冲的剧烈的事件(见下面)可能过早地终止强烈事件。
根据实施例,低频、中频和高频触觉事件的任何优先权可能被优先权限幅方块334输出,不管它们重叠与否。在一实施例中,当来自不同子频段的两个触觉事件被检测为彼此重叠时,频率的子频段能够被赋予优先权。将根据音乐的特定流派、歌声的拍子、致动器的分辨率和/或输入音频信号的信息量(例如,有耗散对无耗散)来赋予这个优先权。
如图3所示,优先权限幅方块334将按优先序排列的触觉事件输出到效果映射方块336。在一实施例中,效果映射方块接收按优先序排列的触觉事件,并且将触觉事件分配给这些不连续的事件。在一实施例中,系统利用两种基本的触觉效果类型:周期性的和与幅度相关的。周期性的效果使振动的周期或速度能够被明确地控制,而与幅度无关。周期性的效果根据该装置而精确地产生振动频率最高到约30Hz。幅度相关的效果以幅度和装置相关的速率振动。
这两种效果类型的其他特征在于三种制动形式或制动效果:强、平缓或剧烈。每种形式具有不同的控制机制,导致对用户的稍微不同的感觉。强效果是用户感觉最强的效果。平缓的效果的特征在于在效果的强度逐渐减小,以实现用于周期性效果的较高的频率。对于幅度相关事件,效果强度不逐渐减小。剧烈效果实现了用于周期性效果的最高频率,而不逐渐减小强度,虽然对于幅度相关的效果而言强度明显地逐渐减小。
每种效果包括可调整的参数,或能够由系统或由用户设置的参数。用于周期性触觉效果的这种参数包括但不限于:幅度、周期/频率、持续时间、攻击(attack)时间、攻击水平、渐变(fade)时间、渐变水平以及包络。用于幅度相关触觉效果的参数包括但不限于:幅度、持续时间和包络。所描述的触觉效果和上面所示的赋予(assignment)仅仅是说明性的,应当认识到,可以被使用许多触觉效果和赋予。所产生的效果也具有可选的幅度规格,其通常取作整个分段上的信号的最大值(标准化成0至10000)。
图8示出用于与上面讨论的输入音频信号相关的音乐作品的触觉事件序列的时间-符号表示的例子。如图8所示,时间-符号表示800包括输入音频信号802的时间-频率曲线图。此外,该表示800包括指定为贝斯(Bass)804的低频子频段、指定为高通(High Pass)806的高频子频段,以及指定为声音(Vocal)808和中等重音(Mid Accent)810的两个中频子频段。
如图8所示,系统在每个子频段中映射触觉事件,使得在一个时间只有一个触觉事件发生,并且与相邻的触觉事件分隔开指定的时间宽度。在一实施例中,系统在一个时间能够使多于一个的触觉事件发生,其中每个事件的触觉效果的分布特性是彼此不相同的。例如,如图8所示,考虑到与强的幅度相关效果808A、808B和短周期效果804A、806A被用户有效地感觉为两个分隔的事件,系统将允许强的幅度相关效果808A、808B和短周期效果804A、806A重叠。在图8所示的例子表示中,系统被构造成当允许中频事件与高频和低频事件相重叠时,对高频触觉事件上的低频触觉事件给予优先权。应当指出,系统可以由用户、末端装置,或者由输入的音频信号本身所构造,以对任何频率子频段或部全频率子频段给予优先权和重叠权,并且不限于图8所示的时间-符号表示。
上文讨论了一个或多个实施例,其中系统能够自动地接收、识别并产生对应于采样的音频信号的触觉事件,并且以愉快的方式输出给用户。该系统也能够接收并处理表象地构造的编码的音乐文件,该音乐文件包括但不限于MIDI文件,以产生与编码的音乐文件相对应的触觉事件。应当指出,虽然在这里表象地结构化的文件被描述为音乐文件,但是表象地结构化的文件具有音响效果或与音频有关的其他效果。
图9示出根据实施例构成音乐作品的一系列MIDI事件的时间-音符表示。该MIDI文件格式可以包括同步的乐器的16个声道,从而每个声道能够具有多至127个能够演奏的独特的音调(pitch)(叫做键)。此外,MIDI文件格式包括通常没有音调的保留用于打击乐器的声道。打击乐器横跨在振动声道中键的范围而分布。
图10示出根据实施例构成音乐作品的一系列MIDI事件的时间-乐器-音符表示。在MIDI音乐文件中,每种乐器的每个音符是可以由系统指定为触觉事件的事件。但是,考虑到致动器的物理和性能上的限制,系统分析并处理该MIDI文件以产生不连续的触觉事件,该触觉事件产生令用户愉悦的触觉体验。
图11A、11B和11C一起示出系统所用的处理流程图,以自动地处理MIDI文件并且在末端演奏装置上产生触觉事件。一般而言,系统分析MIDI数据并且从结构化的表示中抽取旋律和/或振动事件序列。然后,系统产生用于对应于每种乐器的每个声道的分数(score),从而非振动的声道的分数与这个声道的音符的可变性相关。这被试验发现,在从一组另外的不熟知的输入声道中选择旋律是有效的。对于打击乐器,打分的策略依赖于各种打击乐器的占优势的在先知识。例如,低音鼓最可能是占优势的振动声道,并且因此,与在该振动声道中的低音鼓相关的音符通常得到较高的分数。
除了对来自MIDI序列的输入声道打分之外,该系统和方法对事件进行一个或多个限幅操作,以能够在末端装置上产生不连续的触觉事件。在一实施例中,该系统将一个或多个音符限幅到所希望的持续时间,并且处理该声道以除去重叠的音符,例如,和弦。在一实施例中,该系统可以根据能被处理的参数的数目构造,以在其他声道(例如,振动对旋律)中控制一个或多个声道的相对优先权。
如图11A所示,MIDI序列的所选择的一个、一些或全部声道被接收在系统中(1102)。该序列可以被输入到末端装置的存储器中、与末端装置通信的服务器中、和/或其他中间部件、计算机或处理器中。在一实施例中,来自不是用真正来产生触觉事件的所输入的MIDI文件的信息实际上被从存储器中删除。在一实施例中,不是真正用来产生触觉事件的信息可以由系统保留,以便由研制者或末端用户而使触觉事件能够再构造或细致地调音。
在一实施例中,在接收到文件之后,该系统对该文件执行各种预处理过程。在一实施例中,系统通过分析事件的时间线而对事件执行预音符识别和下一个音符识别技术(图11A中的方块1104)。在一个实施例中,在方块1104,每个声道也被处理为在同一个声道中建立一个事件与前一个事件的联系。每个声道也被处理为在同一个声道中建立一个事件与下一个事件的联系。在一实施例中,系统一次分析整个结构化的音频表示文件的时间线。在另一个实施例中,该系统一次分析音频表示文件的时间线的各部分。这使系统能够快速地处理具有长时间线(例如,电影中的声响效果)的大音频文件。
如图11A所示,然后系统通过识别发生旋律和振动事件的声道,而识别感兴趣的旋律的事件和振动的事件,如方块1106所示。当识别旋律事件和振动事件时,系统能够有效地利用该识别的事件,以在图11B中对旋律事件(方块1116)和振动事件(方块1132)打分。
如图11所示,在实施例中,系统可选地处理每个声道,以除去和弦(1108)。在一实施例中,系统从MIDI文件中将和弦识别为在同一个声道中在彼此的某个时间段内开始、并且在非打击乐器声道上的事件。在一实施例中,这个时间段被设置为15毫秒,尽管其他时间段也是预料中的。在一实施例中,一旦系统识别MIDI事件声道中的和弦,系统只保留具有最高音调的事件,并且从该时间线上摒弃构成和弦的其他事件。在另一个实施例中,系统消除最高音调事件并且保留较低或最低音调事件。正如在下面将要详细讨论的,从时间线上去掉和弦减少了给予具有许多和弦的声道的分数,因而帮助系统识别该时间线中的旋律。
在方块1110,系统识别在相同的时间或基本相同的时间具有相同或近似相同的音符的声道对。这经常是两个或更多个乐器以和声(例如,两个吉他同时演奏同一个即兴重复段)演奏时的情况。对于每个声道,产生实时的时间采样矢量,其中该实时是事件发生的时间点。系统通过检查时间线上每个声道的事件而完成时间采样,并且对其间产生事件的时间间隔设置值1。否则,在该矢量中设置值0。这产生一组长度矢量n:
n = floor ( T t s ) - - - ( 2 )
其中T是MIDI输入文件的总持续时间,而ts是采样间隔。
为了识别具有重叠音符的声道,对于每个声道计算相关性。
cor ( v i , v j ) = cov ( v i , v j ) &sigma; i &sigma; j = < v i v j > - < v i > < v j > &sigma; i &sigma; j - - - ( 3 )
其中vi、vj是时间采样矢量,而σi是处理为时间序列的矢量vi的标准偏差。如果两个或更多个声道的相关性超过相关性门限值,那么部分声道或整个声道可以从该时间线上消除。
例如,返回参考图9,声道902和904被示出在线900和908之间基本上是相同的。当系统对声道902和904执行上述计算时,考虑到它们在相同的时间将演奏相同的曲调,系统将消除两个声道中的其中一个。被消除的两个声道中一个可以决定于由用户和/或系统设置的参数。
如图11A所示,通过利用限幅处理(方块1112)设置最大和最小长度,系统将事件限制为所希望的长度。系统将短于规定的最小持续时间的事件限幅为至少和该最小持续时间一样长。此外,长于规定的最大持续时间的事件被改变成或限幅为不长于最大持续时间。此外,在其之间的间隔持续时间小于预先规定的最小持续时间的两个或更多个事件被改变为至少具有最小间隔持续时间。这可通过缩短该序列中一个或两个事件以在其之间产生最小间隔来实现。
现在转到图11B,一旦系统已经完成输入并预处理每个声道之后,系统启动对所接收的文件中的每个声道的打分(方块1116)。应当指出,在一实施例中,当执行所接收的文件的输入/预处理时,系统能够开始打分处理。在一实施例中,在进行文件的输入/预处理之后,系统开始打分处理。
在一实施例中,系统利用两组规则对声道打分。第一规则组被设计成对具有一些可变性的声道给出较高的分数,因为那些声道很可能载有曲调。第二规则组依据其在形成歌声中的韵律的传统重要性而对振动声道提供顺序等级。
通过检查在该时间线上的所有事件来完成打分。每个事件通过打分滤波器,该打分滤波器对单个事件赋予分数。一旦所有的事件已经被处理之后,通过该时间线的第二回路推导出在每个声道中的所有事件的分数,产生每个声道的总分数。在一个实施例中,这是通过简单地积累每个事件的分数来进行。在另一个实施例中,这是用适当的算法完成的。如图11B所示,在一实施例中,系统对旋律事件和振动事件分开地打分,尽管打分可以同时地进行或一个接着一个地进行。在一实施例中,系统能够对旋律事件和振动事件一起打分,从而,对于一种类型的事件(即,旋律的或振动的)而确定的信息可以用于分析或评估另一种类型的事件(即,振动的或旋律的)。
对于时间线上的旋律事件,系统利用对事件打分的规则的子组,如图11B的1116所示。在一实施例中,每个子组规则由系统同时执行。在一实施例中,一个或多个子组规则由系统顺序地执行。
如图11B所示,根据实施例中的方块1118,系统对事件之间的音调变化打分。如在方块1118中,系统计算当前事件的音调和一个或多个在先事件的音调之间的差的绝对值,因而,每个音调具有确定的值。系统能够从音频表示文件中的固有编码的声道数据中,将值分配给音调。在一实施例中,差被作为音调分数输出。在一实施例中,差值通过预定的系数(例如,500)换算以得到音调分数。
如图11B所示,根据实施例的方块1120,系统对事件之间的开始时间打分。在方块1120中,系统分析事件的持续时间以确定在该声道中是否演奏韵律。在一实施例中,在方块1120中计算一个事件和紧邻的前一个事件之间的开始时间的差。在一实施例中,在方块1120中计算前一个事件和该前一个事件之前的事件之间的开始时间的差。在一实施例中,系统在输出开始时间分数之前对这些差加权。在一实施例中,加权的量具有5的系数。但是,加权值可以是不同于5的系数也是所预料的。根据该文件中的其他韵律或歌声的流派,系统能够对持续时间打较高或较低的分数,使得系统适当地输出决断的(resolved)触觉事件。
如图11B所示,根据实施例的方块1112,系统对事件的幅度或强度打分。根据该事件的幅度的函数,方块1112指定相等的分数。从结构化的表示文件中固有编码的声道数据,系统能够确定每个事件的幅度。
如图11B所示,根据实施例的方块1124,系统对事件的持续时间打分。方块1124根据事件的持续时间的函数而指定分数。在一实施例中,系统对具有较长持续时间的事件比具有较短持续时间的事件给予较高的分数。在另一个实施例中,系统对具有较长持续时间的事件比具有较短持续时间的事件给予较低的分数。
如图11B所示,根据实施例的方块1126,系统对事件的持续时间的变化打分。具体说,在方块1126中,系统根据当前事件和前一事件之间的持续时间的变化而指定分数。
如图11B所示,根据实施例的方块1126,系统对事件的持续时间的变化打分。具体说,在方块1128中,系统根据事件内的每个音符之前的静音的持续时间而指定分数。例如,如果系统识别在特定声道中,在长的静音持续时间之后发生事件,则系统对这种事件可以给予高分数,使得它最可能被输出为触觉事件。这种情况的例子是在鼓的隆隆声结束时钹的猛烈碰撞。
在一实施例中,如方块1130所示,关于旋律事件的平均信息量(entropy),系统对旋律事件可选地打分。在评估该规则的过程中,系统可以利用被给予声道的分数和与该声道相关的声音的平均信息量之间的关系。为了评估每个韵律声道的平均信息量,由系统构造音符的分布。传统的12音调音阶(tone scale)用于定义音符音调的等效类别{p(k),k=1…12}。根据12个音调音阶中的哪个音调与事件的键相关,而分类每个事件。通过利用百分比排列(scaling)每个事件成分(contribution)而建造分布,从而加权w,w由方程4确定:
w = ( 1 - e d &tau; ) &alpha; - - - ( 4 )
其中变量d是当前事件和前一时间之间的静音的持续时间(以秒计)。变量τ是饱和休止长度(取作0.5秒),而α是最小可区分的持续时间(取作2秒)。应当指出,对于饱和休止长度和最小可区分的持续时间的其他值也是被考虑的,并且不限于这里所提到的值。
这种分布的平均信息量用等式5中的公式计算:
e = - &Sigma; k = 1 12 p ( k ) log ( p ( k ) ) - - - ( 5 )
其中p(k)是声音的音调的类别,从1到12(对于12个音调音阶)
除了对旋律事件打分之外,系统还对振动事件打分,如图11B中方块1132所示。在一实施例中,在对振动事件打分中,系统利用两种规则。具体说,系统对每个振动事件之前的静音的持续时间打分。静音的持续时间被认为是几毫秒,并且在一实施例中该分数被加权。在一实施例中,打分的静音值被4除,尽管其他值也是被考虑的。
如图11B所示,根据打击乐器的类型,系统将值分配给每种打击乐器。在一实施例中,1到5的加权值被系统分配给每种打击乐器,使得更占优势的乐器得到较高的值。例如,归因于低音鼓乐器的事件给予5的值,而归因于踩镲符号(high-hat symbol)的事件给予1的值。在一实施例中,在产生每个事件分数的过程中,该值被系数(例如,100)加权。对于振动事件的总的事件分数取决于这些规则的子组。
在一实施例中,当产生声道的绝对值顺序时,用于振动规则和旋律规则两者的打分乘法器由系统加权,以在打击乐器之上强调旋律乐器。这个过程在产生声道分数的方块1138中进行。加权可以根据音乐的流派、音频文件的类型(例如,音乐对视频的声响效果)、用户喜好、末端装置的类型等。
现在转到图11C,在产生每个声道的分数(方块1138)之后,系统能够根据分数值对声道进行分类,如方块1142所示。在一实施例中,系统对旋律声道和振动声道单独进行分类,尽管系统也能够对两种声道一起分类。在一实施例中,分类的声道按照下降次序分类,从而具有最高分数的声道被排列为“高”。在一实施例中,被打分的声道以上升的次序分类。在一实施例中,系统对在所希望的分数范围内的声道进行分类,或者仅仅选择具有所希望的分数的声道。在一实施例中,系统从最高到最低排列分数,其中排列为最高的事件将被作为触觉事件输出,而排列为最低的事件将不被作为触觉事件输出。
当系统根据分数排列或选择声道时,系统能够确定哪些声道将提供事件,触觉效果将基于该事件。在一实施例中,系统利用下述伪码在方块1144产生触觉效果:
当声道保留时
对于在振动声道中每个空持续时间>400毫秒
在空隙开始处用100毫秒的缓冲填充该空持续时间,并且用最高打分的通道填充这个间隔中的间隙的末尾。
结束
换句话说,从歌声的开始到结束,系统自动地映射排列为最高的触觉事件。随后,系统“填充空白”,并且再一次映射能够放置在歌声的空白或非触觉事件部分内的下一个排列为最高的触觉事件。考虑到制动器分辨率、持续时间缓冲、用户喜好、触觉事件形式和歌曲的类型,重复这个过程直到歌声中允许的触觉事件的最大数目被映射。应当指出,上面所述仅仅是一个举例的伪码,并且系统可以利用不同的持续时间缓冲以及利用最低打分的声道或其他准则。
当事件被指定为触觉事件时,系统限幅该触觉事件以具有在希望范围内的持续时间。在一实施例中,限幅范围是在200毫秒和300毫秒之间,尽管更大或更小的持续时间也是被考虑的,并且这取决于触觉致动器的性质。此外,事件的开始时间可以被偏置希望的量,以确保不同类型的致动器上的音频和触觉事件之间的知觉的联系。在一实施例中,触觉事件的强度可以在系统中调节。例如,最小持续时间可以设置为较小的值,而缓冲时间可以增加。
如图11C所示,在一实施例中,系统除去振动重叠。系统利用“填充空白”算法而可选地独立地构造韵律和振动声道,并且然后将它们汇合在一起,以产生最终映射的触觉事件。当只利用“强”效果时,这可能是最有效的,由于重叠的剧烈效果能够产生意想不到振动(vibe)行为。可替换地,系统能够衰减具有重叠的振动事件的触觉事件的幅度,从而被衰减的触觉事件然后以最大的幅度被输出。这为末端装置提供保存仍在演奏的该韵律的知觉的重音的特性。
在一实施例中,在结构化的表示信号的时间线上的某个点,系统能够添加自定义渐变(方块1150)。设计者可以选择用渐弱的较短的效果(例如,500毫秒)来代替长持续时间的音符。还有,可以通过添加类似的渐变效果而使乐节或旋律线的末端更有趣。
在一实施例中,当根据上面的规则,具有长持续时间的事件被添加到时间线时,系统寻找该具有长(大于500毫秒)持续时间的事件。如果在特定事件和下一个事件之间还存在大的时间间隙(约1000毫秒),则系统可以自动地淡入或淡出该特定的事件。为了实现这种方法,系统识别并且建立具有触觉效果特性或淡入和/或淡出的特征的这种触觉事件的列表。在构造整个时间线之后,系统用来自该列表中渐变的触觉事件来代替现有的触觉事件。渐变效果可以被实现为在其整个持续时间减弱的周期性的或幅度相关的效果。
用于转换上面所述的数字采样的音频和/或结构化的表示文件的方法可以用于音符到触觉事件的自动转换。一旦转换之后,这些触觉事件序列能够以适当的方式存储并且在分配在其他的末端装置中。例如,触觉事件序列可以作为输出文件存放在与一个或多个网络上的客户机通信的服务器中。当与客户机建立通信联系时,服务器可以以电子方式提供输出文件以在客户机上演奏。同样地,该触觉序列能够被用在本领域已知的各种设置中。例如,通知电话用户或诸如约会、报警的事件,诸如天气预报或文本信息等的输入信息。在一实施例中,结构化的表示文件可以应用于卡拉OK歌曲,其中在文件的自动转换之后,末端装置(例如,卡拉OK麦克风)输出触觉效果以提示歌唱者音乐。在一实施例中,末端装置能够自动地转换、映射并且输出触觉事件序列,用于下载到末端装置上的视屏、视频游戏、音乐视频或电影文件的声音效果或其他音频。
虽然已经示出并描述了本发明的实施例和应用,但是对于受到本发明内容启发的本领域的普通技术人员而言,很显然,在不脱离这里的发明构思的情况下能够对上面提到的内容进行许多修改。因此除了在所附权利要求的精神内之外,本发明不被限制。

Claims (69)

1.一种用于处理数字音频信号的方法,包括:
将音频信号分离成多个子频段信号;
将至少一个所述子频段信号分段成多个事件;以及
将触觉效果分配给至少一个所述事件,以产生由致动器输出的触觉事件。
2.根据权利要求1的方法,其中所述音频信号的分离还包括计算所述音频信号的频谱分解。
3.根据权利要求1的方法,其中所述分离还包括指定事件之间的最小分隔时间。
4.根据权利要求1的方法,其中所述分离还包括在所述触觉事件之前指定最小的致动器启动时间。
5.根据权利要求1的方法,其中所述分段还包括指定多个触觉事件中的每个触觉事件的最小持续时间。
6.根据权利要求1的方法,其中所述分配还包括指定事件之间的最小分隔时间。
7.根据权利要求1的方法,其中所述分配还包括在第一触觉事件之前指定最小的致动器启动时间。
8.根据权利要求1的方法,其中从所述子频段信号中分段的事件对应于用户规定的每秒钟的触觉效果的平均数。
9.根据权利要求1的方法,其中从所述子频段信号中分段的事件具有小于的最大混叠目标值的混叠值。
10.根据权利要求1的方法,还包括对指定的时间段计算平均值,用于一个或多个子频段信号的参数。
11.根据权利要求10的方法,其中至少一个子频段信号的所述分段还包括:
如果所述子频段信号的所述参数的短期值超过该参数的平均值的多倍,则指定一事件。
12.根据权利要求2的方法,还包括:
计算所述音频信号的频谱分解的功率谱;
至少部分地根据所述功率谱而选择频率;以及
至少部分地根据所述选择的频率而识别事件。
13.根据权利要求1的方法,还包括:
将所述触觉事件存储在能够与网络上的客户机通信的服务器上,其中所述服务器为所述客户机提供所述触觉事件。
14.一种用于处理数字音频信号的设备,包括:
用于将所述音频信号分成离多个子频段信号的电路;
用于将至少一个所述子频段信号分段成多个事件的电路;和
用于将触觉效果分配给至少一个所述事件以产生触觉事件的电路;以及
被构造成输出所述触觉事件的致动器。
15.根据权利要求14的设备,其中用于分离的所述电路还包括用于计算所述音频信号的频谱分解的装置。
16.根据权利要求14的设备,其中用于分段的所述电路还包括:
用于指定事件之间的最小分隔时间的装置。
17.根据权利要求14的设备,其中用于分段的所述电路还包括:
用于在第一触觉事件之前指定最小的致动器启动时间的装置。
18.根据权利要求14的设备,其中用于分段的所述电路还包括:
用于指定多个触觉事件中的每个触觉事件的最小持续时间的装置。
19.根据权利要求14的设备,其中用于分配的所述电路还包括:
指定事件之间的最小分隔时间的装置。
20.根据权利要求14的设备,其中在所述子频段信号内的事件对应于由用户规定的每秒钟的触觉效果的平均数。
21.根据权利要求14的设备,其中在所述子频段信号内的事件具有小于最大混叠目标值的混叠值。
22.根据权利要求14的设备,还包括:
在指定的时间段上计算用于一个或多个子频段信号的参数的平均值的装置。
23.根据权利要求22的设备,其中至少一个子频段信号的所述分段还包括:
如果所述子频段信号的参数的短期值超过用于该参数的平均值的多倍,则指定事件的装置。
24.根据权利要求14的设备,还包括:
用于计算所述音频信号的频谱分解的功率谱的电路;
用于至少部分地根据所述功率谱选择频率的电路;以及
至少部分地根据所述选择的频率识别事件的电路。
25.一种用于处理数字音频信号的设备,包括:
用于将所述音频信号分成离多个子频段信号的装置;
用于将至少一个所述子频段信号分段成多个事件的装置;和
用于将触觉效果分配给至少一个所述事件以产生由致动器输出的触觉事件的装置。
26.一种用于将在结构化的表示序列中的多个声道中的多个事件自动转换为触觉事件的方法,该方法包括:
计算一个或多个声道中的所述序列的每个事件的事件分数;
根据所述一个或多个声道中的所述事件分数而计算分数;以及
根据一个或多个选择的声道中的所述事件分数,选择性地将触觉事件指定为所述事件,其中所述触觉事件由触觉致动器输出。
27.根据权利要求26的方法,其中根据分数选择所述一个或多个声道。
28.根据权利要求26的方法,还包括确定在同一个声道中的相邻事件的门限时间内,一事件是否开始。
29.根据权利要求26的方法,还包括选择相比于在门限时间内的一个或多个相邻事件,具有较高音调值的事件,其中所选的事件被记分。
30.根据权利要求26的方法,还包括:
沿着共同的时间线,比较两个或更多个声道中的事件;
选择不是在两个或更多个声道之间的门限相关性中的两个或更多个声道中的其中一个中的事件,其中所选的事件被记分。
31.根据权利要求26的方法,其中根据一事件的音调和前一事件的音调之间的差,来计算所述事件分数。
32.根据权利要求26的方法,其中根据一事件和前一事件的开始时间的差,来计算所述事件分数。
33.根据权利要求26的方法,其中根据所述事件的幅度值来计算所述事件分数。
34.根据权利要求26的方法,其中根据所述事件的持续时间来计算所述事件分数。
35.根据权利要求26的方法,其中根据特定事件和相邻事件之间的持续时间的变化,来计算所述事件分数。
36.根据权利要求35的方法,其中所述相邻事件是沿着时间线在所述特定事件之前的事件。
37.根据权利要求26的方法,还包括将所述触觉事件的持续时间调整成大于最小持续时间并小于最大持续时间。
38.根据权利要求26的方法,其中根据演奏所述声道中的所述事件的乐器,来加权所述事件分数。
39.根据权利要求26的方法,还包括识别至少包括旋律事件和振动事件其中之一的特定声道。
40.一种自动产生触觉效果的方法,包括:
接收表象地结构化的文件;
将分数分配给所述表象地结构化的文件的一个或多个声道中的多个指定事件的一个或多个;
通过将触觉事件分配给满足一分数标准的每个指定的事件,而生成多个触觉事件;以及
将所述触觉事件输出给致动器,其中每个输出的触觉事件与表象地结构化的文件中的对应的事件相关。
41.根据权利要求40的方法,其中相邻的被输出的触觉事件由最小的持续时间暂时地间隔开。
42.根据权利要求40的方法,其中根据在这里推导出的指定事件的分数来选择所述一个或多个声道。
43.根据权利要求40的方法,其中在表象地结构化的文件中的所述事件是音乐作品中的音符。
44.根据权利要求43的方法,还包括:
确定一特定事件是否在同一个声道中的相邻事件的门限时间内开始;以及
当所述特定事件和相邻事件在所述门限时间内时,选择具有较高音调的事件,其中所选的事件被记分。
45.根据权利要求40的方法,还包括:
沿着共同的时间线,比较两个或更多个声道之间的所述事件;
选择不是在两个或更多个声道之间的门限相关性内的两个或更多个声道中的其中一个中的事件,其中所述选择的事件被记分。
46.根据权利要求40的方法,其中根据一当前事件的频率和前一事件的频率之间的差,来计算所述事件分数。
47.根据权利要求40的方法,其中根据一当前事件和前一事件之间的开始时间的差,来计算所述事件分数。
48.根据权利要求40的方法,其中根据所述事件的幅度值,来计算所述事件分数。
49.根据权利要求40的方法,其中根据所述事件的持续时间,来计算所述事件分数。
50.根据权利要求40的方法,其中根据一特定事件和一相邻事件之间的持续时间的变化,来计算所述事件分数。
51.根据权利要求50的方法,其中所述相邻事件沿着时间线在所述特定事件之前。
52.根据权利要求40的方法,还包括将所述触觉事件的持续时间调整成大于最小持续时间并小于最大持续时间。
53.根据权利要求40的方法,其中根据演奏所述声道中的所述事件的乐器,加权所述事件分数。
54.根据权利要求40的方法,其中根据当前事件的音调和前一个事件的频率之间的差,来计算在非振动声道内的每个事件的事件分数。
55.一种机器可读的程序存储装置,实施由所述机器执行的指令的程序,以执行用于自动产生触觉效果的方法,该方法包括:
接收表象地结构化的文件;
将分数赋予所述表象地结构化的文件的一个或多个声道中的多个指定事件的每一个;
通过将一触觉事件分配给满足一分数标准的每个指定的事件,而生成多个触觉事件;以及
将所述触觉事件输出给致动器,其中每个输出的触觉事件与表象地结构化的文件中的对应的事件相关。
56.根据权利要求55的方法,其中相邻的被输出触觉事件由最小的持续时间暂时地间隔开。
57.根据权利要求55的方法,其中根据所述分数来选择所述一个或多个声道。
58.根据权利要求55的方法,其中在表象地结构化的文件中的所述事件是音乐作品中的音符。
59.根据权利要求58的方法,还包括:
确定一特定事件是否在同一个声道中的相邻事件的门限时间内开始;以及
当所述特定事件和相邻事件在所述门限时间内时,选择具有较高频率的事件,其中所选的事件被记分。
60.根据权利要求55的方法,还包括:
沿着共同的时间线比较两个或更多个声道之间的所述事件;
选择不是在两个或更多个声道之间的门限相关性内的、两个或更多个声道中的其中一个中的事件,其中所述选择的事件被记分。
61.根据权利要求55的方法,其中根据一当前事件的音调和一前一事件的音调之间的差,来计算所述事件分数。
62.根据权利要求55的方法,其中根据一当前事件和一前一事件的开始时间的差,来计算所述事件分数。
63.根据权利要求55的方法,其中根据所述事件的幅度值,来计算所述事件分数。
64.根据权利要求55的方法,其中根据所述事件的持续时间,来计算所述事件分数。
65.根据权利要求55的方法,其中根据一特定事件和一相邻事件之间的持续时间的变化,来计算所述事件分数。
66.根据权利要求55的方法,其中所述相邻事件沿着时间线在所述特定事件之前。
67.根据权利要求55的方法,还包括将所述触觉事件的持续时间调整成大于一最小持续时间并小于一最大持续时间。
68.根据权利要求55的方法,其中根据演奏所述声道中的所述事件的乐器,加权所述事件分数。
69.根据权利要求55的方法,其中根据一当前事件的频率和一前一事件的频率之间的差,来计算在非振动声道内的每个事件的事件分数。
CN2007800131612A 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法 Expired - Fee Related CN101421707B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210082397.4A CN102736732B (zh) 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US79213706P 2006-04-13 2006-04-13
US60/792,137 2006-04-13
US11/515,146 2006-08-31
US11/515,146 US7979146B2 (en) 2006-04-13 2006-08-31 System and method for automatically producing haptic events from a digital audio signal
PCT/US2007/009029 WO2007120765A2 (en) 2006-04-13 2007-04-12 System and method for automatically producing haptic events from a digital audio signal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201210082397.4A Division CN102736732B (zh) 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法

Publications (2)

Publication Number Publication Date
CN101421707A true CN101421707A (zh) 2009-04-29
CN101421707B CN101421707B (zh) 2012-05-30

Family

ID=38604405

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2007800131612A Expired - Fee Related CN101421707B (zh) 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法
CN201210082397.4A Expired - Fee Related CN102736732B (zh) 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201210082397.4A Expired - Fee Related CN102736732B (zh) 2006-04-13 2007-04-12 从数字音频信号自动产生触觉事件的系统和方法

Country Status (5)

Country Link
US (2) US7979146B2 (zh)
EP (2) EP2011105A4 (zh)
JP (4) JP5174009B2 (zh)
CN (2) CN101421707B (zh)
WO (1) WO2007120765A2 (zh)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101640057A (zh) * 2009-05-31 2010-02-03 北京中星微电子有限公司 一种音视频匹配方法及装置
CN103677249A (zh) * 2012-08-31 2014-03-26 英默森公司 使用映射的声音-触觉效应转换系统
CN103793048A (zh) * 2012-10-26 2014-05-14 英默森公司 独立于流的声音到触觉效应转换系统
CN103885744A (zh) * 2013-05-30 2014-06-25 美声克(成都)科技有限公司 一种基于声音的手势识别方法
CN104423591A (zh) * 2013-09-06 2015-03-18 意美森公司 用于光谱图的视觉处理以生成触觉效果的系统和方法
US9239700B2 (en) 2006-04-13 2016-01-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
CN105472505A (zh) * 2014-09-26 2016-04-06 深圳市三诺数字科技有限公司 一种用于音频输出的多段限幅控制系统
US9330546B2 (en) 2006-04-13 2016-05-03 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
CN106293055A (zh) * 2015-06-26 2017-01-04 三星电子株式会社 电子设备以及用于提供其触觉反馈的方法
CN108287651A (zh) * 2012-05-09 2018-07-17 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
CN109036461A (zh) * 2017-06-12 2018-12-18 杭州海康威视数字技术股份有限公司 一种通知信息的输出方法、服务器及监控系统
CN109144257A (zh) * 2018-08-22 2019-01-04 音曼(北京)科技有限公司 从歌曲中提取特征并转化为触觉感受的方法
CN109154857A (zh) * 2016-05-17 2019-01-04 Ck高新材料有限公司 将音响信号转换为触觉信号的方法及利用其方法的触觉装置
CN109976517A (zh) * 2014-09-02 2019-07-05 苹果公司 向电子设备的用户提供预激提示
CN110032272A (zh) * 2013-09-06 2019-07-19 意美森公司 用于输出触觉效果的系统、方法和非瞬时计算机可读介质
CN110536162A (zh) * 2013-03-15 2019-12-03 意美森公司 产生来自视频内容分析的触觉反馈的方法和设备
CN111276113A (zh) * 2020-01-21 2020-06-12 北京永航科技有限公司 基于音频生成按键时间数据的方法和装置
WO2021008055A1 (zh) * 2019-07-17 2021-01-21 广州酷狗计算机科技有限公司 视频合成的方法、装置、终端及存储介质
CN112567317A (zh) * 2018-06-07 2021-03-26 络菲尔特有限责任公司 用于生成触觉输出以增强用户体验的系统和方法
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
TWI769498B (zh) * 2020-08-17 2022-07-01 美商美國未來科技公司 隨著音樂轉場而改變動作之方法
TWI798783B (zh) * 2021-08-05 2023-04-11 詮亞科技股份有限公司 即時處理音頻訊號並轉換成可編程之控制系統
TWI805145B (zh) * 2021-12-22 2023-06-11 中原大學 敲擊型樂器之自動伴奏系統
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100312129A1 (en) 2005-01-26 2010-12-09 Schecter Stuart O Cardiovascular haptic handle system
WO2007030603A2 (en) 2005-09-08 2007-03-15 Wms Gaming Inc. Gaming machine having display with sensory feedback
WO2007117418A2 (en) * 2006-03-31 2007-10-18 Wms Gaming Inc. Portable wagering game with vibrational cues and feedback mechanism
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
KR100845321B1 (ko) * 2006-08-18 2008-07-10 주식회사 애트랩 광 네비게이션 장치 및 이 장치의 오프셋 보정 방법.
US7599475B2 (en) * 2007-03-12 2009-10-06 Nice Systems, Ltd. Method and apparatus for generic analytics
US20080229200A1 (en) * 2007-03-16 2008-09-18 Fein Gene S Graphical Digital Audio Data Processing System
US20090083281A1 (en) * 2007-08-22 2009-03-26 Amnon Sarig System and method for real time local music playback and remote server lyric timing synchronization utilizing social networks and wiki technology
US7733214B2 (en) * 2007-08-22 2010-06-08 Tune Wiki Limited System and methods for the remote measurement of a person's biometric data in a controlled state by way of synchronized music, video and lyrics
CA2742289A1 (en) * 2008-11-04 2010-05-14 Bayer Materialscience Ag Electroactive polymer transducers for tactile feedback devices
KR101615872B1 (ko) * 2009-05-08 2016-04-27 삼성전자주식회사 휴대단말기의 햅틱 기능 전송 방법 및 시스템
KR101045668B1 (ko) 2009-08-14 2011-07-14 한국과학기술원 시계열 데이터를 사운드 파일에 인코딩하는 방법, 인코딩된 사운드 파일로부터 시계열 데이터를 디코딩하는 방법 및 이들 방법을 이용한 시계열 데이터 입출력 시스템
EP2548098A1 (en) * 2010-03-17 2013-01-23 Bayer Intellectual Property GmbH Statistic analysis of audio signals for generation of discernable feedback
US11314344B2 (en) * 2010-12-03 2022-04-26 Razer (Asia-Pacific) Pte. Ltd. Haptic ecosystem
WO2012090031A1 (en) * 2010-12-31 2012-07-05 Nokia Corporation A display apparatus producing audio and haptic output
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8942828B1 (en) 2011-04-13 2015-01-27 Stuart Schecter, LLC Minimally invasive cardiovascular support system with true haptic coupling
US20120302323A1 (en) 2011-05-23 2012-11-29 Wms Gaming Inc. Haptic gaming chairs and wagering game systems and machines with a haptic gaming chair
US9142083B2 (en) 2011-06-13 2015-09-22 Bally Gaming, Inc. Convertible gaming chairs and wagering game systems and machines with a convertible gaming chair
US9220635B2 (en) 2011-12-22 2015-12-29 Douglas D. Churovich Tactile pattern music generator and player
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9715276B2 (en) * 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US8570296B2 (en) * 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US10013082B2 (en) 2012-06-05 2018-07-03 Stuart Schecter, LLC Operating system with haptic interface for minimally invasive, hand-held surgical instrument
US8860563B2 (en) 2012-06-14 2014-10-14 Immersion Corporation Haptic effect conversion system using granular synthesis
US9727140B2 (en) * 2012-08-31 2017-08-08 Nec Corporation Tactile force sense presentation device, information terminal, tactile force sense presentation method, and computer-readable recording medium
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
WO2014113891A1 (en) * 2013-01-25 2014-07-31 Hu Hai Devices and methods for the visualization and localization of sound
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US20140379588A1 (en) 2013-03-15 2014-12-25 Compology, Inc. System and method for waste managment
US9997032B2 (en) * 2013-04-09 2018-06-12 Immersion Corporation Offline haptic conversion system
US9519346B2 (en) 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
TWI557596B (zh) 2013-08-19 2016-11-11 瑞昱半導體股份有限公司 具有觸感補償功能之音訊裝置及音訊使用方法
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US10599218B2 (en) 2013-09-06 2020-03-24 Immersion Corporation Haptic conversion system using frequency shifting
US9245429B2 (en) * 2013-09-06 2016-01-26 Immersion Corporation Haptic warping system
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9514620B2 (en) * 2013-09-06 2016-12-06 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US10162416B2 (en) 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
US9711014B2 (en) * 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9898085B2 (en) * 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
US9520036B1 (en) * 2013-09-18 2016-12-13 Amazon Technologies, Inc. Haptic output generation with dynamic feedback control
US9207764B2 (en) * 2013-09-18 2015-12-08 Immersion Corporation Orientation adjustable multi-channel haptic device
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9262940B2 (en) * 2013-11-28 2016-02-16 Shlomo Michael Farber Musical notation interface for the visually impaired
KR20150110356A (ko) 2014-03-21 2015-10-02 임머숀 코퍼레이션 센서의 데이터를 햅틱 효과들로 변환하는 시스템들 및 방법들
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
KR20170030510A (ko) * 2014-07-07 2017-03-17 임머숀 코퍼레이션 제2 스크린 햅틱
AU2014210579B2 (en) 2014-07-09 2019-10-10 Baylor College Of Medicine Providing information to a user through somatosensory feedback
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US9174134B1 (en) 2014-11-12 2015-11-03 Immersion Corporation Peripheral device with haptic diminishment prevention component
US9919208B2 (en) 2014-12-11 2018-03-20 Immersion Corporation Video gameplay haptics
US9812165B2 (en) 2014-12-19 2017-11-07 Immersion Corporation Systems and methods for recording haptic data for use with multi-media data
EP3037918A1 (en) * 2014-12-23 2016-06-29 Thomson Licensing System and method for localizing haptic effects on a body
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
US10248207B2 (en) 2015-10-28 2019-04-02 Capital One Services, Llc Systems and methods for providing variable haptic feedback
US10699538B2 (en) 2016-07-27 2020-06-30 Neosensory, Inc. Method and system for determining and providing sensory experiences
JP6401758B2 (ja) * 2016-08-25 2018-10-10 株式会社ファセテラピー 触質コンテンツ生成装置、触質コンテンツ生成方法および触質コンテンツ利用機器
CN109688990A (zh) * 2016-09-06 2019-04-26 新感知公司 用于向用户提供附属感觉信息的方法和系统
US10102723B2 (en) * 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events
US10297120B2 (en) * 2016-12-13 2019-05-21 Disney Enterprises, Inc. Haptic effect generation system
US10181331B2 (en) 2017-02-16 2019-01-15 Neosensory, Inc. Method and system for transforming language inputs into haptic outputs
US10744058B2 (en) * 2017-04-20 2020-08-18 Neosensory, Inc. Method and system for providing information to a user
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
CN110709802B (zh) 2017-06-27 2024-01-30 福特全球技术公司 触觉装置操作
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
US10620704B2 (en) 2018-01-19 2020-04-14 Cirrus Logic, Inc. Haptic output systems
US10455339B2 (en) 2018-01-19 2019-10-22 Cirrus Logic, Inc. Always-on detection systems
US11139767B2 (en) * 2018-03-22 2021-10-05 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
WO2019181955A1 (ja) * 2018-03-23 2019-09-26 日本電産株式会社 音声/振動変換装置
US10795443B2 (en) 2018-03-23 2020-10-06 Cirrus Logic, Inc. Methods and apparatus for driving a transducer
US10820100B2 (en) 2018-03-26 2020-10-27 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10667051B2 (en) 2018-03-26 2020-05-26 Cirrus Logic, Inc. Methods and apparatus for limiting the excursion of a transducer
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11069206B2 (en) 2018-05-04 2021-07-20 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
DE102018006210A1 (de) * 2018-07-24 2020-01-30 Feelbelt GmbH Verfahren und Vorrichtung zur Steigerung der Musikemotionalität
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
EP3863300A4 (en) * 2018-10-03 2022-06-29 Pioneer Corporation Vibration control device, vibration control method, vibration control program, and recording medium
US11812218B1 (en) * 2018-10-12 2023-11-07 Cirrus Logic Inc. Concurrent audio and haptics from a single mechanical transducer
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US10798522B1 (en) 2019-04-11 2020-10-06 Compology, Inc. Method and system for container location analysis
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
US11150733B2 (en) 2019-06-07 2021-10-19 Cirrus Logic, Inc. Methods and apparatuses for providing a haptic output signal to a haptic actuator
KR20220024091A (ko) 2019-06-21 2022-03-03 시러스 로직 인터내셔널 세미컨덕터 리미티드 디바이스 상에 복수의 가상 버튼을 구성하기 위한 방법 및 장치
WO2021062276A1 (en) 2019-09-25 2021-04-01 Neosensory, Inc. System and method for haptic stimulation
US11468750B2 (en) * 2019-10-14 2022-10-11 Lofelt Gmbh Authoring an immersive haptic data file using an authoring tool
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11467668B2 (en) 2019-10-21 2022-10-11 Neosensory, Inc. System and method for representing virtual object information with haptic stimulation
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11361633B2 (en) * 2019-11-20 2022-06-14 Texas Instruments Incorporated Audio to haptics waveform generation using onset detection
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
WO2021142162A1 (en) 2020-01-07 2021-07-15 Neosensory, Inc. Method and system for haptic stimulation
CN111261185A (zh) * 2020-01-10 2020-06-09 腾讯音乐娱乐科技(深圳)有限公司 播放音频的方法、装置、系统、设备及存储介质
JP2021157279A (ja) * 2020-03-25 2021-10-07 豊田合成株式会社 触感提示装置、振動信号、及び記憶媒体
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
US11606636B2 (en) * 2021-06-03 2023-03-14 Feng-Chou Lin Somatosensory vibration generating device and method for forming somatosensory vibration
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
US11995240B2 (en) 2021-11-16 2024-05-28 Neosensory, Inc. Method and system for conveying digital texture information to a user
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4334280A (en) 1980-06-09 1982-06-08 Texas Instruments Incorporated System and method for providing an audible sound and a tactile feedback in an electronic data processing system
US4355348A (en) 1980-07-30 1982-10-19 Williams Theodore R Audio signal responsive optical display
US4768412A (en) 1986-05-09 1988-09-06 Sanderson Stephen N Low profile keyboard device and system for recording and scoring music
JPH057239U (ja) 1991-05-03 1993-02-02 カツトラー スタンレイ マツサージ装置
US5388992A (en) 1991-06-19 1995-02-14 Audiological Engineering Corporation Method and apparatus for tactile transduction of acoustic signals from television receivers
JPH0796016A (ja) * 1991-08-13 1995-04-11 Iwasaki Kiyoko 皮膚の触角を刺激する方法及び其の装置
US5532936A (en) * 1992-10-21 1996-07-02 Perry; John W. Transform method and spectrograph for displaying characteristics of speech
US5438529A (en) 1994-01-26 1995-08-01 Immersion Human Interface Corporation Percussion input device for personal computer systems
US6160489A (en) 1994-06-23 2000-12-12 Motorola, Inc. Wireless communication device adapted to generate a plurality of distinctive tactile alert patterns
AU3329595A (en) 1994-08-18 1996-03-14 Interval Research Corporation Content-based haptic input device for video
US6422941B1 (en) 1994-09-21 2002-07-23 Craig Thorner Universal tactile feedback system for computer video games and simulations
US5684722A (en) * 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
US5669818A (en) 1995-03-23 1997-09-23 Thorner; Craig Seat-based tactile sensation generator
IL125649A (en) 1996-03-08 2002-12-01 Motorola Inc Method and device for detecting signal of a sound sampled from noise
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
JPH1138865A (ja) 1997-07-22 1999-02-12 Mitsuo Yamada 分離振動レシーバ
US6140568A (en) * 1997-11-06 2000-10-31 Innovative Music Systems, Inc. System and method for automatically detecting a set of fundamental frequencies simultaneously present in an audio signal
US6104998A (en) * 1998-03-12 2000-08-15 International Business Machines Corporation System for coding voice signals to optimize bandwidth occupation in high speed packet switching networks
JP2000024500A (ja) * 1998-07-09 2000-01-25 Mitsubishi Heavy Ind Ltd 排ガス処理用触媒、排ガス処理方法及び処理装置
US6292776B1 (en) 1999-03-12 2001-09-18 Lucent Technologies Inc. Hierarchial subband linear predictive cepstral features for HMM-based speech recognition
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
US6885876B2 (en) 2001-03-12 2005-04-26 Nokia Mobile Phones Ltd. Mobile phone featuring audio-modulated vibrotactile module
JP3564501B2 (ja) 2001-03-22 2004-09-15 学校法人明治大学 乳幼児の音声解析システム
JP4258991B2 (ja) * 2001-04-02 2009-04-30 カシオ計算機株式会社 楽音発生装置及び楽音発生処理のプログラム
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
JP4272050B2 (ja) * 2001-05-25 2009-06-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション オーディトリーイベントに基づく特徴付けを使ったオーディオの比較
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US20050190199A1 (en) * 2001-12-21 2005-09-01 Hartwell Brown Apparatus and method for identifying and simultaneously displaying images of musical notes in music and producing the music
ITBO20020361A1 (it) * 2002-06-07 2003-12-09 Roland Europ Spa Sistema per la variazione dei parametri musicali che caratterizzano un brano musicale digitale
AU2003260958A1 (en) * 2002-09-19 2004-04-08 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
US20040070596A1 (en) 2002-10-15 2004-04-15 Hideya Kawahara Method and apparatus for synchronizing sensory stimuli with user interface operations
US7336266B2 (en) * 2003-02-20 2008-02-26 Immersion Corproation Haptic pads for use with user-interface devices
JP2005165194A (ja) * 2003-12-05 2005-06-23 Nippon Hoso Kyokai <Nhk> 音楽データ変換装置及び音楽データ変換プログラム
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US20110191674A1 (en) 2004-08-06 2011-08-04 Sensable Technologies, Inc. Virtual musical interface in a haptic virtual environment
JP3113563U (ja) * 2005-03-14 2005-09-15 一郎 亀田 携帯リズム体感器具
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239700B2 (en) 2006-04-13 2016-01-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US9330546B2 (en) 2006-04-13 2016-05-03 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
CN101640057A (zh) * 2009-05-31 2010-02-03 北京中星微电子有限公司 一种音视频匹配方法及装置
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
CN108287651B (zh) * 2012-05-09 2021-04-13 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
CN108287651A (zh) * 2012-05-09 2018-07-17 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
CN108874144A (zh) * 2012-08-31 2018-11-23 意美森公司 使用映射的声音-触觉效应转换系统
CN103677249B (zh) * 2012-08-31 2018-07-31 意美森公司 使用映射的声音-触觉效应转换系统
CN103677249A (zh) * 2012-08-31 2014-03-26 英默森公司 使用映射的声音-触觉效应转换系统
US10339772B2 (en) 2012-08-31 2019-07-02 Immersion Corporation Sound to haptic effect conversion system using mapping
CN108874144B (zh) * 2012-08-31 2020-06-05 意美森公司 使用映射的声音-触觉效应转换系统
CN108762506A (zh) * 2012-10-26 2018-11-06 意美森公司 独立于流的声音到触觉效应转换系统
CN103793048B (zh) * 2012-10-26 2018-06-26 意美森公司 独立于流的声音到触觉效应转换系统
CN103793048A (zh) * 2012-10-26 2014-05-14 英默森公司 独立于流的声音到触觉效应转换系统
CN108762506B (zh) * 2012-10-26 2021-08-17 意美森公司 独立于流的声音到触觉效应转换系统
CN110536162A (zh) * 2013-03-15 2019-12-03 意美森公司 产生来自视频内容分析的触觉反馈的方法和设备
CN103885744B (zh) * 2013-05-30 2017-04-19 美声克(成都)科技有限公司 一种基于声音的手势识别方法
CN103885744A (zh) * 2013-05-30 2014-06-25 美声克(成都)科技有限公司 一种基于声音的手势识别方法
CN110096136A (zh) * 2013-09-06 2019-08-06 意美森公司 用于光谱图的视觉处理以生成触觉效果的系统
CN110032272A (zh) * 2013-09-06 2019-07-19 意美森公司 用于输出触觉效果的系统、方法和非瞬时计算机可读介质
US10338683B2 (en) 2013-09-06 2019-07-02 Immersion Corporation Systems and methods for visual processing of spectrograms to generate haptic effects
CN104423591B (zh) * 2013-09-06 2019-01-11 意美森公司 用于光谱图的视觉处理以生成触觉效果的系统和方法
CN104423591A (zh) * 2013-09-06 2015-03-18 意美森公司 用于光谱图的视觉处理以生成触觉效果的系统和方法
US11521477B2 (en) 2014-09-02 2022-12-06 Apple Inc. Providing priming cues to a user of an electronic device
CN109976517A (zh) * 2014-09-02 2019-07-05 苹果公司 向电子设备的用户提供预激提示
CN105472505A (zh) * 2014-09-26 2016-04-06 深圳市三诺数字科技有限公司 一种用于音频输出的多段限幅控制系统
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11921975B2 (en) 2015-03-08 2024-03-05 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN106293055B (zh) * 2015-06-26 2021-06-25 三星电子株式会社 电子设备以及用于提供其触觉反馈的方法
CN106293055A (zh) * 2015-06-26 2017-01-04 三星电子株式会社 电子设备以及用于提供其触觉反馈的方法
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN109154857A (zh) * 2016-05-17 2019-01-04 Ck高新材料有限公司 将音响信号转换为触觉信号的方法及利用其方法的触觉装置
CN109154857B (zh) * 2016-05-17 2021-11-02 Ck高新材料有限公司 将音响信号转换为触觉信号的方法及利用其方法的触觉装置
US11275628B2 (en) 2017-06-12 2022-03-15 Hangzhou Hikvision Digital Technology Co., Ltd. Notification information output method, server and monitoring system
CN109036461A (zh) * 2017-06-12 2018-12-18 杭州海康威视数字技术股份有限公司 一种通知信息的输出方法、服务器及监控系统
CN112567317A (zh) * 2018-06-07 2021-03-26 络菲尔特有限责任公司 用于生成触觉输出以增强用户体验的系统和方法
CN109144257A (zh) * 2018-08-22 2019-01-04 音曼(北京)科技有限公司 从歌曲中提取特征并转化为触觉感受的方法
WO2021008055A1 (zh) * 2019-07-17 2021-01-21 广州酷狗计算机科技有限公司 视频合成的方法、装置、终端及存储介质
CN111276113A (zh) * 2020-01-21 2020-06-12 北京永航科技有限公司 基于音频生成按键时间数据的方法和装置
CN111276113B (zh) * 2020-01-21 2023-10-17 北京永航科技有限公司 基于音频生成按键时间数据的方法和装置
TWI769498B (zh) * 2020-08-17 2022-07-01 美商美國未來科技公司 隨著音樂轉場而改變動作之方法
TWI798783B (zh) * 2021-08-05 2023-04-11 詮亞科技股份有限公司 即時處理音頻訊號並轉換成可編程之控制系統
TWI805145B (zh) * 2021-12-22 2023-06-11 中原大學 敲擊型樂器之自動伴奏系統

Also Published As

Publication number Publication date
JP5922742B2 (ja) 2016-05-24
WO2007120765A3 (en) 2008-06-19
US7979146B2 (en) 2011-07-12
JP6178456B2 (ja) 2017-08-09
EP2011105A2 (en) 2009-01-07
US8688251B2 (en) 2014-04-01
WO2007120765A2 (en) 2007-10-25
EP2011105A4 (en) 2009-05-13
JP2016157136A (ja) 2016-09-01
CN101421707B (zh) 2012-05-30
EP2166432A3 (en) 2010-06-09
US20110202155A1 (en) 2011-08-18
JP2015045879A (ja) 2015-03-12
US20070242040A1 (en) 2007-10-18
EP2166432B1 (en) 2012-08-15
CN102736732B (zh) 2015-11-18
JP2009533714A (ja) 2009-09-17
CN102736732A (zh) 2012-10-17
JP5174009B2 (ja) 2013-04-03
EP2166432A2 (en) 2010-03-24
JP2012027509A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
CN101421707B (zh) 从数字音频信号自动产生触觉事件的系统和方法
US9239700B2 (en) System and method for automatically producing haptic events from a digital audio signal
KR101550925B1 (ko) 디지털 오디오 파일로부터 햅틱 이벤트들을 자동으로 생성하는 시스템 및 방법
CN102754147B (zh) 复杂度可缩放的感知节拍估计
Klapuri Automatic music transcription as we know it today
US20090254206A1 (en) System and method for composing individualized music
US20170047094A1 (en) Audio information processing
Vercoe Computational auditory pathways to music understanding
Walczyński et al. Comparison of selected acoustic signal parameterization methods in the problem of machine recognition of classical music styles
CN115329124A (zh) 曲谱数据展示方法、设备及可读存储介质
Bilous Concatenative Synthesis for Novel Timbral Creation
Mills III Human-based percussion and self-similarity detection in electroacoustic music
Hußmann AudioPhield: A framework for music similarity analysis.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: American California

Patentee after: IMMERSION CORPORATION

Address before: American California

Patentee before: Immersion Corp.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120530

Termination date: 20200412