CN104834642A - 改变音乐演绎风格的方法、装置及设备 - Google Patents

改变音乐演绎风格的方法、装置及设备 Download PDF

Info

Publication number
CN104834642A
CN104834642A CN201410047305.8A CN201410047305A CN104834642A CN 104834642 A CN104834642 A CN 104834642A CN 201410047305 A CN201410047305 A CN 201410047305A CN 104834642 A CN104834642 A CN 104834642A
Authority
CN
China
Prior art keywords
information
user
music
deduction
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410047305.8A
Other languages
English (en)
Other versions
CN104834642B (zh
Inventor
朱恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Original Assignee
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Samsung Telecommunications Technology Research Co Ltd, Samsung Electronics Co Ltd filed Critical Beijing Samsung Telecommunications Technology Research Co Ltd
Priority to CN201410047305.8A priority Critical patent/CN104834642B/zh
Priority to US14/619,784 priority patent/US9697814B2/en
Publication of CN104834642A publication Critical patent/CN104834642A/zh
Application granted granted Critical
Publication of CN104834642B publication Critical patent/CN104834642B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • G10H7/04Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories in which amplitudes are read at varying rates, e.g. according to pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/036Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明实施例提供了一种改变音乐演绎风格的方法,包括:分析音频文件,得到音频波形文件;获取用户的行为信息,将行为信息转换为控制参数信息;根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐。本发明实施例还提供了一种改变音乐演绎风格的装置,包括:分析模块、控制信息获取模块和处理输出模块。本发明所提供的技术方案,使得用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度;进一步,实时输出音频波形文件解决了现有技术中存在的时延问题,能够使得用户跟好友更好地实时互动,分享其改变演绎风格的音乐。

Description

改变音乐演绎风格的方法、装置及设备
技术领域
本发明涉及终端设备的技术领域,具体而言,本发明涉及改变音乐演绎风格的方法、装置及设备。
背景技术
如图1所示,显示了音乐在多媒体设备中的传统表现方式:音乐文件经过播放器解码,转换成数字信号,再通过D/A转换器成模拟信号,具体为:各种格式的音乐压缩文件通过音乐播放器进行解码,解码后的数字信号通过D/A转换器的转换后,以模拟信号的形式传输给喇叭或音箱等播放声音的设备进行播放,人耳用于接收上述这些声音。从图1可以看出,音乐在多媒体设备里以各种方式存储,人们通过音乐播放器来聆听。
此时人的角色只是受众。人虽然是接受听觉的刺激,但由于通感的作用,人仿佛身临其境随,跟随音乐产生共鸣。最常见的共鸣是用身体打节拍,甚至有时听到开心时,觉得原曲的节奏和力度还不够,希望再在原曲上加点色彩,体验同一首歌的不同演绎风格。
另外,歌手也会根据当下的心情和情境用不同的方式演绎同一首歌。但是,用户存在播放器中的歌曲是固定的,用户只能听到一种风格。
因此,有必要提出能够改变音乐演绎风格的方案,从而使得用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度。
发明内容
本发明的目的旨在至少解决上述技术缺陷之一,特别是提供一种改变音乐演绎风格的方法及装置,通过获取用户的行为信息,根据用户的行为信息处理音频波形文件,输出改变演绎风格后的音乐,以解决现有技术中只能提供给用户存在于播放器中的固定单一演绎风格的歌曲,无法满足用户多元化的需求,用户体验度低的问题。
为达到上述目的,本发明实施例一方面提供了一种改变音乐演绎风格的方法,包括以下步骤:
分析音频文件,得到音频波形文件;
获取用户的行为信息,将所述行为信息转换为控制参数信息;
根据所述控制参数信息处理所述音频波形文件,输出改变演绎风格后的音乐。
本发明实施例另一方面提供了一种改变音乐演绎风格的装置,包括分析模块、控制信息获取模块和处理输出模块,
所述分析模块,用于分析音频文件,得到音频波形文件;
所述控制信息获取模块,用于获取用户的行为信息,将所述行为信息转换为控制参数信息;
所述处理输出模块,用于根据所述控制参数信息处理所述音频波形文件,输出改变演绎风格后的音乐。
本发明实施例另一方面提供了一种终端设备,包括如上所述的改变音乐演绎风格的装置。
本发明提供的实施例包括以下一个或多个有益效果:
在本发明提供的实施例中,通过分析音频文件,得到音频波形文件;获取用户的行为信息,将行为信息转换为控制参数信息;根据控制参数信息处理音频波形文件,输出改变演绎风格后的音乐;从而实现了用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度。本发明提出的上述方案,对现有系统的改动很小,不会影响系统的兼容性,而且实现简单、高效。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为音乐在多媒体设备中的传统表现方式示意图;
图2为本发明改变音乐演绎风格的方法一种实施例中的改变音乐的曲风的解决方案的处理流程图;
图3为本发明改变音乐演绎风格的方法一种实施例的流程图;
图4为本发明改变音乐演绎风格的方法另一种实施例中的音频文件解析器或解码器的输入和输出的处理流程图;
图5为本发明改变音乐演绎风格的方法另一种实施例中的加速感应器参数的示意图;
图6为本发明改变音乐演绎风格的方法另一种实施例中的用户控制信息的获取的输入和输出的处理流程图;
图7a为本发明改变音乐演绎风格的方法另一种实施例中的用户打节拍的手势的一种示意图;
图7b为本发明改变音乐演绎风格的方法另一种实施例中的用户打节拍的手势的另一种示意图;
图8为本发明改变音乐演绎风格的方法另一种实施例中的加入乐器音效的处理流程图;
图9为本发明改变音乐演绎风格的方法另一种实施例中的用户和歌手合唱的处理流程图;
图10为本发明改变音乐演绎风格的方法另一种实施例中的同一首歌的不同语气的示意图;
图11为本发明改变音乐演绎风格的方法另一种实施例中的音节加强的处理流程图;
图12为本发明改变音乐演绎风格的方法另一种实施例中的存储或分享经过处理后的歌曲的处理流程图;
图13为本发明改变音乐演绎风格的装置一种实施例的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,进行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(PersonalDigital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global PositioningSystem,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
为了实现本发明的目的,本发明实施例提出了一种改变音乐演绎风格的方法,包括以下步骤:
分析音频文件,得到音频波形文件;
获取用户的行为信息,将行为信息转换为控制参数信息;
根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐。
在本发明的上述实施例中,通过分析音频文件,得到音频波形文件;获取用户的行为信息,将行为信息转换为控制参数信息;根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐;从而实现了用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度。
如图2所示,为本发明改变音乐演绎风格的方法一种实施例中的改变音乐的曲风的解决方案的处理流程图,下面结合图2对本发明进行说明。
随着各种传感器在多媒体设备,特别是移动终端中的普遍使用和其快速的发展,能实时接收用户的肢体动作已经成为可能,将这些控制信号转换成用户希望的表现形式对原歌曲加以改变。经过改变处理后的歌曲可以实时的播放出来,即用户可以即时听到;用户也可以选择将改变后的歌曲进行存储和分享。具体过程如下所述:
通过解析器或解码器对音频文件进行处理,获得原音乐信号;具体为:通过音频文件解析器或解码器对音频文件进行解析或解码,获得与原始音频文件相关的音乐信号;
对用户的控制,获取相应的控制信号,以获得相应的控制参数;
结合其它辅助文件,例如歌词文件,与原始音频文件相关的音乐信号,以及用户的控制参数,经过音乐曲风改变器的处理并输出改变演绎风格后的音乐。
如图3所示,为本发明改变音乐演绎风格的方法一种实施例的流程图,包括步骤S310至步骤S330,下面结合具体的实施例,对步骤S310至步骤S330进行展开说明。
S310:分析音频文件,得到音频波形文件。
如图4所示,为本发明改变音乐演绎风格的方法另一种实施例中的音频文件解析器或解码器的输入和输出的处理流程图,下面结合图4对本发明进行说明。
存储的音频文件包括压缩格式的音频文件,如MP3、AAC、WMA等;还包括控制性音频文件,如MIDI。对于压缩的音频文件需要对其进行相应的解压缩,得到音频波形文件。对于MIDI这样的控制性音频文件,则需要对其中的各控制信息进行解析并合成。
对音频文件解析器或解码器的输入和输出的处理过程为:
对音频文件进行解压缩或解析合成,以生成相应的音频波形文件,具体为:
将音频压缩文件或midi文件进行音频解压缩或midi解析合成,以生成相应的音频波形文件。
S320:获取用户的行为信息,将行为信息转换为控制参数信息。
作为本发明的实施例,用户的行为信息包括:
用户的肢体动作信息,和/或用户的哼唱信息。
具体而言,用户的肢体动作信息来源于用户听音乐时的表现,包括:挥手上下甩动来打节拍,同时甩动的力度代表了用户的强调;踏脚来打节拍,但是踏脚的力度信息特征一般不明显;其它的一些身体动作,如摇晃脑袋、耸肩、扭动身体。
作为本发明的实施例,获取用户的行为信息包括通过以下任意一种或多种设备获取:
加速感应器、方向感应器、三轴陀螺仪、光线传感器、方位感应器、麦克风、摄像头和超声手势感应器。
为了使得本领域的普通技术人员更好地理解本发明,下面简要介绍通过上述多种设备所获取的用户的行为信息。
加速感应器指一种能够测量加速力的电子设备。加速力就是当物体在加速过程中作用在物体上的力。加速力可以是个常量,比如g,也可以是变量。当用户手持内嵌加速感应器的终端,或手戴含有加速感应器的可穿戴式设备,则可检测用户手臂的甩动,从而获得动作的力度信息和时间信息。另外,如果可穿戴式设备在脚上,则可检测踏脚的动作。
如图5所示,为本发明改变音乐演绎风格的方法另一种实施例中的加速感应器参数的示意图。
从图5中可以看出:通过加速感应器可以实时获得垂直方向的加速度gZ。
方向感应器可以使用于终端设备中,例如使用在手机上的手机方向传感器。具体而言,手机方向传感器是指,安装在手机上用以检测手机本身处于何种方向状态的部件。手机方向检测功能可以检测手机处于正竖、倒竖、左横、右横,仰、俯状态。具有方向检测功能的手机具有使用更方便、更具人性化的特点。例如,手机旋转后,屏幕图像可以自动跟着旋转并切换长宽比例,文字或菜单也可以同时旋转,使你阅读方便。
三轴陀螺仪是指同时测定6个方向的位置、移动轨迹、加速。三轴陀螺仪的体积小、重量轻、结构简单、可靠性好,是激光陀螺的发展趋势。三轴陀螺仪所测的方向和位置是立体的。尤其是玩大型游戏时,三轴陀螺仪所测的方向和位置是立体的优势更加突出。
光线传感器也就是感光器,是能够根据周围光亮明暗程度来调节屏幕明暗的装置。在光线强的地方手机会自动关掉键盘灯,并且稍微加强屏幕亮度,达到节电并更好观看屏幕的效果,在光线暗的地方自动打开键盘灯。这个传感器主要起到节省手机电力的作用。
方位感应器也叫电子罗盘,数字指南针,是利用地磁场来定北极的一种方法。采用磁阻传感器和磁通门加工而成的方位感应器。这种电子版指南针,配合GPS和地图时能够更方便用户使用。
麦克风是一种将声音转换成电子信号的换能器,用于收录用户的哼唱声音的设备。用户如果用耳机模式听音乐,则麦克风仅收录用户哼唱的声音;如果用户用扬声器模式听音乐,则麦克风收录用户哼唱的声音和来自于扬声器的歌曲的声音。
摄像头分为数字摄像头和模拟摄像头两大类。模拟摄像头可以将视频采集设备产生的模拟视频信号转换成数字信号,进而将其储存在计算机里。数字摄像头可以直接捕捉影像,然后通过串、并口或者USB接口传到计算机里。当用户站在嵌有摄像头的终端之前时,摄像头可以捕捉用手势。
超声手势感应器,设备发出人耳听不到的超声信号,当人的手有对着设备甩动的动作时,设备利用多普勒效应能检测出这种动作。
本发明实施例仅仅是列举了通过上述多种设备能够获取用户的行为信息,但并不局限以上设备,在此不再赘述。
如图6所示,为本发明改变音乐演绎风格的方法另一种实施例中的用户控制信息的获取的输入和输出的处理流程图,下面结合图6对本发明进行说明。
用户控制信息的获取的输入和输出的处理过程具体如下所述:
获取用户的控制信息,并检测用户的控制信息,以获取用户的行为信息,其中,用户的行为信息包括用户的肢体动作信息,和/或用户的哼唱信息。具体为:
通过可利用的设备检测与用户听音乐时的反应对应的控制信息,输出对应的动作的时间信息、动作的力度信息、哼唱的声音;其中,用户听音乐时的反应包括甩头、跺脚、晃头、哼唱;可利用的检测设备包括速度感应器、摄像头、超声手势控制、麦克风,但是不局限于上述提及的设备,在此不再赘述。
作为本发明的实施例,将行为信息转换为控制参数信息,包括:
将用户的肢体动作信息转换为节拍信息,和/或将用户的肢体动作信息转换为特定乐器的音频信息,和/或将用户的哼唱信息转换为用户音频信息。
具体而言,将用户的肢体动作信息转换为节拍信息,包括:
根据加速感应器检测用户肢体的变化,当检测到加速度产生周期性变化时,将加速度的周期性变化记录为节拍信息。在本发明中,加速度的一个周期如下述所定义:在预定的时间范围内,加速度从零的状态变为正值,再变为负值,最后恢复零的过程;或者,在预定的时间范围内,加速度从零的状态变为负值,再变为正值,最后恢复零的过程。通常,预定的时间范围约为一个节拍的时间长度。
例如,打节拍抬手所经历的一个周期具体为:
定义垂直水平面且向上的方向为正方向,
打节拍抬手起始t1时,初速度大于零,加速度大于零,向上运动;
继续保持初速度大于零,但是其加速度变成小于零,向上运动,直到初速度为零时,定义为打节拍抬手终止t2时刻;
从打节拍抬手起始t1到打节拍抬手终止t2所经历的时间被定义为一个周期。
打节拍落手所经历的一个周期具体为:
定义垂直水平面且向上的方向为正方向,
打节拍落手起始t3时,初速度小于零,加速度大于零,向下运动;
继续保持初速度小于零,但是其加速度变成小于零,向下运动,直到初速度为零时,定义为打节拍落手终止t4时刻。
从打节拍落手起始t3到打节拍抬手终止t4所经历的时间被定义为一个周期。
具体地,如图7所示,为本发明改变音乐演绎风格的方法另一种实施例中的用户打节拍的手势的示意图。
根据用户打节拍的手势的习惯,可以会有两种:
如图7a所示,打节拍经历两个周期,即抬手的一个周期和落手的一个周期;
如图7b所示,打节拍经历两个周期,即落手的一个周期和抬手的一个周期。
具体而言,将用户的肢体动作信息转换为特定乐器的音频信息,包括:
捕捉用户的肢体动作信息,以获得对应的肢体动作的时间信息和力度信息;
根据肢体动作的时间信息和力度信息对特定乐器进行控制,得到特定乐器的音频信息。
具体地,如图8所示,为本发明改变音乐演绎风格的方法另一种实施例中的加入乐器音效的处理流程图,下面结合图8对本发明进行说明。
针对使用者希望对原曲里再加入其他音乐元素的需求。例如,此时设备可以有沙锤的功能,传感器感受使用者的甩动,将甩动的节奏和力度作为参数,然后合成沙锤的声效。
加入乐器音效的处理过程的具体步骤如下:
对音频文件进行播放器解码,以获取原始音乐数据;
用户的控制,获取控制信息,再通过乐器音效合成器处理,以得到乐器音效数据;
将原始音乐数据域乐器音效数据输入混音器中处理。具体为:
设备中存储各种乐器的音效库;
用户在使用前选择喜欢的乐器,例如沙锤;
当用户加载一首音乐后,音频文件解析器或解码器实时解码得到音频波形数据;
对用户控制信息的获取,实时捕捉用户的动作,得到动作的时间和力度信息;
根据动作的时间和力度信息控制乐器音效合成器,得到对应乐器的音效;
混音器对原始音频波形数据和乐器音效数据进行混合。
具体而言,将用户的哼唱信息转换为用户音频信息,包括:
根据麦克风接收外界的声音信息,对外界的声音信息进行信号处理后,得到用户音频信息。
具体地,如图9所示,为本发明改变音乐演绎风格的方法另一种实施例中的用户和歌手合唱的处理流程图,下面结合图9对本发明进行说明。
针对用户希望将自己的声音加入到原唱中的需求。例如,用户一边听一边跟着唱,设备将用户声音混合到原曲中,用户可以将处理的歌曲存储或分享到网络。
用户和歌手合唱的处理过程的具体步骤如下:
音频文件输入解析器或解码器进行处理,以生成原音乐信号;
通过用户哼唱获取控制信号,若用户采用扬声器模式,则对信号进行信号分离并降噪的处理,哼唱的信号与原音乐信号音节匹配后混音处理;
若用户采用耳机模式,则对信号进行降噪的处理,哼唱的信号与原音乐信号音节匹配后混音处理。具体为:
当用户加载一首音乐后,音频文件解析器或解码器实时解码得到音频波形数据并播放;同时,MIC收录用户哼唱的音频信号;
如果用户使用的是扬声器模式,则MIC收录的信号里还夹杂有原曲和背景噪音;则需要将原曲和背景噪音进行去除,此时需要用到原信号数据作为辅助信号进行处理,处理后的信号里仅包含用户哼唱的信号;哼唱的信号和原曲进行音节匹配并混音的处理。
如果用户使用的是耳机模式,则MIC收录的信号里可能有背景噪音;则需要进行背景噪音去除的处理,处理后的信号里仅包含用户哼唱的信号;哼唱的信号和原曲进行音节匹配并混音的处理。
S330:根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐。
作为本发明的实施例,根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐,包括以下任意一种或多种方式:
根据节拍信息,对音频波形文件中的音节加重后输出。
具体地,如图10所示,为本发明改变音乐演绎风格的方法另一种实施例中的同一首歌的不同语气的示意图,下面结合图10对本发明进行说明。
同一首歌可以用不同的语气演绎,如下图10所示,显示了:同一首歌的不同语气,其中,颜色越深代表语气越重,即越强调该音节。例如,用户在手持手机听音乐时习惯摇晃手机来打节拍,所以可以利用加速度感应器来捕捉打节拍的速度,来改变演唱者的语气。
从图10可以看出:对原曲的“我们都有一个家”;
不同的用户可以有不同的演绎风格,可以在“我们”这个部分对音节进行加重处理,也可以对“我们”和“一个家”两个部分的音节都进行加重处理,以获得用户希望获得的演绎风格的音乐。
具体地,如图11所示,为本发明改变音乐演绎风格的方法另一种实施例中的音节加强的处理流程图,下面结合图11对本发明进行说明。
通过音节加强处理对歌曲进行改变的步骤具体如下所述:
音频压缩文件进行解码处理,以获得解压后的音频,结合歌词文件识别音节,以获得各音节时间段,进一步识别基音,以获得基音信息,进而计算谐波位置,以获得谐波信息;
通过加速感应器检测用户甩动,以获得动作力度信息和动作时刻信息,计算其增益并进行增益处理;
同时,对动作时刻信息与各音节时间段进行时间匹配处理,获得需要加强的音节;
结合需要语气加强的音节,基音信息,谐波信息,增益信息,以加强音节的基音和谐波,进一步能量控制处理后的音节,以防止溢出和使得能量平滑,最后获得经过语音加强后的音节;
进行无缝衔接,即对解压后的未经处理的音频和经过语气加强处理的音频进行无缝衔接,以获得语气加重的歌曲。具体为:
a)用户加载一首音乐后,经过了音频文件解析器或解码器得到音频波形文件;
b)系统自动识别音乐中演唱者的歌词中的音节(或每个字)的时间段,此时可以利用歌词信息作为辅助信息进行识别。将音节的时间片段信息记录下来。例如
“我”:[t11,t12]
“们”:[t13,t14]
“都”:[t15,t16]
这里并不需要识别出“我”、“们”、“都”这些字,只用识别出是语音或有背景音乐的语音的即可;
c)系统自动计算出每个音节的(或每个字)的基频,并计算出该基频谐波的频率位置,然后记录下来;
d)当用户甩动手机时,用加速度感应器来捕捉动作的力度,并记录动作的时刻;
e)系统用d)得到的时刻和b)得到的时刻做匹配,即d)落到b)的哪个时间段,即得到需要加强的音节的时间片断;
f)对e)中得到的音节片断变换到频域;
g)利用c)中计算出的基频和谐波位置,得到频域的增益控制器;
h)增益控制器的增益值要利用d)得到的力度参数;即力度越大,增益越大;
i)将增益控制器作用于f);
j)然后反变换到时域;
k)对处理后增强后的音节进行能量平滑处理,(也可以在i之后做);在频域上做能量平滑处理和防止溢出的处理;
l)将处理后的音节和未处理的音频在时域上做拼接。
将特定乐器的音频信息与音频波形文件进行混合输出。
将用户音频信息与音频波形文件进行音节匹配后叠加输出。
作为本发明的实施例,输出改变演绎风格后的音乐,包括:
实时或非实时输出改变演绎风格后的音乐。
具体而言,根据节拍信息,对音频波形文件中的音节加重后实时输出改变演绎风格后的音乐,包括:
检测到加速度产生周期性变化时,对音频波形文件中的音节加重处理;
在预定时间内检测到加速度产生下一个周期性变化时,对音频波形文件中的音节加重后输出。
具体地,音节加重和加入乐器这两种改变都可以实现实时输出,即用户一边听音乐一边控制,最终听到的信号同时包含了原曲以及控制表情。
针对用户动作的捕捉和对歌曲处理后实时播放的时序问题处理如下:用户打节拍的手势习惯是,在加强音节的前一时刻,手有抬起的动作,然后再下落。如下图所示,对“我”和“一”加重,手势的习惯是在该音节前有抬手的动作,手落下则表示加重。抬手和落手动作实际是对称的,进一步说,抬手的速度和幅度也能反映加重的强弱,利用捕捉抬手的动作能解决时序的问题。
如图12所示,为本发明改变音乐演绎风格的方法另一种实施例中的存储或分享经过处理后的歌曲的处理流程图,下面结合图12对本发明进行说明。
音乐曲风改变器中的各种处理都可以进行非实时输出,即用户可以将改变后的音乐存储到本地或分享到网络。
其中对于音节加重,由于没有实时性的要求,设备可以在得到用户准确的控制信息后,然后再做处理,具体流程如下所述:
非实时存储或分享经过处理后的歌曲的过程的具体步骤如下所述:
音乐文件通过播放器解码,以获得音乐信号;
通过使用者的控制,以获得传感器感应控制信息,输出对应的动作加速度和时间;
结合音乐信号与动作加速度和时间,进行加强音节的处理,并对处理结果进行压缩解码,以及存储或分享。具体为:
歌曲的预处理:得到音节,音节对应的基音和谐波;
加速感应器捕捉用户的动作,此时不同于实时处理中时序要求,仅记录用户动作的加速度和时刻信息即可,即得到[gZ(t21),gZ(t22),..,gZ(t2n)];
对所有需要进行加强的音节进行处理以及前后拼接;
对处理完后的歌曲进行压缩编码;
存储到本地,或发送到网络进行分享。
在本发明的上述实施例中,通过分析音频文件,得到音频波形文件;获取用户的行为信息,将行为信息转换为控制参数信息;根据控制参数信息,处理音频波形文件,输出改变演绎风格后的音乐;从而实现了用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度。本发明提出的上述方案,对现有系统的改动很小,不会影响系统的兼容性,而且实现简单、高效。
进一步地,当用户在听音乐时,如果甩动手机,手机能够根据甩动的力度让用户听到演唱者不同的演绎风格。实现了用户不再被动的听,可以根据当下的情感需求去改变音乐,享受自己的音乐世界。同时也可以融入当下情感的音乐存储或分享到互联网。
进一步地,实时输出音频波形文件解决了现有技术中存在的时延问题,能够使得用户跟好友更好地实时互动分享其改变演绎风格的音乐,提高了用户的体验度。
图13为本发明改变音乐演绎风格的装置一种实施例的结构示意图。如图13所示,本实施例改变音乐演绎风格的装置1300包括分析模块1310、控制信息获取模块1320和处理输出模块1330。
分析模块1310,用于分析音频文件,得到音频波形文件。
控制信息获取模块1320,用于获取用户的行为信息,将行为信息转换为控制参数信息。
具体而言,控制信息获取模块1320所获取的用户的行为信息包括:
用户的肢体动作信息,和/或用户的哼唱信息。
具体而言,控制信息获取模块1320的获取用户的行为信息包括通过以下任意一种或多种设备获取:
加速感应器、方向感应器、三轴陀螺仪、光线传感器、方位感应器、麦克风、摄像头和超声手势感应器。
通过上述多种设备能够获取用户的行为信息,请参见方法部分的描述,在此不再赘述。
具体而言,控制信息获取模块1320用于将行为信息转换为控制参数信息,包括:
将用户的肢体动作信息转换为节拍信息,和/或将用户的肢体动作信息转换为特定乐器的音频信息,和/或将用户的哼唱信息转换为用户音频信息。
具体而言,控制信息获取模块1320用于将用户的肢体动作信息转换为节拍信息,包括:
根据加速感应器检测用户肢体的变化,当检测到加速度产生周期性变化时,将加速度的周期性变化记录为节拍信息。
具体而言,控制信息获取模块1320用于将用户的肢体动作信息转换为特定乐器的音频信息,包括:
捕捉用户的肢体动作信息,以获得对应的肢体动作的时间信息和力度信息;
根据肢体动作的时间信息和力度信息对特定乐器进行控制,得到特定乐器的音频信息。
具体而言,控制信息获取模块1320用于将用户的哼唱信息转换为用户音频信息,包括:
根据麦克风接收外界的声音信息,对外界的声音信息进行信号处理后,得到用户音频信息。
处理输出模块1330,用于根据控制参数信息,处理所述音频波形文件,输出改变演绎风格后的音乐。
具体而言,处理输出模块1330用于根据控制参数信息,处理所述音频波形文件,输出改变演绎风格后的音乐,包括以下任意一种或多种方式:
根据节拍信息,对音频波形文件中的音节加重后输出;
将特定乐器的音频信息与音频波形文件进行混合输出;
将用户音频信息与音频波形文件进行音节匹配后叠加输出。
进一步地,处理输出模块1330用于输出改变演绎风格后的音乐,包括:
实时或非实时输出改变演绎风格后的音乐。
具体而言,处理输出模块1330用于根据节拍信息,对音频波形文件中的音节加重后实时输出改变演绎风格后的音乐,包括:
检测到加速度产生周期性变化时,对音频波形文件中的音节加重处理;
在预定时间内检测到加速度产生下一个周期性变化时,对音频波形文件中的音节加重后输出。
在本发明的上述实施例中,通过分析模块1310分析音频文件,得到音频波形文件;控制信息获取模块1320,获取用户的行为信息,将行为信息转换为控制参数信息;处理输出模块1330,根据控制参数信息,处理所述音频波形文件,输出改变演绎风格后的音乐;从而实现了用户可以根据当下的情感需求去改变音乐的演绎风格,满足了用户多元化的需求,且提高了用户的体验度。本发明提出的上述方案,对现有系统的改动很小,不会影响系统的兼容性,而且实现简单、高效。
作为本发明的实施例,本发明还提供了一种终端设备,其中,终端设备中包括上述公开的改变音乐演绎风格的装置。。也就是,在实际应用中,上述装置通常以终端设备的形式体现,终端设备包括图13所示的改变音乐演绎风格的装置。
进一步地,当用户在听音乐时,如果甩动手机,手机能够根据甩动的力度让用户听到演唱者不同的演绎风格。实现了用户不再被动的听,可以根据当下的情感需求去改变音乐,享受自己的音乐世界。同时也可以融入当下情感的音乐存储或分享到互联网。
进一步地,实时输出音频波形文件解决了现有技术中存在的时延问题,能够使得用户跟好友更好地实时互动分享其改变演绎风格的音乐,提高了用户的体验度。
本技术领域技术人员可以理解,本发明包括涉及用于执行本申请中所述操作中的一项或多项的设备。这些设备可以为所需的目的而专门设计和制造,或者也可以包括通用计算机中的已知设备。这些设备具有存储在其内的计算机程序,这些计算机程序选择性地激活或重构。这样的计算机程序可以被存储在设备(例如,计算机)可读介质中或者存储在适于存储电子指令并分别耦联到总线的任何类型的介质中,所述计算机可读介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(Random Access Memory,随即存储器)、EPROM(Erasable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically Erasable ProgrammableRead-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,可读介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本发明公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (21)

1.一种改变音乐演绎风格的方法,其特征在于,包括以下步骤:
分析音频文件,得到音频波形文件;
获取用户的行为信息,将所述行为信息转换为控制参数信息;
根据所述控制参数信息处理所述音频波形文件,输出改变演绎风格后的音乐。
2.根据权利要求1所述的改变音乐演绎风格的方法,其特征在于,所述用户的行为信息包括:
用户的肢体动作信息,和/或用户的哼唱信息。
3.根据权利要求2所述的改变音乐演绎风格的方法,其特征在于,所述获取用户的行为信息包括通过以下任意一种或多种设备获取:
加速感应器、方向感应器、三轴陀螺仪、光线传感器、方位感应器、麦克风、摄像头和超声手势感应器。
4.根据权利要求3所述的改变音乐演绎风格的方法,其特征在于,将所述行为信息转换为控制参数信息,包括:
将所述用户的肢体动作信息转换为节拍信息,和/或将所述用户的肢体动作信息转换为特定乐器的音频信息,和/或将所述用户的哼唱信息转换为用户音频信息。
5.根据权利要求4所述的改变音乐演绎风格的方法,其特征在于,将所述用户的肢体动作信息转换为节拍信息,包括:
根据加速感应器检测用户肢体的变化,当检测到加速度产生周期性变化时,将加速度的周期性变化记录为节拍信息。
6.根据权利要求4所述的改变音乐演绎风格的方法,其特征在于,将所述用户的哼唱信息转换为用户音频信息,包括:
根据麦克风接收外界的声音信息,对所述外界的声音信息进行信号处理后,得到所述用户音频信息。
7.根据权利要求4所述的改变音乐演绎风格的方法,其特征在于,将所述用户的肢体动作信息转换为特定乐器的音频信息,包括:
捕捉所述用户的肢体动作信息,以获得对应的肢体动作的时间信息和力度信息;
根据所述肢体动作的时间信息和力度信息对特定乐器进行控制,得到所述特定乐器的音频信息。
8.根据权利要求4所述的改变音乐演绎风格的方法,其特征在于,根据所述控制参数信息处理所述音频波形文件,输出改变演绎风格后的音乐,包括以下任意一种或多种方式:
根据所述节拍信息,对所述音频波形文件中的音节加重后输出;
将所述特定乐器的音频信息与所述音频波形文件进行混合输出;
将所述用户音频信息与所述音频波形文件进行音节匹配后叠加输出。
9.根据权利要求8所述的改变音乐演绎风格的方法,其特征在于,输出改变演绎风格后的音乐,包括:
实时或非实时输出改变演绎风格后的音乐。
10.根据权利要求9所述的改变音乐演绎风格的方法,其特征在于,根据所述节拍信息,对所述音频波形文件中的音节加重后实时输出改变演绎风格后的音乐,包括:
检测到加速度产生周期性变化时,对所述音频波形文件中的音节加重处理;
在预定时间内检测到加速度产生下一个周期性变化时,对所述音频波形文件中的音节加重后输出。
11.一种改变音乐演绎风格的装置,其特征在于,包括分析模块、控制信息获取模块和处理输出模块,
所述分析模块,用于分析音频文件,得到音频波形文件;
所述控制信息获取模块,用于获取用户的行为信息,将所述行为信息转换为控制参数信息;
所述处理输出模块,用于根据所述控制参数信息,处理所述音频波形文件,输出改变演绎风格后的音乐。
12.根据权利要求11所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块所获取的所述用户的行为信息包括:
用户的肢体动作信息,和/或用户的哼唱信息。
13.根据权利要求12所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块的所述获取用户的行为信息包括通过以下任意一种或多种设备获取:
加速感应器、方向感应器、三轴陀螺仪、光线传感器、方位感应器、麦克风、摄像头和超声手势感应器。
14.根据权利要求13所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块用于将所述行为信息转换为控制参数信息,包括:
将所述用户的肢体动作信息转换为节拍信息,和/或将所述用户的肢体动作信息转换为特定乐器的音频信息,和/或将所述用户的哼唱信息转换为用户音频信息。
15.根据权利要求14所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块用于将所述用户的肢体动作信息转换为节拍信息,包括:
根据加速感应器检测用户肢体的变化,当检测到加速度产生周期性变化时,将加速度的周期性变化记录为节拍信息。
16.根据权利要求14所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块用于将所述用户的哼唱信息转换为用户音频信息,包括:
根据麦克风接收外界的声音信息,对所述外界的声音信息进行信号处理后,得到所述用户音频信息。
17.根据权利要求14所述的改变音乐演绎风格的装置,其特征在于,所述控制信息获取模块用于将所述用户的肢体动作信息转换为特定乐器的音频信息,包括:
捕捉所述用户的肢体动作信息,以获得对应的肢体动作的时间信息和力度信息;
根据所述肢体动作的时间信息和力度信息对特定乐器进行控制,得到所述特定乐器的音频信息。
18.根据权利要求14所述的改变音乐演绎风格的装置,其特征在于,所述处理输出模块用于根据所述控制参数信息处理所述音频波形文件,输出改变演绎风格后的音乐,包括以下任意一种或多种方式:
根据所述节拍信息,对所述音频波形文件中的音节加重后输出;
将所述特定乐器的音频信息与所述音频波形文件进行混合输出;
将所述用户音频信息与所述音频波形文件进行音节匹配后叠加输出。
19.根据权利要求18所述的改变音乐演绎风格的装置,其特征在于,所述处理输出模块用于输出改变演绎风格后的音乐,包括:
实时或非实时输出改变演绎风格后的音乐。
20.根据权利要求19所述的改变音乐演绎风格的装置,其特征在于,所述处理输出模块用于根据所述节拍信息,对所述音频波形文件中的音节加重后实时输出改变演绎风格后的音乐,包括:
检测到加速度产生周期性变化时,对所述音频波形文件中的音节加重处理;
在预定时间内检测到加速度产生下一个周期性变化时,对所述音频波形文件中的音节加重后输出。
21.一种终端设备,其特征在于,包括权利要求11至20任意之一所述的改变音乐演绎风格的装置。
CN201410047305.8A 2014-02-11 2014-02-11 改变音乐演绎风格的方法、装置及设备 Expired - Fee Related CN104834642B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410047305.8A CN104834642B (zh) 2014-02-11 2014-02-11 改变音乐演绎风格的方法、装置及设备
US14/619,784 US9697814B2 (en) 2014-02-11 2015-02-11 Method and device for changing interpretation style of music, and equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410047305.8A CN104834642B (zh) 2014-02-11 2014-02-11 改变音乐演绎风格的方法、装置及设备

Publications (2)

Publication Number Publication Date
CN104834642A true CN104834642A (zh) 2015-08-12
CN104834642B CN104834642B (zh) 2019-06-18

Family

ID=53775448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410047305.8A Expired - Fee Related CN104834642B (zh) 2014-02-11 2014-02-11 改变音乐演绎风格的方法、装置及设备

Country Status (2)

Country Link
US (1) US9697814B2 (zh)
CN (1) CN104834642B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106249900A (zh) * 2016-08-16 2016-12-21 惠州Tcl移动通信有限公司 一种基于增强现实的音频虚拟现实实现方法及系统
CN106341756A (zh) * 2016-08-29 2017-01-18 北海爱飞数码科技有限公司 个性化智能音箱
CN107594739A (zh) * 2017-09-03 2018-01-19 泉州迪特工业产品设计有限公司 一种智能炫酷鞋及其实现方法
CN108202334A (zh) * 2018-03-22 2018-06-26 东华大学 一种能够识别音乐节拍和风格的舞蹈机器人
CN108733765A (zh) * 2018-04-16 2018-11-02 维沃移动通信有限公司 一种音频推荐方法及终端设备
CN109003633A (zh) * 2018-07-27 2018-12-14 北京微播视界科技有限公司 音频处理方法、装置和电子设备
CN110019748A (zh) * 2018-09-27 2019-07-16 联想(北京)有限公司 一种数据处理方法及电子设备
CN111666444A (zh) * 2020-06-02 2020-09-15 中国科学院计算技术研究所 基于人工智能的音频推送方法及系统、相关方法及设备
WO2022213511A1 (zh) * 2021-04-09 2022-10-13 凌晓军 音乐演奏方法、电子设备及计算机可读存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
CN104834642B (zh) * 2014-02-11 2019-06-18 北京三星通信技术研究有限公司 改变音乐演绎风格的方法、装置及设备
CN106653037B (zh) * 2015-11-03 2020-02-14 广州酷狗计算机科技有限公司 音频数据处理方法和装置
CN105244021B (zh) * 2015-11-04 2019-02-12 厦门大学 哼唱旋律到midi旋律的转换方法
US20190325854A1 (en) * 2018-04-18 2019-10-24 Riley Kovacs Music genre changing system
CN110099318A (zh) * 2019-05-28 2019-08-06 东莞市金文华数码科技有限公司 一种具有敲打音效与甩动乐器音效的蓝牙音箱
CN110955798A (zh) * 2019-11-27 2020-04-03 中国第一汽车股份有限公司 基于车载多媒体系统的控制方法、装置、设备及车辆
CN111326131B (zh) * 2020-03-03 2023-06-02 北京香侬慧语科技有限责任公司 一种歌曲转换方法、装置、设备以及介质
CN111768756B (zh) * 2020-06-24 2023-10-20 华人运通(上海)云计算科技有限公司 信息处理方法、装置、车辆和计算机存储介质
CN113539215B (zh) * 2020-12-29 2024-01-12 腾讯科技(深圳)有限公司 音乐风格转换方法、装置、设备及存储介质
CN113851098B (zh) * 2021-08-31 2022-06-17 广东智媒云图科技股份有限公司 一种旋律的风格转换方法、装置、终端设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1846610A (zh) * 2005-03-22 2006-10-18 索尼株式会社 身体运动检测装置和方法以及内容回放装置和方法
US20080306619A1 (en) * 2005-07-01 2008-12-11 Tufts University Systems And Methods For Synchronizing Music
CN101529878A (zh) * 2006-10-24 2009-09-09 苹果公司 在便携式设备中对用户行为的感测和自动响应
US20130032023A1 (en) * 2011-08-04 2013-02-07 Andrew William Pulley Real time control of midi parameters for live performance of midi sequences using a natural interaction device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
JP3867515B2 (ja) * 2001-05-11 2007-01-10 ヤマハ株式会社 楽音制御システムおよび楽音制御装置
US8431811B2 (en) * 2001-08-16 2013-04-30 Beamz Interactive, Inc. Multi-media device enabling a user to play audio content in association with displayed video
JP2008090633A (ja) * 2006-10-02 2008-04-17 Sony Corp 動きデータ生成装置、動きデータ生成方法及び動きデータ生成プログラム
WO2008152644A2 (en) * 2007-06-12 2008-12-18 Eyecue Vision Technologies Ltd. System and method for physically interactive music games
US20110009713A1 (en) * 2009-01-22 2011-01-13 Nomi Feinberg Rhythmic percussion exercise garment with electronic interface and method of conducting an exercise program
KR20110004930A (ko) 2009-07-09 2011-01-17 최동화 에코기능을 갖는 차량 또는 컴퓨터용 무선 마이크 음향 재생장치 및 방법
US20110252951A1 (en) * 2010-04-20 2011-10-20 Leavitt And Zabriskie Llc Real time control of midi parameters for live performance of midi sequences
CN104834642B (zh) * 2014-02-11 2019-06-18 北京三星通信技术研究有限公司 改变音乐演绎风格的方法、装置及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1846610A (zh) * 2005-03-22 2006-10-18 索尼株式会社 身体运动检测装置和方法以及内容回放装置和方法
US20080306619A1 (en) * 2005-07-01 2008-12-11 Tufts University Systems And Methods For Synchronizing Music
CN101529878A (zh) * 2006-10-24 2009-09-09 苹果公司 在便携式设备中对用户行为的感测和自动响应
US20130032023A1 (en) * 2011-08-04 2013-02-07 Andrew William Pulley Real time control of midi parameters for live performance of midi sequences using a natural interaction device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106249900A (zh) * 2016-08-16 2016-12-21 惠州Tcl移动通信有限公司 一种基于增强现实的音频虚拟现实实现方法及系统
CN106341756A (zh) * 2016-08-29 2017-01-18 北海爱飞数码科技有限公司 个性化智能音箱
CN106341756B (zh) * 2016-08-29 2020-07-31 北海爱飞数码科技有限公司 个性化智能音箱
CN107594739A (zh) * 2017-09-03 2018-01-19 泉州迪特工业产品设计有限公司 一种智能炫酷鞋及其实现方法
CN108202334A (zh) * 2018-03-22 2018-06-26 东华大学 一种能够识别音乐节拍和风格的舞蹈机器人
CN108202334B (zh) * 2018-03-22 2020-10-23 东华大学 一种能够识别音乐节拍和风格的舞蹈机器人
CN108733765A (zh) * 2018-04-16 2018-11-02 维沃移动通信有限公司 一种音频推荐方法及终端设备
CN109003633A (zh) * 2018-07-27 2018-12-14 北京微播视界科技有限公司 音频处理方法、装置和电子设备
CN110019748A (zh) * 2018-09-27 2019-07-16 联想(北京)有限公司 一种数据处理方法及电子设备
CN110019748B (zh) * 2018-09-27 2021-12-24 联想(北京)有限公司 一种数据处理方法及电子设备
CN111666444A (zh) * 2020-06-02 2020-09-15 中国科学院计算技术研究所 基于人工智能的音频推送方法及系统、相关方法及设备
WO2022213511A1 (zh) * 2021-04-09 2022-10-13 凌晓军 音乐演奏方法、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN104834642B (zh) 2019-06-18
US9697814B2 (en) 2017-07-04
US20150228264A1 (en) 2015-08-13

Similar Documents

Publication Publication Date Title
CN104834642A (zh) 改变音乐演绎风格的方法、装置及设备
CN112863547B (zh) 虚拟资源转移处理方法、装置、存储介质及计算机设备
US8686276B1 (en) System and method for capture and rendering of performance on synthetic musical instrument
CN111326132B (zh) 音频处理方法、装置、存储介质及电子设备
CN103258529B (zh) 一种电子乐器、音乐演奏方法
US8618405B2 (en) Free-space gesture musical instrument digital interface (MIDI) controller
CN111402842B (zh) 用于生成音频的方法、装置、设备和介质
US11514923B2 (en) Method and device for processing music file, terminal and storage medium
CN115762451A (zh) 用于单元作曲的装置和方法
CN104754372A (zh) 同步节拍特效系统及同步节拍特效处理方法
CN104219570B (zh) 一种音频信号的播放方法及装置
CN112487940B (zh) 视频的分类方法和装置
CN111798821A (zh) 声音转换方法、装置、可读存储介质及电子设备
CN107331378A (zh) 麦克风
CN107371075A (zh) 麦克风
CN104822095A (zh) 复合节拍特效系统及复合节拍特效处理方法
CN112435641B (zh) 音频处理方法、装置、计算机设备及存储介质
CN101673540A (zh) 一种实现移动终端演奏音乐的方法和装置
JP6375592B2 (ja) 情報処理装置及び情報処理方法並びにプログラム
CN104822085A (zh) 互动节拍特效系统及互动节拍特效处理方法
CN106878840A (zh) 智能麦克风
CN104822094A (zh) 复合节拍特效系统及复合节拍特效处理方法
CN104853238A (zh) 复合节拍特效系统及复合节拍特效处理方法
CN105869614B (zh) 音频文件导出方法和装置
JP2006162778A (ja) 移動体通信端末、カラオケシステム及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190618

Termination date: 20220211

CF01 Termination of patent right due to non-payment of annual fee