CN102419997A - 声音处理装置、声音数据选择方法和声音数据选择程序 - Google Patents

声音处理装置、声音数据选择方法和声音数据选择程序 Download PDF

Info

Publication number
CN102419997A
CN102419997A CN2011101961144A CN201110196114A CN102419997A CN 102419997 A CN102419997 A CN 102419997A CN 2011101961144 A CN2011101961144 A CN 2011101961144A CN 201110196114 A CN201110196114 A CN 201110196114A CN 102419997 A CN102419997 A CN 102419997A
Authority
CN
China
Prior art keywords
song
voice
sound
constructed
datas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011101961144A
Other languages
English (en)
Inventor
许德正
小坂纯一
山下功诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Corp
Publication of CN102419997A publication Critical patent/CN102419997A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/221Time division multiplexing, with different channels in different time slots, the data in the time slots may be in digital or analog form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/225Frequency division multiplexing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明涉及声音处理装置、声音数据选择方法和声音数据选择程序。该信息处理设备存储多个音频数据,显示与所述多个音频数据中的每一个对应的信息,接收用于选择所述多个音频数据中的至少一个的输入,再现所述多个音频数据中的第一音频数据,并且基于在接口接收的输入启动所述多个音频数据中的第二音频数据的同时再现,处理第一和第二音频数据以使得用户可以分别听见第一和第二音频数据,并且输出处理后的第一和第二音频数据。

Description

声音处理装置、声音数据选择方法和声音数据选择程序
相关申请的交叉引用
本申请要求于2010年9月28日提交的序号为61/387,160的美国临时专利申请的较早提交日的权益,该美国临时专利申请的全部内容以引用方式并入本文。
技术领域
本发明涉及声音数据处理,更具体地讲,涉及一种用于选择声音数据的声音处理装置及其用户接口。
背景技术
作为近年的信息处理技术发展的结果,大量的内容易于保持在存储介质中。作为保持在存储介质中的内容,例如,通常经由网络从分布站点下载音乐内容或者在装置之间复制音乐内容从而保持在存储介质中。使用这种内容的用户从大量内容中搜索期望内容。作为用于搜索的方法,通常从列表搜索并选择期望内容,或者显示内容名称、图像、视频等等的文件夹结构。也就是说,用户基于通过视觉获得的内容信息选择期望内容。
关于声音数据,诸如进行再现从而可在听觉上识别的音乐内容,不管是否在屏幕上显示都可以享用再现结果。
在日本未审专利申请公布No.2008-135891和2008-135892中,公开了同时再现多个音乐数据并且在此时对多个声音信号执行预定处理以使得音乐信号通过听觉被听到从而可由用户分别听见的技术。
发明内容
然而,在再现(聆听)某音乐数据时,可能期望选择其它的音乐数据。例如,用户可能希望创建仅仅包括喜爱音乐数据的播放列表作为再现群的集合(可能希望向播放列表添加新音乐数据)或者可能希望聆听(搜索)指定的音乐数据进行试听。
在这种情况下,通常,音乐数据的列表等显示在显示屏幕上并且基于视觉信息指定期望的音乐数据。
然而,通常,用户不会全部识别要检索的多个音乐数据的声音内容并且无法简单地从视觉信息猜测哪个声音内容被包括在要检索的音乐数据中。此外,即使在熟悉的音乐数据中,如果对内容进行声学检查,则便于进行检索。
为了在对某音乐数据进行再现的同时获得关于其它音乐数据的声学信息,需要实际再现并聆听该其它音乐数据。在现有技术中,当前正在聆听的音乐数据暂停并且再现该其它音乐数据,或者如果可以的话,同时再现多个音乐数据。
如果当前正在聆听的音乐数据暂停,则即使当再次再现原音乐数据时,为了检索该音乐数据通常执行几个操作步骤,因此效率下降。
此外,如果执行多次选择,则逐个地顺序地重复音乐数据的暂停和再现操作,因此效率类似地下降。
如果多个音乐数据被同时再现,尤其,如果多个音乐数据(例如,包括宽带声音信号的音乐作品)重叠,则很难区分各个音乐数据。
希望提供一种声音处理装置、声音数据选择方法和声音数据选择程序,它们使用分离多个声音数据使得可以凭听觉同时听见的技术来高效地检索声音数据。
根据本发明的实施例,提供了一种信息处理设备,该信息处理设备存储多个音频数据,显示与所述多个音频数据中的每一个对应的信息,接收用于选择所述多个音频数据中的至少一个的输入,再现所述多个音频数据中的第一音频数据,并且基于在接口接收的输入启动所述多个音频数据中的第二音频数据的同时再现,处理第一和第二音频数据以使得用户可以分别听清第一和第二音频数据,并且输出处理后的第一和第二音频数据。
根据本发明,在再现声音数据的同时,可以接收对另一个声音数据的指定,并且在两个音乐数据在被分离并被听到时进行同时再现的同时高效地选择声音数据,而不需要停止它们的再现。
附图说明
图1是示出包括根据本发明实施例的声音处理装置的声音处理系统的整体结构的框图;
图2是示出图1所示的声音处理单元的结构例子的框图;
图3是示出本发明实施例中的多个声音信号的频带分割方法的图;
图4是示出本发明实施例中的多个声音信号的时间分割方法的图;
图5是示出在围绕用户的头部的水平平面中改变定位的方法的图;
图6是示出如何表示虚拟声源的位置的图;
图7是示出图5所示的改变定位的方法的变型例的图;
图8是示出本发明实施例中的改变定位的详细结构例子的图;
图9是示出通过图8所示的控制单元控制FIR滤波器的详细例子的图;
图10是示出即使在分离聆听时也能够保持每首歌曲的立体声的分离并聆听立体声歌曲A和歌曲B的例子的图;
图11是示出当分离并聆听图10所示的立体声歌曲A和歌曲B时通过控制单元控制FIR滤波器的详细例子的图;
图12是示出根据本发明实施例的音乐再现设备的显示屏幕的例子的图;
图13是示出图12所示的显示屏幕的预定操作的图;
图14是示出本发明实施例中通过长按压操作来执行用于分离聆听的声音分离处理的示意图;
图15是示出当把本发明应用于具有音乐再现功能的移动电话终端或者诸如移动音乐播放器的终端装置时的操作例子的图;
图16是图15的屏幕的放大图;
图17是图15的屏幕的放大图;
图18是图15的屏幕的放大图;
图19是示出本发明实施例中的用于分离聆听的声音分离处理的操作例子的时序图;
图20是示出图14所示的实施例中的用户接口的另一个操作例子的图;
图21是示出根据本发明实施例的实现用户接口的显示屏幕的例子的图;
图22A和图22B是示出本发明实施例中的图像列表中的图像的拖拽操作的图;
图23是示出通过图22所示的拖拽操作而同时再现多首歌曲的状态的示意图;
图24是示出通过在图22所示的拖拽操作后执行的释放功能执行的预定功能的图;
图25是示出本发明实施例的例子中的声音处理装置的处理的流程图;以及
图26是示出本发明实施例的变型例中的声音处理装置的处理的流程图。
具体实施方式
在下文中将参照附图详细描述本发明的实施例。
图1是示出包括根据本实施例的声音处理装置的声音处理系统的整体结构的框图。
这个声音处理系统提供使用户可以选择存储在存储装置或记录介质中的多个声音数据中的任何一个的接口。为此,诸如与每个声音数据对应的文字信息或图像信息的显示信息作为列表显示在屏幕上,并且用户可以在聆听多个声音数据的内容(即,声音自身)的同时选择存储的声音数据或者检查所有的声音数据。
在本实施例中,在通过从用户接口获得的用户的输入操作开始再现多个声音数据之一后,由于来自用户输入单元的用户操作,在不停止该声音数据的再现的情况下另一声音数据被同时再现。此时,关于首先开始进行再现的第一声音数据和随后开始进行再现的第二声音数据,执行使用户可以分离并凭听觉聆听这两个声音数据的特定处理。在本说明书中,这种处理称作用于分离聆听的声音分离处理。
更具体地讲,在声音分离处理中,多个输入声音数据同时被再现并且对多个再现的声音信号应用特定滤波处理。接下来,把这样的声音信号进行混合以输出具有期望声道数的声音数据从而从输出装置(例如,立体声系统或耳机)进行声学输出。与一般的再现装置类似,仅仅多个输入声音数据中的一个可以被再现并且从输出装置输出。
在本说明书中,音乐数据用作声音数据的例子。然而,本发明的声音数据不限于音乐数据并且可以应用于表示诸如阅读语音、喜剧故事、会议等、环境声音、演讲声音、或者电话的铃声(旋律)、电视广播等的任何声音的数据,或者包括在记录在DVD上的图像数据中的声音数据。
宽泛地说,图1所示的声音处理系统10主要包括存储装置12、声音处理装置16和输出装置30,其中,存储装置12用于存储多个音乐数据,声音处理装置16用于从存储装置12读取音乐数据并且把该音乐数据再现为声音信号,输出装置30用于把声音信号作为声音输出。
存储装置12可以包括安装在设备中的存储装置(诸如硬盘)以及可拆卸地安装在设备中的小型存储介质(诸如闪存)。存储装置12可以包括诸如经由网络连接到声音处理装置16的服务器中的硬盘的存储装置。
声音处理装置16包括多个再现装置14、用户输入单元18、显示单元19、控制单元20、存储单元22、声音处理单元24、下混合器26和输出单元27。
再现装置14把用户选择的音乐数据(在本例子中为歌曲)作为声音信号进行再现并输出,并且对从存储在存储装置12中的音乐数据中选择的一个进行适当解码以产生声音信号。尽管三个音乐数据被同时再现并且图1示出了三个再现装置14,但是再现装置的数目不受限制。此外,如果通过多处理器等并行地执行再现处理,则从外观的立场看,可以使用包括多个处理单元的一个再现装置14,每个处理单元再现一个音乐数据并且产生一个声音信号。
用户输入单元18使得用户可以输入指令,在本实施例中具有在显示单元19的显示屏幕上重叠的输入区,并且包括用于检测用户触摸的位置的触摸面板(触摸屏幕)。
显示单元19在显示屏幕上显示文字或图像并且包括诸如LCD或有机EL的显示装置和显示控制器。
控制单元20根据用户输入的指令执行显示单元19的显示的转换,根据用户的输入指令执行由再现装置14再现的音乐数据的转换,根据用户的指令执行再现装置14或声音处理单元24的操作的控制等,并且包括CPU等。控制单元20具有执行本实施例中的特有处理的功能。也就是说,在独立再现第一声音数据的状态下,当对第二声音数据执行了与通过输入单元指示开始再现所述声音数据的第一操作不同的第二操作时,控制单元具有由声音处理单元24处理第一声音数据和第二声音数据并且从输出单元27输出混合了第一和第二声音数据的输出声音数据的功能。
存储单元22包括诸如存储器或硬盘的存储介质,用于存储音乐数据、与每个音乐数据对应的信息、图像数据、各种控制数据等。存储单元22还存储控制单元20进行控制所需的表,即,诸如预定参数的信息。
声音处理单元24对多个输入声音数据执行预定处理以使得通过听觉听到这多个输入声音数据从而可由用户分别听见。更具体地讲,对所述多个输入声音数据中的每一个执行预定滤波处理以产生能够凭听觉听到从而可被分别识别的多个声音信号(输出声音数据)。强度等级可被反映给每个音乐数据。将在后面描述声音处理单元24的操作的细节。
下混合器26将经历了滤波处理的多个声音信号进行混合以产生具有期望数目的声道的输出信号。
输出单元27包括用于将数字声音数据转换成模拟声音信号的D/A转换器、用于对输出信号进行放大的放大器、输出终端等。
输出装置30包括用于对混合的声音信号进行声学输出的电声转换单元,具体地讲,包括(内部或外部)扬声器、听筒和耳机。在本说明书中,术语“扬声器”不限于扬声器并且可以是任何电声转换单元。
声音处理系统10对应于个人计算机、音乐再现设备,诸如移动播放器等。可以一体地构造这个系统,或者可以使用多个单元的局部连接来构造这个系统。
此外,存储在存储装置12中的音乐数据的格式不被认为是重要的。音乐数据可由例如MP3的一般编码方法进行编码。此外,在下面的描述中,存储在存储装置12中的音乐数据是一首歌曲的数据并且执行歌曲单位的命令输入和处理。然而,音乐数据可以是多首歌曲的集合,例如一个曲集(album)。
下混合器26在按照需要执行各种调整以后混合多个输入声音信号并且输出为具有预定声道数(例如,单声道、立体声或5.1声道)的输出信号。用户可以使用硬件或软件固定声道数或者切换声道数。
在关于存储在存储单元22中的音乐数据的信息中,可以包括任何一般信息,诸如与音乐数据对应的歌曲的歌曲标题、艺术家姓名、图标或流派。另外,可以包括声音处理单元24所需的一些参数。当音乐数据存储在存储装置12中时,可以读取关于该音乐数据的信息并且将其存储在存储单元22中。或者,每当声音处理装置16进行操作时,可以从存储装置12读取信息并且将其存储在存储单元22中。
现在,将描述使一个用户可以分离并聆听同时再现的多个音乐数据的声音分离处理。
如果使用一组扬声器或耳机来混合并聆听多个声音,则基本上由于没有获得内耳级的分离信息,所以根据听觉流或音调等的差别由大脑识别不同声音。然而,通过这种操作可以区分的声音是有限的。因此,很难对各种声音应用这个操作。
如果使用由日本未审专利申请公布No.2008-135891和2008-135892提出的方法,则接近内耳或大脑的分离信息被人工添加到声音信号以最终产生即使当混合时也能够被分离和识别的声音信号。
也就是说,如果如下构造声音处理单元24,则可以分离并聆听多个声音数据。
在声音分离处理中,当多个音乐数据被同时再现、混合和输出时,对每个声音信号执行滤波处理以分离并聆听音乐数据。具体地讲,通过对通过再现每个音乐数据获得的声音信号分配频带或时间提供内耳级的分离信息,或者通过针对一些或全部声音信号提供周期性改变、执行声学处理加工或提供不同定位来提供大脑级的分离信息。为此,当声音信号被混合时,可以获取内耳级和大脑级二者的分离信息,并且最终帮助多个声音数据的分离和识别。结果,可以与对显示屏幕上缩略图显示的观看类似地同时观测声音并且即使当希望检查内容时也容易地检查多个音乐内容而不会花费过多时间。
此外,可以改变每个声音信号的强度等级。具体地讲,按照强度等级分配的频带可以增加,可以使执行滤波处理的方法变强和变弱,或者可以改变执行的滤波处理。因此,可以使得具有高强度等级的声音信号比其它声音信号更显著。为了使具有低强度等级的声音信号不被消除,不使用分配给具有低强度等级的声音信号的频带。结果,可以在聆听多个声音信号中的每一个的同时使得显著关注一声音信号从而缩窄关注点。
本实施例的声音处理装置16的声音处理单元24对每个声音信号进行处理使其可以凭听觉听到并且当混合时可被分别识别。图2示出了声音处理单元24的结构例子。声音处理单元24包括预处理单元40、频带分割滤波器42、时间分割滤波器44、调制滤波器46、处理滤波器48和定位设置滤波器50。在本发明中所有这些滤波器不是不可缺少的并且可以使用这些滤波器中的至少一个。根据这些滤波器的性质可以使用多个滤波器。
预处理单元40可以是一般的自动增益控制器等并且控制增益从而使得从再现装置14接收的多个声音信号的音量变得大致均匀。
频带分割滤波器42为每个声音信号分配通过分割可听频带而获得的块并且从每个声音信号提取属于所分配的块的频率分量。例如,通过构造在每个块和声音信号的每个声道中设置的带通滤波器(未示出),频带分割滤波器42可以提取频率分量。通过使控制单元20能够控制每个带通滤波器等以设置频带或设置有效带通滤波器,可以改变用于决定对块进行分割的方式的分割模式或用于决定为声音信号分配块的方式的分配模式。
时间分割滤波器44通过改变几十毫秒到几百毫秒的时间段中的相位,执行声音信号的时间分割方法并且对每个声音信号的幅值进行时间调制。例如通过在时间轴上控制增益控制器来实现时间分割滤波器44。
调制滤波器46执行向声音信号周期性提供特定改变的方法并且例如通过在时间轴上控制增益控制器、均衡器、声音滤波器等来实现。
处理滤波器48执行对声音信号正常执行特殊效果(下文称作处理加工)的方法并且例如通过特效器等实现。
定位设置滤波器50执行把定位改变为虚拟声源的位置的方法并且例如通过移动立体声录音法(panpot)、虚拟环绕声(virtualsurround)等的三维定位处理等来实现。
在本实施例中,如上所述,凭听觉听到多个混合的声音信号从而由用户分别识别。此外,可以强调和聆听声音信号中的任何一个。为此,在频带分割滤波器42或其它滤波器中,根据用户请求的强度等级改变该处理。另外,还根据强度等级选择通过声音信号的滤波器。在后者的情况下,解复用器连接到每个滤波器的声音信号的输出端子。此时,通过来自控制单元20的控制信号来设置下一个滤波器的输入的存在或不存在,可以改变选择还是不选择下一个滤波器。
根据声音分离处理,通过改变提供给声音处理单元24的每个滤波器的参数,可以根据分离聆听方法分离并区分同时输出的多个音乐数据。提供的参数的改变模式被预先存储在存储单元22中。此外,这种改变模式可以是声音处理单元24中的用以执行最优处理的内部参数或多个表。
更具体地讲,作为根据声音分离处理的分离聆听方法,在下文中给出了现有技术的多种方法。
(1)频带分割方法
首先,作为提供内耳级的分离信息的方法,将描述声音信号在频带中的分割和声音信号的时间分割。
图3是示出了多个声音信号的频带分割方法的图。该图中的水平轴表示频率,可听频带在从频率f0到频率f8的范围内。在该图中示出了混合并聆听两首歌曲A和B的声音信号的情况。歌曲的数目不受特别限制。在频带分割方法中,可听频带被分割成多个块并且向每个块分配多个声音信号中的至少任何一个。然后,仅仅提取属于分配给多个声音信号中的每一个声音信号的块的频率分量。
在图3所示的例子中,通过根据频率f1、f2、......、f7分割整个频率范围,将可听频带f0到f8分割成八个块。例如,如斜线所示,四个块f1到f2、f3到f4、f5到f6以及f7到f8被分配给歌曲A,并且四个块f0到f1、f2到f3、f4到f5以及f6到f7被分配给歌曲B。这里,变成块之间的边界的频率f1、f2、......、f7例如被设置成24Bark(巴克)阈值频带的边界频率中的任何一个从而进一步提高频带分割的效果。
阈值频带是指这样的频带:在该频带中,即使当具有某频带的声音延伸至更大带宽时,其它声音的掩蔽量不增加。掩蔽(masking)是任何声音的最小可听值由于其它声音的存在而增加的现象,即,难以听到任何声音的现象。掩蔽量是最小可听值的增加量。很难在彼此不同的阈值频带中掩蔽声音。通过使用通过实验证实的24Bark阈值频带来分割频带,可以抑制例如属于频率f1到f2的块的歌曲A的频率分量掩蔽属于频率f2到f3的块的歌曲B的频率分量的影响。在其它块中也是这样的,结果,歌曲A和歌曲B变成几乎不会彼此消除的声音信号。
此外,可以不根据阈值频带执行将整个频率区域分割成多个块。在任一情况下,通过减小重叠频带,可以提供使用内耳的频率分辨率的分离信息。
尽管在图3所示的例子中,每个块具有基本相同的带宽,但实际上,带宽可以根据频带而变化。例如,两个阈值频带可以设置到一个块,并且四个阈值频带可以设置到一个块。在该分割方法(分割模式)中,可以考虑一般声音的特性(例如,难于掩蔽低频声音的特性)或者考虑歌曲的特征频带来确定块分割。这里,特征频带是歌曲的表达中的重要频带,诸如主旋律占据的频带。如果预测特征频带彼此重叠,则可以把这些频带精细地分割并且均等地分配,从而不产生无法听到任一歌曲的主旋律的问题。
此外,尽管在图3所示的例子中,一系列块被交替地分配给歌曲A和歌曲B,但是分配方法不限于此,并且两个连续块可以分配给歌曲A。即使在这种情况下,例如,当某歌曲的特征频带跨越两个连续块时,这两个块可以分配给该歌曲,即,可以确定分配方法从而使得在歌曲的重要部分最小化频带分割的不利影响的产生。
(2)时间分割方法
图4是示出了多个声音信号的时间分割方法的图。在该图中,水平轴表示时间,垂直轴表示幅值(即,声音信号的音量)。即使在这种情况下,作为例子示出了两首歌曲A和B的声音信号被混合的情况。在时间分割方法中,以共同的周期调制声音信号的幅值。此时,峰的相位被延迟从而根据歌曲在不同定时出现峰值。为了接近内耳级,此时的调制周期可以是几十毫秒到几百毫秒。
在图4的例子中,以共同的周期T调制歌曲A和歌曲B的幅值。歌曲B的幅值在时间点t0、t2、t4和t6下降而此时歌曲A的幅值达到峰值;歌曲A的幅值在时间点t1、t3和t5下降而此时歌曲B的幅值变成峰值。此外,实际上,如该图所示,可以执行幅值调制从而使得幅值最大的时间点和幅值最小的时间点具有一定等级的时间幅宽。在这种情况下,歌曲A的幅值最小的时刻可以与歌曲B的幅值最大的时刻匹配。如果三首或更多歌曲被混合,则每首歌曲的峰的相位被均等地延迟从而使得在给定时刻仅一首特定歌曲的幅值可以被最大化。
在幅值到达峰值的时间点可以执行没有时间宽度的正弦波的调制。在这种情况下,仅仅相位被延迟并且幅值到达峰值时的定时变得不同。在任一情况下,可以提供使用内耳的时间分辨率的分离信息。
(3)提供大脑级的分离信息的方法
接下来,将描述提供大脑级的分离信息的方法。在大脑级提供的分离信息提供了当在大脑中分析声音时识别每个声音的听觉流的线索。在本实施例中,介绍了向声音信号周期性提供特定变化的方法、对声音信号正常执行处理加工的方法、和改变定位的方法。
(3-1)在向声音信号周期性提供特定变化的方法中,对所有或一部分混合的声音信号的幅值进行调制或者对频率特性进行调制。可以通过脉冲形状在短时间内执行调制或者可以执行调制从而在长时间内缓慢变化。如果对多个声音信号执行共同的调制,则声音信号的峰的定时不同。
或者,可以周期性提供例如轻弹声音的噪声,可以执行通过普通声音滤波器实现的处理加工,或者定位可以向左或向右摆动。通过组合这些调制,根据声音信号应用另一个调制,或者延迟定时,可以提供识别声音信号的听觉流的线索。
(3-2)在对声音信号正常执行处理加工的方法中,针对所有或一部分混合的声音信号执行能够由一般效应器实现的各种声学处理(诸如回声(echo)、混响(reverb)、变调(pitch shift)等)之一或组合。通常,频率特性可以与原声音信号的频率特性不同。例如,即使在具有相同乐器的相同节拍的歌曲中,经历回声处理的一首歌曲易于被识别为不同的歌曲。如果对多个声音信号执行了处理加工,则处理内容或处理强度根据声音信号而变得不同。
(3-3)在改变定位的方法中,不同定位被提供给所有混合的声音信号。通过在大脑中与内耳协作执行声学空间信息分析,易于分离声音信号。由于声音分离处理根据定位的变化而变化以分离虚拟声源的位置,所以它可以称作声源分离处理。
例如,如图5所示,在以用户的头部H为中心的水平平面中,在水平平面上沿全部360°圆周的不同方向被分配给歌曲A和歌曲B的声音数据。通常,改变定位从而在彼此相差180°的方向上向两首歌曲A和B分配虚拟声源。在该图中,用户的右后侧的位置67被分配给歌曲A,用户的左前侧的位置77被分配给歌曲B。尽管位置67和77距离用户的距离相同,但是它们不是必须距离相同。即使当歌曲A自身在具有多个声道的立体声系统中并且包括多个虚拟声源位置时,在这个例子中,在多首歌曲被同时再现时歌曲A的虚拟声源位置被集中到单个虚拟声源位置67。即使在歌曲B中,虚拟声源位置被集中到单个虚拟声源位置77。
如图6所示,虚拟声源位置由以收听者的头部H为中心的水平平面中的歌曲坐标(即,远离头部的定位距离r和定位角度θ)来表示。在这个例子中,在定位角θ中,用户的前方是0°。
尽管图5所示的两首歌曲的定位角度相差180°,但是该差不是必须是180°。例如,角间隔可以是左前侧和右前侧的60°或90°。此外,虚拟声源的方向不限于图5的例子。如果同时再现的歌曲的数目是3或更多,则可以向各首歌曲分配通过基于歌曲的数目分割360°的整个圆周而获得的不同方向。
图7是示出了图5所示的改变定位的方法的变型例的图。在这个例子中,当多首歌曲的同时再现开始时,每首歌曲不会直接转变到期望的虚拟声源位置而是沿预定路径移动以到达期望的虚拟声源位置。在这个例子中,在歌曲A中,预定路径从作为源的头部H的中心位置移至预定距离r1的位置61,然后在以距离r1为半径的弧上追随位置62到66,到达期望位置67(r1,θ1)。从头部H(或者位置61)移至位置67所需的时间是预定时间(例如,大约1秒或几秒)。移动路径上的多个步进(stepwise)位置例如是预定角度增量的位置。角度增量例如是1°到60°的任意角度。当这个角度减小时获得较平滑的定位变化,当这个角度增大时获得较粗糙的变化。通过基于移动路径的角度步级的数目分割预定时间,可以获得移至相邻位置的时间间隔。歌曲B也是这样的。也就是说,预定路径从头部H经由位置71(r1,θ3)移动,追随弧上的位置72到76,到达位置77(r1,θ2)。
图8是示出了在本发明的实施例中改变定位的详细结构例子的图。在该图中,与图1所示的元件相同的元件用相同标号进行表示,因此将省去对它们的描述。
现在,假设歌曲A和歌曲B被同时再现。如果从一个单元的再现装置14获得的歌曲A的声音信号包括数字L声道信号和数字R声道信号,则通过合成这两个信号而获得的单声道信号(L+R)/2被输入到滤波单元50a。作为定位设置滤波器50的一部分,滤波单元50a由L和R两个声道的有限脉冲响应(FIR)形成。如果歌曲A的声音信号是原始单声道信号,则该单声道信号可以不加改变地输入到滤波单元50a。
类似地,如果从另一个单元的再现装置14获得的歌曲B的声音信号包括数字L声道信号和数字R声道信号,则通过合成这两个信号而获得的单声道信号(L+R)/2被输入到滤波单元50b。作为定位设置滤波器50的一部分,滤波单元50b由L和R两个声道的FIR滤波器形成。
滤波单元50a和50b从控制单元20接收控制参数并且产生用于实现预定定位的L和R声道输出声音数据。控制参数预先存储在存储单元22中作为系数表23。在这个例子中,在系数表23中存储了头相关传递函数(Head Related Transfer Function,HRTF)的参数。HRTF是指示从声源传递到人耳的声音的传递特性的函数。这个函数具有根据头部或耳朵的形状和声源的位置而变化的值。与之相对,通过使用这个函数值,可以虚拟地改变声源的位置。
在上述的图5的例子中,通过控制单元20的控制对滤波单元50a进行控制从而使得从虚拟声源位置67听到歌曲A。类似地,通过控制单元20的控制对滤波单元50b进行控制从而使得从虚拟声源位置77听到歌曲B。
滤波单元50a和50b的L声道输出信号在下混合器26中被叠加,通过输出单元27的D/A转换器28L转换成模拟信号,由放大器29L进行放大,并且作为声音从输出装置30的L声道扬声器30L输出。类似地,滤波单元50a和50b的R声道输出信号在下混合器26中被叠加,通过输出单元27的D/A转换器28R转换成模拟信号,由放大器29R进行放大,并且作为声音从输出装置30的R声道扬声器30R输出。
图9是示出了由控制单元20控制FIR滤波器50aL和50aR的详细例子的图。在该图中,为了方便仅示出了歌曲A。此外,在系数表23中准备了要提供给虚拟声源的每个不同方向(路径)的L声道FIR滤波器和R声道FIR滤波器的表值。尽管在这个例子中示出了具有1°的角间隔的表值的例子,但是角间隔不限于1°。从用户到虚拟声源的距离r设置成预定值。如果距离r自身改变,则可以提供每个不同距离的系数表23。
在图5和图9的例子中,如果同时再现的任何歌曲是具有左声道和右声道的立体声音,则在进行分离聆听的同时,歌曲一次转换成单声道信号并且能够从一个方向听到一首歌曲。相反,即使在分离聆听时,也可以保持每首歌曲的立体声。
图10是示出了即使在分离聆听时也能够保持每首歌曲的立体声的分离并聆听立体声歌曲A和歌曲B的例子的图。在这个例子中,关于歌曲A,L声道和R声道的虚拟声源设置成在右前方向具有60°的扩展角度间隔的位置(r,θ1)和(r,θ2);关于歌曲B,L声道和R声道的虚拟声源设置成在左后方向具有60°的扩展角度间隔的位置(r,θ3)和(r,θ4)。每首歌曲的方向不限于这个例子。如果同时再现的歌曲的数目是2,则具有非常大角度差的两个方向(确切地讲是相反方向)(例如左前方向和右后方向、左方向和右方向、或者前方向和后方向)是优选的。
图11是示出了当分离并聆听图10所示的立体声歌曲A和歌曲B时通过控制单元20控制FIR滤波器50a1、50a2、50b1和50b2的详细例子的图。在这种情况下,由一组L和R FIR滤波器形成的滤波单元50a1被分配给歌曲A的L声道信号,由一组L和R FIR滤波器形成的滤波单元50a2被分配给歌曲A的R声道信号。类似地,由一组L和RFIR滤波器形成的滤波单元50b1被分配给歌曲B的L声道信号,由一组L和R FIR滤波器形成的滤波单元50b2被分配给歌曲B的R声道信号。这些滤波单元的输出由下混合器26a针对L和R声道的每一个进行合成并且被输入到D/A转换器28L和28R。
在下文中,将描述使用以上分离聆听方法的本实施例的音乐再现设备的特有用户接口(UI)。
图12是示出了音乐再现设备的显示屏幕60的例子的图。这是在显示单元19上显示的屏幕结构的例子并且示出了与存储在存储装置12中的每个音乐数据关联的一些标题信息的列表。这里,“列表显示”向用户提供多个可选择聆听声音数据的选项。显示在显示单元60的显示屏幕19上的信息可以是用于指定每个音乐数据的信息,诸如与每个音乐数据关联的除了标题信息以外的文字信息、图像、运动图像等。此外,不限于列表显示,各种信息显示可以布置在某些位置并且通过滚动可以显示尽可能多的歌曲信息。
在图12的例子中,多个可再现歌曲68a到68e的列表通过文本(文字行)显示在显示屏幕60上。关于当前正在再现的歌曲(歌曲2),显示指示该效果的指示符69,即,在这个例子中为文字“再现中”。为了显示再现状态,不限于文字显示。例如,可以采用图标显示,可以绘制框,或者可以改变行或框的颜色。
如果用户输入单元18是触摸面板,则触摸区域位于显示单元19的显示屏幕上从而使得用户触摸触摸区域中的某位置以执行位置(坐标)输入。同时,显示单元19的显示屏幕被显示给用户。控制单元20基于输入的用户输入信息确定用户的触摸(接触)对应于显示单元19的哪个位置。
在图12所示的状态下,如图13所示,当用户针对与当前正在显示屏幕60上再现的歌曲(在这个例子中,歌曲2)不同的歌曲(在这个例子中,歌曲4)执行预定操作时,当前正在再现的歌曲和新指示的歌曲被临时地同时再现。在这种情况下,将上述的分离聆听方法应用于这两首歌曲的再现。“预定操作”是与用于开始歌曲的再现的操作(第一操作)不同的操作(第二操作),并且在这个例子中,利用所谓的长按压,其中同一位置处的触摸状态持续预定时间或更长。
更具体地讲,当用户的手指78触摸触摸面板72时,这个触摸被用户输入单元18感测到并且控制单元20确定这个触摸对应于显示单元19的哪个位置。控制单元20确定该位置是否位于在显示单元19上显示的各个音乐数据的信息的区域内。如果通过这个确定指定了音乐数据,则用户确定选择了该音乐数据。此时,通过恒定时间的待机时间确定是否存在“长按压”。为此,确定它是在短时间后结束触摸的轻敲(tap)操作还是长按压。轻敲操作一般用作用于选择歌曲的一般操作。也就是说,如果用户轻敲与列表上的各首歌曲对应的位置,则可以互换再现的歌曲。
如果触摸状态持续到待机时间结束之后,则确定它是长按压。如果确定了由用户选择的音乐数据不是正被再现的音乐数据,则控制单元20开始再现该音乐数据,通过声音处理单元24针对这两个音乐数据执行上述的声音分离处理,并且通过下混合器26将音乐数据输出到输出装置30。
例如,如图14示意性所示,在某歌曲A被再现的同时通过长按压选择了另一首歌曲B时,在长按压持续的同时执行用于分离聆听的声音分离处理。结果,用户识别同时进行再现的歌曲A和歌曲B。
此时,可以通过来自控制单元20的控制信号来改变声音处理单元24的每个滤波器的效果。该声音分离处理一直持续到用户的手指78在触摸面板的与歌曲68d对应的位置上的触摸结束为止。
当长按压结束时,恢复仅对原歌曲A的再现。此时,在长按压期间歌曲A的再现没有暂停并且原歌曲A持续进行再现就好像在长按压后什么都没有发生一样。
在歌曲A期间被再现从而中途被叠加的歌曲B可以从该歌曲的第一部分再现或者可以从特定中间位置再现。例如,该中间位置是称作“副歌(hook part)”的该歌曲的特征歌曲部分。与歌曲的开始部分相比,这样的歌曲部分通常有助于歌曲搜索。这种歌曲部分的位置(从歌曲的开始点起的时间)可以利用作为歌曲的元信息准备的伴随音乐数据的信息(未示出)。
用户可以选择中途再现的歌曲B的再现是从中途位置还是开始位置开始,作为初始设置。
通过本实施例的操作,用户可以在不停止已听到此时的歌曲的再现的情况下分离并聆听另一首歌曲。为此,可以聆听另一首歌曲作为预览或者比较这两首歌曲。
此外,在图12所示的状态下,使用上述轻敲操作,当前正在再现的歌曲可以互换为另一首歌曲。此外,可以通过针对触摸面板的另一个触摸操作(例如,在触摸的状态下迅速移动手指的操作)来确定声音分离处理的结束,并且可以切换到用户根据该操作选择的歌曲的再现。这种操作是在触摸状态下以高于预定速度的速度移动手指以解除触摸状态并且通常称作轻拂操作或仅为轻拂(flick)。
或者,声音分离处理可以通过上述的轻敲操作开始,持续预定时间,并且自动结束。取代于自动结束,可以通过触摸面板的另一个触摸操作确定声音分离处理的结束。
图15是示出了当把本发明应用于具有歌曲再现功能的移动电话终端或诸如移动歌曲播放器的终端装置时的操作例子的图。
屏幕80a示出了当使用音乐再现功能时用于显示歌曲列表的屏幕。该列表的每行81显示了歌曲的标题、艺术家和再现时间作为歌曲信息。此外,关于当前正在再现的歌曲,在其行81中显示与指示符69对应的再现标记(图标)84。
当用户在屏幕80a上显示的第一歌曲(标题A)被再现的状态下用手指78触摸第二歌曲的行81(如屏幕80b一样)时,该行81被反色(或者强调)显示。为此,用户凭视觉识别选择哪首歌曲作为搜索目标。本发明不限于此,可以显示图像、动画或运动图像从而向用户通知该选择。
如果触摸满足“长按压”的条件,则第二歌曲以叠加在第一歌曲上的方式被再现并且执行上述的声音分离处理。此外,在这个例子中,关于长按压的行81的歌曲,预先作为其歌曲信息存储的图像88被显示为叠加在列表上。为此,可以向用户提供歌曲的视觉补充信息。图像的显示不是本发明的必要元素。
在声音分离处理继续的前后,通过向声音处理单元24提供先前在存储单元22中设置的参数的变化模式,可以使得通过声音分离处理的有无而产生的用户感觉到的聆听变化为渐进的,从而输出歌曲之间的无缝感觉。将在后面描述这个操作例子。
如果用户从屏幕80c的状态解除手指78的触摸状态,则声音分离处理结束并且图像88的显示和行81的反色显示被解除。为此,第二歌曲的再现停止并且仅仅第一歌曲的再现继续。显示单元19返回到与屏幕80a等同的屏幕80d。
尽管没有示出,如果在屏幕80c的状态下手指78触摸屏幕的状态下通过在屏幕上移动从而关于相邻行新满足“长按压”,则与第一歌曲同时再现新歌曲(第三歌曲),如上所述。
图16是图15的屏幕80a的放大图,图17是图15的屏幕80b的放大图,图18是图15的屏幕80c的放大图。
图19是示出用于分离聆听的声音分离处理的操作例子的时序图。在作为时间轴的水平轴上,示出了当前歌曲(第一歌曲)96、下一歌曲(第二歌曲)97和用户的手指的触摸98之间的关系。在当前歌曲96被再现时,声音分离处理在满足触摸的长按压的时间点t1启动。这个声音分离处理一直持续到释放触摸的时刻t3的预定时间之后的时间点t4,然后被关闭。
在这个操作例子中,在声音分离处理的开启(ON)时间期间,过渡到两首歌曲的同时再现状态不会立即执行,而是可以连贯地或者以步进方式执行。即使在声音分离处理的关闭(OFF)时间内,两首歌曲的同时再现状态不会过渡到原始状态,而是可以连贯地或者以步进方式过渡到原始状态。这种处理在本发明中不是必不可少的,但是获得了在避免施加到用户的耳朵的迅速变化的同时帮助用户进行可听接收的效果。
声音分离处理的开启时间期间的从时间点t1到t2的过渡时间称作淡入时间。类似地,声音分离处理的关闭时间期间的从时间点t3到t4的过渡时间称作淡出时间。在本说明书中,淡入是指声音分离处理的功能从0%过渡到100%的瞬变状态。此外,淡出是指声音分离处理的功能的达成率从100%返回到0%的瞬变状态。
声音分离处理的达成率的内容可以根据上述分离聆听方法的类型而变化。
例如,在定位改变中,如参照图7所述,当听到歌曲的方向连贯地或者以步进方式改变时从开始角度到目标角度的角度对应于达成率。
在参照图3描述的频率分割方法中,歌曲A和歌曲B在频率分割块的分配数目方面是相等的。相反,通过改变为分配给两首歌曲的块的数目不等,可以改变声音分离处理的达成率。例如,在淡入开始时间点可以把所有块分配给歌曲A,从不向歌曲B分配块的状态开始分配给歌曲A的块的数目下降,并且分配给歌曲B的块的数目可以增加。分配给两首歌曲的块的数目变得相等的时间点变成淡入结束时间点。淡出是其逆操作。
尽管在参照图4描述的分割方法中,峰时间被均等地分配给歌曲A和歌曲B,但是峰时间可以不均等地分配给这两首歌曲从而改变声音分离处理的达成率。在这种情况下,存在固定峰的时间间隔并改变峰的数目的方法和改变峰的时间间隔的方法。例如,在淡入开始时间点可以把全部时间峰分配给歌曲A,从不向歌曲B分配峰时间的状态开始对歌曲A的峰时间的分配比例可以下降,并且对歌曲B的峰时间的分配比例可以增加。两首歌曲的峰时间的分配比例变得相等的时间点变成淡入时间点。淡出是其逆操作。
此外,在本发明中,图19所示的淡入和淡出不是必不可少的。此外,可以仅仅利用淡入和淡出之一(例如,仅仅淡入)。
图20是示出了图14所示的本实施例中的用户接口的另一个操作例子的图。在图14的描述中,在用户的长按压的结束时间点,歌曲A和歌曲B的同时再现返回到仅再现原歌曲(歌曲A)。与之相对,在长按压状态后,如果执行了与用于分离聆听方法的预定操作(第二操作)不同的预定操作(第三操作),则原歌曲被停止并且再现下一首歌曲(稍后所指的歌曲B)。作为第三操作,可以采用以上的轻拂操作。如上所述,即使可以在同时再现时从中间部分再现歌曲B,这种情况下的歌曲B的再现也可以从歌曲的开头开始。
接下来,将描述根据本实施例的用户接口的另一个例子。当使用文本(字符串)显示歌曲信息的列表时,图13、图15等所示的用户接口允许通过用户操作进行决定。与之相对,可以考虑使用与每首歌曲对应的图像的用户接口。
图21是示出了用于实现这种用户接口的显示屏幕90的例子的图。也就是说,使用作为图像列表的用于选择歌曲的歌曲列表来显示与歌曲对应的多个图像。在这个例子中,显示屏幕在水平方向上较长,并且与歌曲对应的图像(图像项)水平地并列布置在上侧。通过选择图像串93中的任何一个可以选择歌曲。关于这个例子,触摸面板用作定点装置。然而,定点装置不限于触摸面板。
图像串93可以水平地移动,并且关于数目大于能够一次在显示屏幕上显示的图像的数目(该图的例子中为5)的图像,隐藏在显示屏幕之外的图像可以被显示。这个操作称作图像串93的滚动操作。可以通过用户的预定操作来执行图像串93的滚动操作。
例如,用户可以用手指在图像串93(或者特定图像)的显示区域中触摸屏幕并且在水平方向上移动以执行图像串93的水平滚动操作。因此,移动方向的开始图像被移至显示屏幕之外并且位于显示屏幕之外的图像从移动方向的后侧显示在显示屏幕中。在该图的例子中,位于显示屏幕的中心的图像在面向前方的状态下被显示,并且其它的左侧和右侧图像被倾斜地显示。这种显示形式在本发明中不是必不可少的。
在这种图像列表上,通过对几个图像执行第一操作(在以上例子中,轻敲操作),可以指示选择和再现歌曲。如果期望改变再现的歌曲,则再次轻敲期望图像以改变再现的歌曲。
显示的图像串93中的任何图像可以进行所谓的拖拽操作,从而在用户用手指触摸屏幕的状态下仅仅根据手指的移动来移动图像。在这个例子中,可以通过仅在垂直方向上的拖拽操作执行单个图像的移动。在这个例子中,水平方向的操作被识别为图像串93的滚动的指示操作。
即使在相同水平方向上的手指的触摸移动操作中,轻拂操作和拖拽操作也是不同的,并且如果仅仅通过轻拂操作实现图像串93的滚动,则可以在水平方向上执行单个图像的拖拽操作。拖拽操作与轻拂操作的区别在于:在拖拽操作中,手指的移动速度低于预定速度,并且在轻拂操作中,手指的移动速度高于预定速度。
在图21的例子中,在某歌曲的再现处理期间,当对该歌曲的图像以外的图像执行长按压操作或拖拽操作时,执行本实施例的同时再现和声音分离处理。当前正在再现的歌曲的标题等与作为指示符的再现标记84一起显示在上部的带状显示区域92中。
也就是说,手指触摸任何图像的显示范围达到特定时间并且然后进行移动从而使得在屏幕中移动和拖拽各图像。如果手指与屏幕分离,则此时图像返回到它们的原位置。此时,通过连贯地改变显示位置,图像可以平滑地返回到它们的原位置。
在图21的例子中,当拖拽图像并且在显示屏幕90上的特定区域95中释放时,执行拖拽操作的目的是执行预定功能。作为预定功能,例如,当执行区域95中的某歌曲的图像的拖放操作时,用于向播放列表添加该歌曲的功能被包括。尽管播放列表自身未被特别显示,但是它可以基于用户的指示显示在单独的屏幕上。此外,图中显示在区域95中的图像用于向用户指示通过长按压操作可以分离并听到多首歌曲。在同时再现期间,强调并显示区域95。作为强调显示的例子,可以使用高亮显示(亮度变化)、颜色变化、反色显示、闪烁显示等。
现在,在简单再现某歌曲X的状态下,如图22A所示,当用户拖拽位于屏幕的中心的图像(歌曲C)时,歌曲C被额外地且同时地再现,并且对歌曲X和歌曲C两者执行上述的声音分离处理。(在这个例子中,歌曲X对应于屏幕之外的图像)。该状态当用户拖拽与歌曲D对应的图像的同时持续。因此,同时,用户能够分离、识别并聆听这两首歌曲。此时,由于以视觉方式向用户指示执行了声音分离处理,所以区域95被强调并显示。
图22A示出了拖拽图像串的中心的图像C的状态。当在与不同于图像C的图像对应的歌曲的再现期间开始图像C的拖拽操作时,执行伴有两首歌曲的声音分离处理的同时再现。如图22B所示,拖拽操作不限于图像串的中心的图像,并且可以执行与屏幕中的歌曲对应的某图像的拖拽操作。尽管在图22B中倾斜图像(图像A)被拖拽并变成面向前方易于观看的图像,但是图像可以保持在倾斜的状态下。
图23是示出了通过拖拽操作同时再现多首歌曲的状态的示意图。如果在歌曲X的再现期间执行歌曲C的图像的拖拽操作,则在拖拽操作的时间段内持续执行伴有歌曲X和歌曲C的声音分离处理的同时再现。在拖拽操作结束的时间点恢复原歌曲X的独立再现状态。
如图24所示,如果把与歌曲对应的特定图像(在该图的例子中,图像C)拖放到区域95中,则作为预定功能,例如,这首歌曲被添加到播放列表。当用户把手指78从屏幕分离时,图像C返回到屏幕上的原位置。当同时再现完成时,恢复原歌曲的单独再现。
此外,在拖拽操作后,当用户不是仅仅把手指78从图像分离,而是执行上述的第三操作(例如,轻拂操作)时,同时再现状态可以转变到与被拖拽的图像对应的歌曲的独立再现。
图25是示出本实施例的例子中的声音处理装置16的处理的流程图。该处理根据通过用户输入单元18执行的用户的预定指示而开始(S1)。
首先,显示单元19显示来自存储在存储装置12中的音乐数据的关联信息的列表(S2)。如上所述,这个列表可以是文本也可以是图像。
接下来,在列表中显示的音乐数据中,确定当前正在再现的音乐数据是否存在(S3)。如果正在再现的音乐数据存在,则指示该音乐数据正在再现的指示符被附加显示在与该音乐数据关联的显示区域上(S4)。如果在步骤S3中没有正在再现音乐数据,则不执行处理并且当前处理结束。
在步骤S4后,监视是否存在由显示单元19和用户输入单元18形成的触摸面板的有效接触(触摸)(S5)。当感测到这种接触时,例如,当用户的手指触摸触摸面板时,处理前进到步骤S6。在步骤S6中,指定在步骤S5中感测到的触摸位置对应于与显示在显示单元19上的音乐数据关联的信息的哪个区域。确定选择了与所指定的区域对应的音乐数据。
在步骤S7中,确定在步骤S6中选择的音乐数据是否已被再现。如果该音乐数据已被再现,则不执行处理并且由此返回到步骤S5。如果选择的音乐数据还没有被再现,则处理前进到步骤S8。在步骤S8中,执行特定时间的等待。该特定时间是用于确定触摸是否是长按压的阈值并且例如可以设置成大约0.5秒。可以由用户调整这个预定时间。
在步骤S9中,检查在特定时间过去后触摸状态是否被继续保持。如果在特定时间过去后触摸已经消失,则用户确定仅仅意图切换再现的数据并且处理前进到步骤S16。在步骤S16中,当前正在再现的音乐数据被停止,通过触摸选择的音乐数据的再现开始,并且处理返回步骤S2。
如果在步骤S9中确定触摸被继续保持,则处理前进到步骤S10。在步骤S10中,通过触摸选择的音乐数据的再现开始并且处理前进到步骤S11。此时,已经一直再现到该时刻的音乐数据的再现继续。在步骤S11中,通过声音处理单元24对正在再现的所有音乐数据开始上述的声音分离处理。通过声音处理单元24处理的声音数据通过下混合器26进行合成并且被输出到输出装置30。此时,在显示单元19中,可以通过改变用于与选择的音乐数据关联的信息部分的颜色或者显示图像、动画等以视觉方式强调选择的音乐数据。此外,在声音分离处理开始时,可以对声音处理单元24的每个滤波器给予先前存储在存储单元22中的模式从而使得用户聆听歌曲对于他的听觉而言平滑。
在步骤S12中,检查触摸状态是否继续。当触摸状态继续时,可以继续执行上述的声音分离处理。如果在步骤S12中没有感测到触摸,则确定触摸结束并且处理前进到步骤S13。在步骤S13中,声音分离处理结束并且处理前进到步骤S14。在步骤S14中,通过用户的长按压选择并再现的音乐数据的再现结束。接下来,在步骤S15中,原音乐数据的独立再现继续。之后,处理返回步骤S3。在声音分离处理结束时,可以对声音处理单元24的每个滤波器给予先前存储在存储单元22中的模式从而使得用户聆听歌曲对于他的听觉而言平滑。
伴随拖拽操作的声音分离处理的启动基本与伴随长按压操作的声音分离处理相同。在拖拽操作中,伴有图像的拖拽显示作为附加处理。
作为另一个操作,在步骤S9中,如果没有感测到触摸,则不执行再现的音乐数据的切换(S16),处理可以前进到步骤S10和S11,其中,声音分离处理持续预定时间并且处理前进到步骤S13。在步骤S6中可以选择多首歌曲。
图26是示出本实施例的变型例中的声音处理装置16的处理的流程图。与图25相同的处理步骤用相同标号指示并且将省去对它们的描述。
如果在步骤S12中在触摸持续的同时检测到上述的第三操作(例如,轻拂),则声音分离处理结束(S17)。此外,原来正在再现的原音乐数据的再现停止(S18)并且通过用户的长按压选择的音乐数据的独立再现继续执行(S19)。在这种情况下,如上所述,歌曲的再现不会在切换到歌曲的中途独立再现,而是会切换到从开头的独立再现。在步骤S19后,处理返回到步骤S3。
根据上述实施例,在不停止已听到直至此时的声音数据的情况下,用户易于作为预览聆听并且比较另一个音乐数据。
尽管描述了本发明的适宜实施例,但是除了以上描述以外还可以进行各种变型和改变。也就是说,本领域技术人员应该明白,以上实施例是示例性的并且可以进行组成部件和处理的组合的各种变型例,并且这些变型例在本发明的范围内。
通过在显示单元19上显示光标或者根据输入装置的类型改变区域的颜色可以帮助音乐数据的选择。即使在触摸面板以外的输入装置中,除了光标等以外,可以使用键、按钮等执行诸如触摸、长按压、轻拂或拖拽的操作。
尽管在本实施例中举例说明了听音乐内容的情况,但是本发明不限于此。例如,在具有音乐数据再现功能单元的电话通信期间,如果期望在聆听的同时选择多个音乐数据,则可以对通信声音和音乐数据执行上述的声音分离处理从而使得即使在通信期间也能够作为预览聆听音乐数据并且进行选择。
此外,本实施例可以用于包括声音数据的运动图像内容。例如,通过运动图像再现和本发明的方法的组合,可以在再现运动图像的同时高效聆听并选择另一个运动图像作为预览。
尽管触摸面板用作用户输入单元18,但是替代它或者除它之外,例如,可以使用诸如鼠标、键盘、轨迹球、按钮、操纵杆或触笔的至少一个输入装置。
尽管在本实施例中虚拟声源的位置限于水平平面内,但是可以在以头部H为中心的三维空间中设置它。
用于在计算机上实现在以上实施例中描述的功能的计算机程序和用于存储该程序的计算机可读存储介质包括在本发明中。用于提供程序的“存储介质”的例子包括磁存储介质(软盘、硬盘、磁带等)、光盘(磁光盘、CD、DVD等)、半导体存储器等。
本领域技术人员应该明白,可以根据设计要求和其它因素想到各种变型、组合、子组合和替代,只要它们位于权利要求及其等同物的范围内即可。

Claims (19)

1.一种信息处理设备,包括:
存储单元,被构造为存储多个音频数据;
接口,被构造为显示与所述多个音频数据中的每一个对应的信息并且接收用于选择所述多个音频数据中的至少一个的输入;
再现单元,被构造为同时再现多个音频数据;
声音处理单元,被构造为处理由再现单元同时再现的多个音频数据;
控制单元,被构造为控制再现单元以再现多个音频数据中的第一音频数据,基于在接口接收的输入启动多个音频数据中的第二音频数据的同时再现,并且控制声音处理单元处理第一和第二音频数据使得可被用户分别听见;以及
输出单元,被构造为输出从声音处理单元输出的第一和第二音频数据。
2.根据权利要求1的信息处理设备,其中,所述接口是触摸面板显示器,该触摸面板显示器被构造为接收触摸输入作为用于选择所述多个音频数据中的至少一个的输入。
3.根据权利要求1的信息处理设备,其中,所述接口被构造为显示字符串作为与所述多个音频数据中的每一个对应的信息。
4.根据权利要求1的信息处理设备,其中,所述接口被构造为显示图形图像作为与所述多个音频数据中的每一个对应的信息。
5.根据权利要求2的信息处理设备,其中,所述控制单元被构造为控制再现单元再现第一音频数据,并且基于检测到在触摸面板显示处接收的与第二音频数据对应的持续触摸输入已经超过预定时长,启动第二音频数据的同时再现。
6.根据权利要求5的信息处理设备,其中,所述控制单元被构造为基于检测到在所述触摸面板显示处接收的持续触摸输入已经结束,控制再现单元停止第二音频数据的再现并且继续第一音频数据的再现。
7.根据权利要求1的信息处理设备,其中,所述控制单元被构造为基于与第二音频数据对应的在所述接口接收的第二输入,控制再现单元停止第一音频数据的再现并且继续第二音频数据的再现。
8.根据权利要求1的信息处理设备,其中,所述输出单元包括数字-模拟转换器,该数字-模拟转换器被构造为将从声音处理单元输出的第一和第二音频数据转换成模拟信号。
9.根据权利要求8的信息处理设备,其中,所述输出单元包括被构造为放大所述模拟信号的放大器。
10.根据权利要求1的信息处理设备,其中,所述声音处理单元包括预处理单元,该预处理单元被构造为控制第一和第二音频数据的增益以使之均衡。
11.根据权利要求1的信息处理设备,其中,所述声音处理单元包括频带分割滤波器,该频带分割滤波器被构造为对第一和第二音频数据执行频带分割处理。
12.根据权利要求11的信息处理设备,其中,所述频带分割滤波器被构造为将可听见的频带分割成多个频带并且将这多个频带中的每一个独占地分配给第一和第二音频数据之一。
13.根据权利要求1的信息处理设备,其中,所述声音处理单元包括时间分割滤波器,该时间分割滤波器被构造为对第一和第二音频数据执行时间分割处理。
14.根据权利要求13的信息处理设备,其中,所述时间分割滤波器被构造为对第一和第二音频数据中的每一个的幅值进行调制从而使得幅值调制后的第一音频数据最大的时间点与幅值调制后的第二音频数据最小的时间点重叠。
15.根据权利要求1的信息处理设备,其中,所述声音处理单元包括处理滤波器,该处理滤波器被构造为对第一和第二音频数据中的至少一个应用预定处理效果。
16.根据权利要求1的信息处理设备,其中,所述声音处理单元还包括定位滤波器,该定位滤波器被构造为处理第一和第二音频数据以区分与第一和第二音频数据中的每一个对应的声源的察觉方向。
17.一种由信息处理设备执行的信息处理方法,该方法包括:
存储多个音频数据;
在信息处理设备的接口显示与所述多个音频数据中的每一个对应的信息;
在所述接口接收用于选择所述多个音频数据中的至少一个的输入;
再现所述多个音频数据中的第一音频数据,并且基于在所述接口接收的输入启动所述多个音频数据中的第二音频数据的同时再现;
处理第一和第二音频数据从而使得第一和第二音频数据可被用户分别听见;以及
输出处理后的第一和第二音频数据。
18.根据权利要求17的信息处理方法,其中,所述接口是触摸面板显示器并且接收触摸输入作为用于选择所述多个音频数据中的至少一个的输入。
19.根据权利要求17的信息处理方法,其中,所述显示包括显示字符串或图形图像作为与所述多个音频数据中的每一个对应的信息。
CN2011101961144A 2010-09-28 2011-07-14 声音处理装置、声音数据选择方法和声音数据选择程序 Pending CN102419997A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US38716010P 2010-09-28 2010-09-28
US61/387,160 2010-09-28

Publications (1)

Publication Number Publication Date
CN102419997A true CN102419997A (zh) 2012-04-18

Family

ID=44118175

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011101961144A Pending CN102419997A (zh) 2010-09-28 2011-07-14 声音处理装置、声音数据选择方法和声音数据选择程序

Country Status (4)

Country Link
US (2) US8903525B2 (zh)
EP (1) EP2434491B1 (zh)
JP (1) JP2012075085A (zh)
CN (1) CN102419997A (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
EP2839461A4 (en) 2012-04-19 2015-12-16 Nokia Technologies Oy AUDIO SCENE APPARATUS
EP2772064A2 (en) * 2012-10-12 2014-09-03 Spotify AB Systems and methods for multi-context media control and playback
US9319445B2 (en) * 2012-10-22 2016-04-19 Spotify Ab Systems and methods for pre-fetching media content
JP2014107764A (ja) * 2012-11-28 2014-06-09 Yamaha Corp 位置情報取得装置、およびオーディオシステム
JP6111611B2 (ja) * 2012-11-16 2017-04-12 ヤマハ株式会社 オーディオアンプ
US20150264502A1 (en) * 2012-11-16 2015-09-17 Yamaha Corporation Audio Signal Processing Device, Position Information Acquisition Device, and Audio Signal Processing System
CN103916523B (zh) * 2013-01-06 2017-12-26 联想(北京)有限公司 一种音频输出方法及电子设备
KR101419764B1 (ko) * 2013-06-07 2014-07-17 정영민 휴대단말기의 음성 이모티콘 제어방법
EP2830332A3 (en) 2013-07-22 2015-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method, signal processing unit, and computer program for mapping a plurality of input channels of an input channel configuration to output channels of an output channel configuration
USD738900S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
US9423998B2 (en) 2014-03-28 2016-08-23 Spotify Ab System and method for playback of media content with audio spinner functionality
WO2016089133A1 (ko) * 2014-12-04 2016-06-09 가우디오디오랩 주식회사 개인 특징을 반영한 바이노럴 오디오 신호 처리 방법 및 장치
US9606620B2 (en) 2015-05-19 2017-03-28 Spotify Ab Multi-track playback of media content during repetitive motion activities
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
US9798514B2 (en) 2016-03-09 2017-10-24 Spotify Ab System and method for color beat display in a media content environment
US10043500B2 (en) * 2016-05-11 2018-08-07 Miq Limited Method and apparatus for making music selection based on acoustic features

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6727830B2 (en) * 1999-01-05 2004-04-27 Microsoft Corporation Time based hardware button for application launch
CN101051505A (zh) * 2006-04-03 2007-10-10 索尼株式会社 再现设备、内容选择方法和程序
CN101361123A (zh) * 2006-11-27 2009-02-04 索尼计算机娱乐公司 声音处理装置和声音处理方法
CN101361124A (zh) * 2006-11-27 2009-02-04 索尼计算机娱乐公司 声音处理装置和声音处理方法
CN101583919A (zh) * 2006-10-06 2009-11-18 索尼电子有限公司 用于视听浏览的图形用户界面

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6453281B1 (en) 1996-07-30 2002-09-17 Vxi Corporation Portable audio database device with icon-based graphical user-interface
US6011851A (en) * 1997-06-23 2000-01-04 Cisco Technology, Inc. Spatial audio processing method and apparatus for context switching between telephony applications
DE19904007A1 (de) 1999-02-02 2000-08-03 Alexander Weggerle TipTec- auf PC basierende Musikbox
JP2002082745A (ja) 2000-09-07 2002-03-22 Sony Corp 情報処理装置及び方法、並びにプログラム格納媒体
GB2374772B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface
KR100739723B1 (ko) * 2005-07-19 2007-07-13 삼성전자주식회사 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US8677273B2 (en) 2007-11-01 2014-03-18 Nokia Corporation System and method for displaying media items
KR20090050577A (ko) 2007-11-16 2009-05-20 삼성전자주식회사 멀티미디어 컨텐츠를 표시 및 재생하는 사용자인터페이스및 그 장치와 제어방법
GB0815362D0 (en) * 2008-08-22 2008-10-01 Queen Mary & Westfield College Music collection navigation
US8493344B2 (en) * 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
JP2011022842A (ja) * 2009-07-16 2011-02-03 Sony Corp 表示装置、表示方法及びプログラム
US8380333B2 (en) * 2009-12-21 2013-02-19 Nokia Corporation Methods, apparatuses and computer program products for facilitating efficient browsing and selection of media content and lowering computational load for processing audio data
US8923995B2 (en) * 2009-12-22 2014-12-30 Apple Inc. Directional audio interface for portable media device
US20120078399A1 (en) 2010-09-29 2012-03-29 Sony Corporation Sound processing device, sound fast-forwarding reproduction method, and sound fast-forwarding reproduction program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6727830B2 (en) * 1999-01-05 2004-04-27 Microsoft Corporation Time based hardware button for application launch
CN101051505A (zh) * 2006-04-03 2007-10-10 索尼株式会社 再现设备、内容选择方法和程序
CN101583919A (zh) * 2006-10-06 2009-11-18 索尼电子有限公司 用于视听浏览的图形用户界面
CN101361123A (zh) * 2006-11-27 2009-02-04 索尼计算机娱乐公司 声音处理装置和声音处理方法
CN101361124A (zh) * 2006-11-27 2009-02-04 索尼计算机娱乐公司 声音处理装置和声音处理方法

Also Published As

Publication number Publication date
US20120078398A1 (en) 2012-03-29
US20150040741A1 (en) 2015-02-12
US8903525B2 (en) 2014-12-02
US9972297B2 (en) 2018-05-15
EP2434491B1 (en) 2016-11-16
EP2434491A1 (en) 2012-03-28
JP2012075085A (ja) 2012-04-12

Similar Documents

Publication Publication Date Title
CN102419997A (zh) 声音处理装置、声音数据选择方法和声音数据选择程序
US10062367B1 (en) Vocal effects control system
US11113022B2 (en) Method, system and interface for controlling a subwoofer in a networked audio system
CN100425072C (zh) 信息处理设备、信息处理方法
CN101681663B (zh) 处理音频数据的设备和方法
US20100306657A1 (en) Audio-Enhanced User Interface for Browsing
US20110085682A1 (en) Apparatus and method for reproducing music in a portable terminal
US20160012853A1 (en) Clip creation and collaboration
CN101228582A (zh) 支持音频缩略图功能的音频再现方法及设备
JP6915722B2 (ja) 車載装置、情報処理装置、携帯端末装置、情報処理システム、車載装置の制御方法およびプログラム
JP5050721B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106462918A (zh) 用于发送播放列表的方法和系统
JP2010205394A (ja) 音源再生装置及び音源選択再生方法
MXPA05007300A (es) Metodo para crear y tener acceso a un menu para contenido de audio sin usar un dispositivo de representacion visual.
EP2463861A1 (en) Audio playback device and method
US8873936B1 (en) System and method for generating a synchronized audiovisual mix
CN101458951A (zh) 具有多功能的影音节目信号处理系统
JP4567111B2 (ja) 情報選択方法、情報選択装置及び記録媒体
CN103327431A (zh) 检索音频信号的方法和再现音频信号的系统
CN105810221A (zh) 一种无线同步音频播放系统
KR101038101B1 (ko) 2차원 어레이 스피커를 위한 오디오 정보 생성 방법 및 이를 위한 기록매체
CN105979468A (zh) 一种音频处理方法及装置
US20240054158A1 (en) Data processing apparatuses and methods
KR101562041B1 (ko) 듀엣 모드의 미디어 콘텐츠 제작 방법 및 이에 사용되는 미디어 콘텐츠 제작 장치
KR100959585B1 (ko) 멀티 트랙 미디어 파일이 기록된 기록매체, 멀티 트랙 미디어 파일 재생 방법, 및 미디어 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Sony Mobile Communications Japan Inc

Co-applicant after: Sony Corp

Address before: Tokyo, Japan

Applicant before: Sony Ericsson Mobile Communication japan Co., Ltd.

Co-applicant before: Sony Corp

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: SONY ERICSSON MOBILE COMMUNICATION JAPAN CO., LTD. TO: SONY MOBILE COMMUNICATIONS AB

C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20120418