CN101556797A - 乐曲再现装置及乐曲再现方法 - Google Patents
乐曲再现装置及乐曲再现方法 Download PDFInfo
- Publication number
- CN101556797A CN101556797A CNA2009101286236A CN200910128623A CN101556797A CN 101556797 A CN101556797 A CN 101556797A CN A2009101286236 A CNA2009101286236 A CN A2009101286236A CN 200910128623 A CN200910128623 A CN 200910128623A CN 101556797 A CN101556797 A CN 101556797A
- Authority
- CN
- China
- Prior art keywords
- noise
- data
- music
- melody
- characteristic quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004458 analytical method Methods 0.000 claims abstract description 100
- 239000000284 extract Substances 0.000 claims description 31
- 230000009467 reduction Effects 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 25
- 239000011435 rock Substances 0.000 description 17
- 230000032258 transport Effects 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 241001269238 Data Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
- G11B2020/10546—Audio or video recording specifically adapted for audio data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明涉及一种乐曲再现装置及乐曲再现方法。该乐曲再现装置包括:声音收集单元,收集周边环境的噪声数据;分析单元,对声音收集单元收集的噪声数据执行频率分析,并且提取显示噪声数据的特征的特征量;噪声参数数据库,按环境来分类噪声数据;以及再现单元,再现已经记录在记录介质中并且按种类分类的乐曲数据,其中,所述分析单元基于提取的噪声数据的特征量,参考噪声参数数据库,对噪声数据进行分类,根据噪声数据的分类结果来选择预先建立对应关系的乐曲的种类,并且从被分类为所选种类的乐曲数据中选择预定的乐曲数据。
Description
相关申请的交叉引用
本发明包含涉及2008年4月7日提交给日本特许厅的日本专利申请JP 2008-099166的主题,通过引用而将其整体并入本文中。
技术领域
本发明涉及一种从记录的乐曲中自动选择并再现即使在环境噪声下也能被容易听到的乐曲的乐曲再现装置、乐曲再现方法以及乐曲再现程序。
背景技术
近年来,一种这样的音乐再现装置已经被投入实际使用,即乐曲被自动分类成多个种类,在用户选择想要的种类时,对应于所选种类的乐曲被自动选择并再现。在这种音乐再现装置中,使用这样一种乐曲分类方法,即凭借该乐曲分类方法,每个乐曲具有的特征量例如乐曲的拍子、码进度(code progress)等被检测,并且基于检测到的特征量,乐曲被自动地分类成多个种类。
例如,在专利文献1(JP-A-2005-274708)中公开了一种分析乐曲并检测诸如拍子、速度感等特征量的方法。例如,在专利文献2(JP-A-2005-275068)中公开了一种分析音频信号中每个音程的信号分量的方法。
此处将示意性描述现有技术中的音乐再现装置。图22示出现有技术的音乐再现装置101的一个例子的使用方式。图22所示的例子示出这样的状态:音乐再现装置101例如便携式音乐再现装置等与头戴式受话器102相连,并且用户正通过头戴式受话器102收听音乐再现装置101中记录的乐曲。在这个例子中,假定多个乐曲已经基于现有技术的乐曲分类方法被分类成若干种类,并且预先已经被记录在音乐再现装置101中。为了解释容易,这里假定音乐再现装置101中记录的乐曲已经被分类到“摇滚(即摇滚乐)”和“古典(即古典乐)”两个种类之一中。另外,对于用户的周边环境,将描述两种环境的情形,例如用户在“火车”上和用户在“咖啡馆”中。
在现有技术的音乐再现装置101中,多个乐曲已经被分类到各个种类中并被记录。例如,乐曲A、乐曲B......先前被分类到“摇滚”种类中并被记录,乐曲C、乐曲D......先前被分类到“古典”种类中并被记录。在用户手动选择想要的种类时,对应于所选种类的乐曲被选择并再现。
考虑用户是根据周边环境噪声水平等选择种类的。例如,当用户在火车中时,由于周边环境噪声水平高,收听被分类到慢节奏的“古典”种类中的乐曲是困难的。因此,在这样的情况下,考虑选择被分类到可以在高环境噪声水平的情形下收听的“摇滚”种类中的乐曲。例如,当用户在咖啡馆中休息时,由于周边环境噪声水平低,在这样的情况下考虑选择被分类到“古典”种类中的乐曲。
随后,将参考图23所示的流程图描述在现有技术的音乐再现装置101中乐曲种类的选择方法。在步骤S101中,开启音乐再现装置101的电源。在步骤S102中,由用户识别周边环境。在步骤S103中,由用户选择根据周边环境噪声水平的种类。例如,当用户在火车中时选择“摇滚”种类,而当用户在咖啡馆时选择“古典”种类。
在步骤S104中,从对应于所选种类的乐曲中选择预定的乐曲并再现。作为被再现的乐曲,例如被分类到所选种类中的多个乐曲可以被随机再现,或可以用预定的再现次序再现。
在步骤S105中,辨别音乐是否被继续收听。如果判断音乐被继续收听,则处理进程返回至步骤S102,由用户再次识别周边环境。如果判断音乐不被继续收听,则处理进程前进至步骤S106,关闭音乐再现装置101的电源,并且结束一系列的处理。
用这种方式,在现有技术的音乐再现装置101中,用户自己识别周边环境并且根据环境噪声水平手动选择乐曲的种类。
发明内容
然而,在前述现有技术的音乐再现装置中,由于用户手动选择种类并再现乐曲,所以即使环境改变,只要种类不改变,被分类到所选种类中的乐曲就仍被连续再现。
例如,当用户在火车中时,由于环境噪声水平高,“摇滚”种类被选择,在音量相对增加的状态下用户收听乐曲。此后,当用户离开火车进入咖啡馆时,如果他照常继续收听被分类到“摇滚”种类中的乐曲,由于环境噪声水平比在火车中的低,则存在这样的问题,即用户因从头戴式受话器中泄漏的声音而给周边的人带来干扰。
例如,也存在下面的问题。由于在火车中收听被分类到“古典”种类中的乐曲是困难的,所以“摇滚”种类被选择,在音量被合适地设置的状态下用户收听乐曲。当另一乐曲被再现时,即使在相同的“摇滚”种类的情形下,由于记录水平或曲调变化大,用户的耳朵将会受损或用户因从头戴式受话器中泄漏的声音而给周边的人带来干扰。
因此,在近年来投入实际使用的音乐再现装置中,除了乐曲被分类成若干种类外,想要的乐曲根据依赖时间的环境变化例如上午或晚上、或用户的情绪也被自动选择并再现。根据这样的装置,例如,音乐再现装置中记录的乐曲被分类到每个时区的种类中,例如分别为上午、中午或午夜,并且利用音乐再现装置中内置的时钟,对应于当前时区的乐曲被自动选择并再现。
然而,类似于上面提及的问题也出现在这样的音乐再现装置中。在基于时间识别环境并且选择乐曲的情形下,例如即使都在上午时区中,由于火车中的周边环境噪声水平与咖啡馆中的不同,选择适于环境的乐曲也是困难的。
因此,希望提供一种可以自动选择即使在环境噪声下也可以容易听到的乐曲的乐曲再现装置、乐曲再现方法以及乐曲再现程序。
根据本发明的实施例,提供一种乐曲再现装置,包括:声音收集单元,收集周边环境的噪声数据;分析单元,对声音收集单元收集的噪声数据执行频率分析,并且提取显示噪声数据的特征的特征量;噪声参数数据库,按环境来分类噪声数据;以及再现单元,再现已经记录在记录介质中并且按种类分类的乐曲数据,其中,所述分析单元基于提取的噪声数据的特征量,参考噪声参数数据库,对噪声数据进行分类,根据噪声数据的分类结果来选择预先建立对应关系的乐曲的种类,并且从被分类为所选种类的乐曲数据中选择预定的乐曲数据。
根据本发明的另一实施例,提供一种乐曲再现装置,包括:声音收集单元,收集周边环境的噪声数据;分析单元,对声音收集单元收集的噪声数据和在记录介质中记录的乐曲数据执行相同的频率分析,并且分别提取显示噪声数据和乐曲数据的特征的特征量;乐曲特征量数据库,与乐曲数据对应地记录提取的乐曲数据的特征量;以及再现单元,再现已经记录在记录介质中的乐曲数据,其中,所述分析单元基于提取的噪声数据的特征量和记录在乐曲特征量数据库中的乐曲数据的特征量,从记录在记录介质中的乐曲数据之中选择预定的乐曲数据。
根据本发明的另一实施例,提供一种乐曲再现方法,包括:声音收集步骤,收集周边环境的噪声数据;分析步骤,对声音收集步骤收集的噪声数据执行频率分析,并且提取显示噪声数据的特征的特征量;以及再现步骤,再现已经记录在记录介质中并且按种类分类的乐曲数据,其中,在所述分析步骤中基于提取的噪声数据的特征量,参考按环境来分类噪声数据的噪声参数数据库,对噪声数据进行分类,根据噪声数据的分类结果选择预先建立对应关系的乐曲的种类,并且从被分类为所选种类的乐曲数据当中选择预定的乐曲数据。
根据本发明的多个实施例,收集周边环境的噪声数据,对收集的噪声数据执行频率分析,提取显示噪声数据的特征的特征量,基于提取的噪声数据的特征量,参考按环境来分类噪声数据的噪声参数数据库,对噪声数据进行分类,根据噪声数据的分类结果来选择预先建立对应关系的乐曲的种类,从被分类为所选种类的乐曲数据中选择预定的乐曲数据。由此,再现与周边环境相符的乐曲数据。
根据本发明的多个实施例,收集周边环境的噪声数据,对收集的噪声数据和记录在记录介质中的乐曲数据执行相同的频率分析,分别提取显示噪声数据和乐曲数据的特征的特征量,基于提取的噪声数据的特征量和记录在乐曲特征量数据库中的乐曲数据的特征量,从记录在记录介质中的乐曲数据之中选择预定的乐曲数据,在所述乐曲特征量数据库中与乐曲数据对应地记录提取的乐曲数据的特征量。由此,再现与周边环境相符的乐曲数据。
根据本发明的多个实施例,从收集的周边环境的噪声数据中提取特征量,基于提取的噪声数据的特征量,从记录介质中记录的乐曲数据之中选择预定的乐曲数据。由此,可以实现根据环境噪声自动选择合适的乐曲的效果。
参考附图,根据以下描述将明白本发明的其它特征和优点,在附图中,同样的附图标记代表相同或类似的部分。
附图说明
图1是示出可以应用于本发明第一实施例的音乐再现装置的一个例子的使用方式的示意图;
图2是示出可以应用于本发明第一实施例的音乐再现装置的一个例子的结构的框图;
图3A-3C是示出环境噪声的频率特性的一个例子的示意图;
图4A-4C是解释环境噪声的特征量的示意图;
图5是解释环境噪声的分类方法的一个例子的框图;
图6A和6B是解释噪声参数数据库的形成方法的示意图;
图7是解释本发明第一实施例中乐曲的种类选择方法的流程图;
图8是解释可以应用于本发明第一实施例的修正的环境噪声的分类方法的一个例子的框图;
图9是示出环境噪声和一个乐曲的频率特性的示意图;
图10是示出环境噪声和另一个乐曲的频率特性的示意图;
图11是示出可以应用于本发明第二实施例的音乐再现装置的一个例子的使用方式的示意图;
图12是解释根据环境噪声的乐曲选择方法的框图;
图13是解释噪声数据和乐曲数据的相似程度的示意图;
图14是解释本发明第二实施例中的乐曲选择方法的流程图;
图15是示出环境噪声和另一个乐曲的频率特性的示意图;
图16是解释噪声数据和乐曲数据的相似程度的示意图;
图17是示出可以应用于本发明第三实施例的音乐再现装置的一个例子的使用方式的示意图;
图18是解释在使用被设于头戴式受话器内的麦克风的情形下环境噪声的分类方法的一个例子的框图;
图19是解释在使用被设于头戴式受话器内的麦克风的情形下的乐曲种类选择方法的流程图;
图20是解释在使用被设于头戴式受话器之外的麦克风的情形下环境噪声的分类方法的一个例子的框图;
图21是解释在使用被设于头戴式受话器之外的麦克风的情形下的乐曲种类选择方法的流程图;
图22是示出现有技术的音乐再现装置的一个例子的使用方式的示意图;
图23是解释在现有技术的音乐再现装置中乐曲的种类选择方法的流程图。
具体实施方式
下面将参考附图描述本发明的一个实施例。在本发明的实施例中,通过分析周边环境噪声提取特征量,根据提取的特征量对环境噪声进行分类。根据环境噪声的分类结果自动选择适于环境噪声水平的乐曲。
将描述本发明第一实施例。在本发明第一实施例中,将麦克风连接至音乐再现装置,通过连接的麦克风收集周边环境噪声。分析收集的环境噪声,基于通过分析获得的环境噪声的特征量对环境噪声进行分类,对于环境噪声的每个分类,自动选择预先建立对应关系的一个乐曲种类。
图1示出可以应用于本发明第一实施例的音乐再现装置的一个例子的使用方式。在图1所示的例子中,示出这样的情形:麦克风20和头戴式受话器2被连接至音乐再现装置1例如便携式音乐再现装置等,用户通过头戴式受话器2收听音乐再现装置1中记录的乐曲。例如,麦克风20被设在头戴式受话器2中,并且在用户已经将头戴式受话器2戴在头上的状态下,收集耳朵位置处听到的环境噪声。
多个乐曲已经被分类成若干种类并且被记录在音乐再现装置1中。对于乐曲的种类分类方法,例如可以使用现有技术的乐曲分类方法。在这个例子中,为了解释容易,假定音乐再现装置1中记录的乐曲已经被分类到“摇滚(即摇滚乐)”和“古典(即古典乐)”两个种类之一中。
通过预定处理来分析麦克风20收集的环境噪声,并根据分析结果对环境噪声进行分类。在这个例子中,对于环境噪声的分析结果,例如它们被分类为“车辆”和“咖啡馆”两种环境之一。在这个例子中,利用不同于乐曲分类的方法对环境噪声进行分类。
环境噪声的分类与乐曲种类之间的对应关系由用户预先设置。例如,使被分类为“车辆”的环境噪声与“摇滚”种类互相对应。使被分类为“咖啡馆”的环境噪声与“古典”种类互相对应。
当用户指示音乐再现装置1根据环境噪声选择乐曲时,音乐再现装置1通过麦克风20收集周边环境噪声并且分析环境噪声。基于环境噪声的分析结果,音乐再现装置1选择对应的乐曲种类并且再现被分类为所选种类的乐曲。例如,当环境噪声被分类为“车辆”时,选择“摇滚”作为乐曲的种类。当环境噪声被分类为“咖啡馆”时,选择“古典”作为乐曲的种类。
现在将参考图2描述可以应用于本发明第一实施例的音乐再现装置1的一个例子的结构。在图2中,没有示出与本发明第一实施例不相关的部分,并且省略其解释。在音乐再现装置1中,通过总线10连接CPU(中央处理单元)11、ROM(只读存储器)12、RAM(随机访问存储器)13、音频信号处理单元14、记录和再现控制单元15、输入处理单元16以及操作单元17。
CPU 11使用RAM 13作为工作存储器,并且根据预先保存在ROM 12中的程序来控制音乐再现装置1的全部操作。例如,CPU 11通过总线10向/从每个单元发送/接收指令和数据,并且控制每个单元。根据操作单元17的操作,这将在后面解释,CPU 11控制记录介质18中记录的乐曲数据的再现。
CPU 11通过输入处理单元16接收麦克风20收集的环境噪声的噪声数据,这将在后面解释,并且分析噪声数据。CPU 11根据分析结果对环境噪声进行合适地分类,并且控制每个分类对应的乐曲数据的再现。
音频输出单元19被连接至音频信号处理单元14。音频信号处理单元14接收乐曲数据作为再现目标,执行对乐曲数据的多种处理例如D/A(数模)转换等,并且将乐曲数据转换为模拟音频信号。如果乐曲数据已经被压缩,则音频信号处理单元14对经过预定压缩系统压缩的乐曲数据执行解压缩处理。音频信号处理单元14通过音频输出单元19输出转换后的模拟音频信号。例如,头戴式受话器2或扬声器可以用作音频输出单元19。
记录介质18被连接至记录和再现控制单元15。记录和再现控制单元15控制将数据记录到记录介质18中,并且控制对记录在记录介质18中的数据的再现。在记录介质18中记录乐曲数据以及在CPU 11分析噪声数据时参考的噪声参数数据库。例如可以使用可分离的非易失性存储器、可分离硬盘或内置在音乐再现装置1中的硬盘作为记录介质18。噪声参数数据库的细节将在后面描述。
麦克风20被连接至输入处理单元16。麦克风20收集环境噪声,将环境噪声的噪声数据转换为模拟音频信号,并且将其输送给输入处理单元16。输入处理单元16对从麦克风20输送来的模拟音频信号执行多种处理例如A/D(模数)转换等,将模拟音频信号转换为数字噪声数据。转换后的噪声数据被输送给CPU 11。
操作单元17设有多种操作旋钮,这些操作旋钮用于操作音乐再现装置1并且根据每个操作旋钮的操作生成控制信号。例如,设有用于再现/停止乐曲数据的再现键和停止键、用于自动选择并再现根据环境噪声的乐曲的操作旋钮、等等。
随后,将描述环境噪声的分类方法。从周边环境中听到的噪声取决于诸如火车或汽车、咖啡馆等内部的环境而不同。这些环境噪声具有取决于环境而不同的特征,例如可听频带中低频带的音量大的情形、高频带的音量大的情形、等等。
图3A、3B和3C分别示出在“咖啡馆”、“火车”和“汽车”中收集的环境噪声的频率特性的例子。这些例子涉及对收集的环境噪声约0.5秒的时间数据进行基于FFT(快速傅立叶变换)的频率分析所获得的频率特性。在图中,横坐标表示频率[Hz],纵坐标表示功率[dB]。从图3A-3C中将会认识到各个频率上的功率值在不同环境中有很大不同。因此,通过提取这样的特征可以辨别用户所在的环境。
在FFT的频率分析中,在被分析的时间数据的样本数被假定为x时,作为功率被获得的频率数据的数目等于x/2。此时,为了提高环境噪声的分析精度,必须提高频率分辨率。为了这个目的,必须将样本数设置为某一大值。例如,假定时间数据的样本数等于32768,则获得的频率数据的数目等于16384。
例如,基于如上面所述获得的环境噪声的频率特性,考虑可以使用每个频率上的数据作为特征量。然而,如果使用16384个频率数据作为环境噪声的特征量,则由于数据量非常大,执行处理将花费很长时间。频率数据与时间相关的波动也增加。因此,这样的方法是不实用的。
为了解决这个问题,例如图4A、4B和4C所示,关注每个环境中频率数据的包络的倾斜度(在图4A-4C每个中的虚线所示的部分)以及包络包围的部分(在图4A-4C每个中的阴影部分)的面积。例如,火车或汽车中低频带的功率比咖啡馆中的大。因此,根据火车或汽车中噪声的频率特性,可以判断包络的倾斜度和包络包围的部分的面积比咖啡馆中噪声的频率特性的相应值大。
因此,在本发明第一实施例中,环境噪声的频率区域中包络的倾斜度以及由包络包围的部分的面积所表示的功率总和被计算作为特征量。
图5是解释环境噪声的分类方法的一个例子的框图。图5所示的环境噪声的分类由CPU 11来执行。在这个例子中,将描述这样的情形:分析环境噪声的频率区域中的包络和功率,以此作为对环境噪声的分析,并且计算它们的分析结果作为环境噪声的特征量。
麦克风20收集的环境噪声的噪声数据T被输送给频率分析单元31。利用短时长的一段预定时间内的噪声数据,例如约0.5秒的输入噪声数据T,频率分析单元31对噪声数据T执行诸如FFT分析、Octave分析等的频率分析,由此获得频率信息S。获得的频率信息S被分别输送给包络分析单元32和功率分析单元33。
基于输入的频率信息S,包络分析单元32分析噪声数据T的频率区域中的包络,并且计算例如通过将预定频率区域中的包络合适地转换为数值所获得的包络信息Pe。在这个例子中,在预定频率区域中包络的倾斜度值被用作包络信息Pe。计算出的包络信息Pe被输送给噪声辨别单元34。
基于输入的频率信息S,功率分析单元33分析噪声数据T的频率区域中的功率,并且计算例如通过将预定频率区域中的功率合适地转换为数值所获得的功率信息Pp。在这个例子中,在预定频率区域中包络包围的部分的面积,即预定频率区域中功率的总和被用作功率信息Pp。计算出的功率信息Pp被输送给噪声辨别单元34。
基于从包络分析单元32输送来的包络信息Pe和从功率分析单元33输送来的功率信息Pp,噪声辨别单元34参考噪声参数数据库35对环境噪声进行分类,并形成显示分类结果的噪声信息。形成的噪声信息被输送给种类选择单元36。
噪声参数数据库35是基于从不同环境的噪声数据中提取的特征量,按环境对噪声数据进行分类时所使用的数据库。在这个例子中,包络信息Pe和功率信息Pp被用作环境噪声的特征量,并且基于特征量对用作比较目标的环境噪声进行分类。在这个例子中,基于噪声参数数据库35,环境噪声被分类为“车辆”或“咖啡馆”。
基于从噪声辨别单元34输送来的噪声信息,种类选择单元36选择与环境噪声的分类对应的乐曲的种类。例如,当环境噪声被分类为“车辆”时,“摇滚”种类被选择,而当环境噪声被分类为“咖啡馆”时,“古典”种类被选择。通过预定的选择方法从被分类到每个种类中的乐曲当中选择乐曲并进行再现。
现在将描述噪声参数数据库35的形成方法。在形成噪声参数数据库的情形下,如图6A所示,首先,在不同环境中实际收集的环境噪声的噪声数据被按环境分类。在这个例子中,例如,收集的噪声数据T被分类为诸如“车辆”、“咖啡馆”等各个环境的噪声数据。这些噪声数据T被输送给频率分析单元37。
频率分析单元37对每个输送来的噪声数据T执行频率分析,由此获得频率信息S。获得的频率信息S被分别输送给包络分析单元38和功率分析单元39。基于频率信息S,包络分析单元38计算每个噪声数据T中的包络信息Pe。基于频率信息S,功率分析单元39计算每个噪声数据T中的功率信息Pp。
随后,如图6B所示,基于计算出的包络信息Pe和功率信息Pp,每个噪声数据T被映射到包络信息Pe和功率信息Pp的二维平面上。通过映射按照例如“车辆”、“咖啡馆”等环境分类的噪声数据T,对于噪声数据T的每个分类在二维平面上形成边界。由此,显示每个分类的边界的边界线被设定。
以这种方式设置的边界线的信息和基于特征量的二维平面的数据被设置为噪声参数数据库35。因此,基于再现乐曲时收集的噪声数据T的特征量,通过参考噪声参数数据库35可以对收集的环境噪声进行分类。例如,基于收集的噪声数据T的包络信息Pe和功率信息Pp,通过参考噪声参数数据库35,如果收集的噪声数据T被识别为在边界线之上,则环境噪声被分类为“车辆”。如果收集的噪声数据T被识别为在边界线之下,则环境噪声被分类为“咖啡馆”。
如果每个分类的边界都是清晰的,则可以通过人为判断来设置边界线。然而,如果每个分类的边界不是清晰的或如果特征量由三维或更多维的元素构成,则由于通过人为判断来设置边界线是困难的,所以优选利用例如数学方法来设置每个分类的边界线。
根据环境噪声的分类,环境噪声的状态被粗略分类为“车辆”、“咖啡馆”、等等,而对环境噪声的具体状态不再分类。换句话说,例如,对于用户在飞机上的情形,环境噪声的状态也被分类为“车辆”,并且用户在图书馆内时环境噪声的状态也被分类为“咖啡馆”。因此,这样的分类被假定为具有一定的模糊度。
现在将参考图7的流程图描述在本发明第一实施例中乐曲的种类选择方法。假定下面的处理除非另外指定都是在CPU 11的控制下执行的。在步骤S1中,开启音乐再现装置1的电源。当在步骤S2中用户操作为操作单元17而设的且用于指示根据周边环境再现乐曲的操作旋钮时,在步骤S3中通过麦克风20收集环境噪声,并且将环境噪声的噪声数据T输送给CPU 11。
在步骤S4中,对收集的环境噪声的噪声数据T执行频率分析,并且计算作为环境噪声的特征量的包络信息Pe和功率信息Pp。在步骤S5中,基于计算出的包络信息Pe和功率信息Pp,通过参考噪声参数数据库对环境噪声进行分类。在这个例子中,收集的环境噪声被分类为“车辆”或“咖啡馆”。
在步骤S6中,基于环境噪声的分类结果选择乐曲的对应种类。例如,当环境噪声被分类为“车辆”时选择“摇滚”种类,而当环境噪声被分类为“咖啡馆”时选择“古典”种类。在步骤S7中,从与所选种类对应的乐曲中选择预定的乐曲,从记录介质18中读出对应的乐曲数据并再现。
在步骤S8中,当再现的乐曲完成时辨别用户是否继续收听音乐。如果判断用户继续收听音乐,则处理进程返回到步骤S3,通过麦克风20再次收集环境噪声。在继续收听乐曲的情形下,例如控制使与所选种类对应的乐曲中除被再现的乐曲之外的相同乐曲不被继续再现,这些乐曲可以随机再现。例如,也可以预先设置每个种类乐曲的再现次序,并以这个次序再现乐曲。
如果在步骤S8中判断用户不继续收听音乐,则处理进程前进至步骤S9,由用户关闭音乐再现装置1的电源,并且结束这一系列的处理。
用这种方式,在本发明第一实施例中,通过连接至音乐再现装置1的麦克风20收集环境噪声,基于从收集的环境噪声中提取的特征量辨别当前的环境。基于辨别的结果选择预先已建立对应关系的乐曲种类。由此,可以自动选择与环境相符的合适的乐曲。
随后,将描述对本发明第一实施例的修正。根据上面提及的、可以应用于第一实施例的环境噪声的分类方法,在计算作为环境噪声的特征量的包络信息Pe和功率信息Pp时,利用具有短时长例如约0.5秒的噪声数据对环境噪声进行分类。因此,环境噪声的分类受到获得噪声数据的短时间的极大影响。
即,例如即使用户在咖啡馆中,环境噪声的特征量对于周围人在谈话的情形与周围人没有交谈的情形也存在大的差异。因此,存在没有合适地进行环境噪声分类的风险。
因此,为了避免这个问题,在本发明第一实施例的修正中,每隔预定的时间就收集环境噪声并进行分类,和预定次数一样多的分类结果被保存到存储器中。基于预定次数的分类结果,利用权重系数对当前的环境噪声进行分类,其中,数据过去时间越长,权重降低得越多。
图8是解释可以应用于本发明第一实施例的修正的环境噪声的分类方法的一个例子的框图。图8所示的环境噪声的分类由CPU 11执行。在这个例子中,将描述这样的情形:按照类似于上面提及的第一实施例的方式,分析环境噪声的频率区域中的包络和功率作为对环境噪声的分析,并且计算这些分析结果作为环境噪声的特征量。用相同的附图标记标明与前述第一实施例类似的部分,并且此处省略它们的解释。
通过对麦克风20收集的环境噪声的噪声数据T执行频率分析而获得的包络信息Pe和功率信息Pp被输送给噪声辨别单元34。基于输送来的包络信息Pe和功率信息Pp,通过参考噪声参数数据库35对环境噪声进行分类,由此形成显示分类结果的噪声信息。形成的噪声信息被输送给转换单元41。
基于输送来的噪声信息,转换单元41将分类结果转换为预定数值。例如,当环境噪声被分类为“车辆”时,分类结果被转换为“0”,而当环境噪声被分类为“咖啡馆”时,分类结果被转换为“1”。根据分类结果转换为数值的数据被输送给存储器42。
存储器42具有可以保存预定次数例如n次的数据的区域。当新数据被输送到存储器42时,保存的数据被逐一移位,在时间上最旧的数据被删除,并且输送来的新数据被保存在存储器42中。
具体而言,例如,当新数据被输送到存储器42时,在存储器42保存的数据中最旧的数据dn被删除,数据dn-1移一位并且作为数据dn被保存到存储器42中。类似地,将数据中d3、d2和d1的每一个移一位,并且将产生的数据作为数据d4、d3和d2保存到存储器42中。新输送来的数据作为数据d1被保存到存储器42中。
保存在存储器42中的数据d1,d2,...dn和分别被输送给乘法器43、43......。
乘法器43、43......对从存储器42输送来的数据d1,d2,...dn分别卷积运算权重系数w1,w2,...wn。权重系数w1,w2,...wn是被配置为决定存储器42中存储的数据的权重的系数,并且被设置为数据过去得时间越长、权重降低得越多,如下面的数值表达式(1)所示。
1≥w1>w2>...wn-1>wn≥0 (1)
作为通过对数据d1,d2,...dn卷积运算权重系数w1,w2,...wn获得的结果的数据被输送到加法器44。加法器44对从乘法器43、43......输送来的作为卷积运算结果的数据分别相加,并且将相加结果输送到第二噪声辨别单元45。
第二噪声辨别单元45计算从加法器44输送来的数据的平均值,并且基于计算结果辨别环境噪声。在这个例子中,当环境噪声被分类为“车辆”时,分类结果被设置为“0”,而当环境噪声被分类为“咖啡馆”时,分类结果被设置为“1”。因此,“0.5”被用作基准,如果平均值超过“0.5”,则将环境噪声的种类辨别为“车辆”。如果平均值等于或小于“0.5”,则将环境噪声的种类辨别为“咖啡馆”。第二噪声辨别单元45形成显示辨别结果的信息,并且将该信息输送给种类选择单元46。
基于显示辨别结果的信息,种类选择单元46选择与环境噪声的分类对应的乐曲的种类。例如,当环境噪声被分类为“车辆”时,“摇滚”种类被选择,而当环境噪声被分类为“咖啡馆”时,“古典”种类被选择。通过预定选择方法从被分类为每个种类的乐曲中选择乐曲并再现。
如上所述,根据本发明第一实施例的修正,每隔预定时间收集环境噪声,并且基于预定次数的环境噪声的分类来选择乐曲的种类。以环境噪声过去时间越长,权重降低越多的方式来执行算术运算。因此,环境噪声的分类精度与根据前述第一实施例的环境噪声的分类方法相比可以被提高。
尽管已经在第一实施例和第一实施例的修正中描述麦克风20被设于头戴式受话器2内的例子,但本发明不限于这样的例子。例如,麦克风20可以被设于头戴式受话器2之外,或也可以设置于音乐再现装置1的外壳等。然而,从麦克风20收集的环境噪声的频率特性等根据麦克风20所设的位置而变。因此,必须考虑到麦克风20所设的位置来形成噪声参数数据库,并且对环境噪声进行分类。
随后,将描述本发明第二实施例。在本发明第二实施例中,对通过连接至音乐再现装置的麦克风收集的环境噪声的特征量与记录在音乐再现装置中的乐曲的特征量进行比较,并且自动选择特征量最相似的乐曲。
在前述第一实施例中,预先使乐曲的种类与环境噪声的分类对应,并且根据环境噪声的分类结果选择乐曲的对应种类。当如上所述地选择乐曲的种类时,由于分析环境噪声的算法和用来分类乐曲种类的算法不同,所以即使在被分类为相同种类的乐曲的情形下,也不总是能选择适合环境噪声的乐曲。在确认环境噪声与乐曲的种类的相似性时,存在这样的风险,即确认处理花费时间。
现在将描述在预定环境噪声下收听乐曲X的情形。图9示出环境噪声和乐曲X的频率特性。环境噪声的包络包围的阴影部分指示被环境噪声遮蔽的区域。基于乐曲数据存在于被遮蔽的区域中的频率分量的声音被基于环境噪声的频率分量的声音淹没,而听到这样的声音是困难的。
在乐曲X已经在这样的环境噪声下被收听的情形下,环境噪声的包络形状与乐曲X的包络形状不同,并且虚线包围的区域A示出的乐曲X的频率分量存在于环境噪声的遮蔽区域中。因此,乐曲X的频率分量中由区域A示出的频率分量被环境噪声的频率分量遮蔽。乐曲X被遮蔽的频率分量是乐曲X的频率分量中具有最大功率的部分,被认为是乐曲X的主要频率分量。因此,由于乐曲的主要部分被环境噪声遮蔽,良好地收听该乐曲是困难的。
因此,为了良好地收听乐曲X,必须适当地提高音量。然而,如果音量被适当地提高,则所有频率分量的功率都增加。由此,本来应该被听见的频率分量的声音——即由长短交替的虚线包围的区域B示出的乐曲X的频率分量的声音——被过大地听到。
图10示出环境噪声和另一乐曲Y的频率特性。在图10所示的例子中,乐曲Y的大部分频率分量存在于阴影区域所示的环境噪声的遮蔽区域中。因此,在这种状态下,乐曲Y的大部分频率分量被遮蔽,收听乐曲Y是困难的。
然而,由于乐曲Y的包络形状与环境噪声的包络形状相似,通过提高音量,乐曲的大部分频率分量都偏离环境噪声的屏蔽区域。由此,乐曲Y可以被合适地收听,而不会被环境噪声淹没。与上述图9所示的乐曲X的情形相比,音量的增加量可以降低。
因此,在本发明第二实施例中,提取环境噪声和乐曲的特征量,并且选择环境噪声的包络形状与乐曲的包络形状相似的乐曲。
图11示出可以应用于本发明第二实施例的音乐再现装置1的一个例子的使用方式。在图11所示的例子中,以类似于第一实施例的方式,通过设于头戴式受话器2内的、连接至音乐再现装置1的麦克风20收集环境噪声。音乐再现装置1适当地分析麦克风20收集的环境噪声,并提取特征量。音乐再现装置1也利用与环境噪声的特征量的提取方法类似的方法适当地分析音乐再现装置1中记录的乐曲,并提取特征量。比较环境噪声的特征量与乐曲的特征量。选择特征量最相似的乐曲。
图12是解释根据环境噪声选择乐曲的方法的框图。图12所示的乐曲的选择由CPU 11执行。在这个例子中,作为对环境噪声和乐曲的分析,频率区域中的包络和功率被分析。将描述这样的例子,即通过分别将环境噪声和乐曲每个的包络和功率转换为数值所获得的信息作为特征量被计算。
麦克风20收集的环境噪声的噪声数据NT被输送给频率分析单元51。频率分析单元51利用具有短时长预定时间的噪声数据例如0.5秒的输入噪声数据NT对噪声数据NT执行诸如FFT分析或Octave分析的频率分析,由此获得频率信息NS。获得的频率信息NS被输送到包络分析单元52和功率分析单元53。
基于输入的频率信息NS,包络分析单元52分析噪声数据NT的频率区域中的包络并且计算例如通过将预定频带中包络的倾斜度转换为数值所获得的包络信息NPe。计算出的包络信息NPe被输送给相似程度辨别单元58。
基于输入的频率信息NS,功率分析单元53分析噪声数据NT的频率区域中的功率并且计算例如通过将预定频带中功率的总和转换为数值所获得的功率信息NPp。计算出的功率信息NPp被输送给相似程度辨别单元58。
音乐再现装置1中记录的乐曲的乐曲数据MT被输送给频率分析单元54。频率分析单元54利用具有短时长预定时间的乐曲数据例如0.5秒的输入乐曲数据MT对乐曲数据MT执行诸如FFT分析或Octave分析的频率分析,由此获得频率信息MS。获得的频率信息MS被输送给包络分析单元55和功率分析单元56。
基于输入的频率信息MS,包络分析单元55分析乐曲数据MT的频率区域中的包络并且计算例如通过将预定频带中包络的倾斜度转换为数值所获得的包络信息MPe。计算出的包络信息MPe被输送给乐曲特征量数据库57。
基于输入的频率信息MS,功率分析单元56分析乐曲数据MT的频率区域中的功率并且计算例如通过将预定频带中功率的总和转换为数值所获得的功率信息MPp。计算出的功率信息MPp被输送给乐曲特征量数据库57。
音乐再现装置1中记录的所有乐曲数据的特征量已经被对应于相应的乐曲记录在乐曲特征量数据库57中。在这个例子中,乐曲数据MT的包络信息MPe和功率信息MPp被记录作为特征量。当音乐再现装置1中新记录乐曲数据时,在包络分析单元55和功率分析单元56中计算出的包络信息MPe和功率信息MPp被输送到乐曲特征量数据库57且对应于相应的乐曲被记录在乐曲特征量数据库57中。
利用噪声数据NT的包络信息NPe和功率信息NPp以及乐曲特征量数据库57中记录的所有乐曲数据MT的包络信息MPe和功率信息MPp,相似程度辨别单元58选择对于环境噪声具有最大相似程度的乐曲。
将描述相似程度辨别单元58中对乐曲与环境噪声的相似程度的辨别方法。例如,现在将考虑噪声数据NT和乐曲数据MT已经被映射到图13所示包络信息Pe和功率信息Pp作为特征量的二维平面上的情形。图13示出麦克风20收集的环境噪声的噪声数据NT以及记录在音乐再现装置1中的乐曲的乐曲数据M1到M9已经被映射的例子。基于环境噪声的噪声数据NT与乐曲的乐曲数据M1到M9之间的位置关系,辨别环境噪声与乐曲的相似程度。
在这样的情形下,认为环境噪声与乐曲最相似的情形就是特征量之间的差异最小的情形。即,乐曲数据中与环境噪声之间的距离L最短的乐曲是与环境噪声最相似的乐曲。通过对噪声数据NT与乐曲数据M1到M9的包络信息之差的平方及其功率信息之差的平方求和来计算环境噪声与乐曲之间的距离。
L=(NPe-MPe)2+(NPp-MPp)2 (2)
在这个例子中,作为基于方程(2)计算噪声数据NT与乐曲数据M1到M9之间的距离L1到L9得到的结果,确定噪声数据NT与乐曲数据M3之间的距离L3最短。因此,乐曲数据M3的乐曲被选择作为与环境噪声最相似的乐曲。
将参考图14描述本发明第二实施例中乐曲的选择方法。假定接下来的处理除非另外指定是在CPU 11的控制下执行的。在步骤S11中,开启音乐再现装置1的电源。在步骤S12中,由用户操作为操作单元17而设的且用于指示根据周围环境噪声再现乐曲的操作旋钮。
在步骤S13中,辨别音乐再现装置1中记录的所有乐曲的特征量是否已经被计算并且存储在乐曲特征量数据库57中。如果判断还没有计算所有乐曲的特征量,则处理进程前进到步骤S14,并且选择用作特征量的计算目标的乐曲。如果判断已经计算所有乐曲的特征量,则处理进程前进到步骤S19。
在步骤S15中,对所选乐曲的乐曲数据MT执行频率分析,并且计算乐曲的包络信息MPe和功率信息MPp。在步骤S16中,保存计算出的包络信息MPe和功率信息MPp。
在步骤S17中,辨别对于用作特征量的计算目标的所有乐曲是否已经计算了特征量。如果判断用作特征量的计算目标的所有乐曲已经计算了特征量,则处理进程前进到步骤S18,并且将计算出的特征量记录到乐曲特征量数据库57中。如果判断还没有计算出用作特征量的计算目标的所有乐曲的特征量,则处理进程返回到步骤S14,并且选择作为特征量的计算目标的另一乐曲。
在步骤S19中,通过麦克风20收集环境噪声,并且将环境噪声的噪声数据NT输送给CPU 11。在步骤S20中,对收集的环境噪声的噪声数据NT执行频率分析,并且计算作为环境噪声的特征量的包络信息NPe和功率信息NPp。在步骤S21中,保存计算出的包络信息NPe和功率信息NPp。
在步骤S22中,利用噪声数据NT的包络信息NPe和功率信息NPp以及乐曲特征量数据库57中记录的包络信息MPe和功率信息MPp,用上述方程(2)计算特征量之间的距离。在计算出的多个距离中计算距离最短的乐曲被选择作为特征量最相似的乐曲。对应于所选乐曲的乐曲数据被从记录介质18读出并再现。
在步骤S23中,辨别当再现乐曲完成时音乐是否被继续收听。如果判断音乐被继续收听,则处理进程返回到步骤S19,并通过麦克风20再次收集环境噪声。
在继续收听乐曲的情形下,当环境噪声不是每次都改变时或当环境噪声的改变较小时,存在这样的风险:假定环境噪声与乐曲的相似程度最大时,与前一个乐曲相同的乐曲将会被选择。因此,在这样的情形下,优选用这样的方式构造装置:设置使曾经被选择的乐曲在预定次数内不再被选择,从而防止出现相同的乐曲被连续再现的情形,并且选择具有第二最大相似程度的乐曲。
如果在步骤S23中判断音乐不被继续收听,则处理进程前进到步骤S24。音乐再现装置1的电源由用户关闭,并且一系列的处理结束。
尽管在这个例子中基于下述假定进行了解释,但本发明不限于这样的例子,所述假定即当步骤S12中指示根据周边环境噪声再现乐曲时,乐曲数据MT的特征量被计算并且记录到乐曲特征量数据库57中。例如,也可以用这样的方式来构造装置:当新的乐曲已经被记录到音乐再现装置1的记录介质18中时,乐曲的特征量被计算并且记录到乐曲特征量数据库57中。
如上所述,在本发明第二实施例中,利用相同的方法提取环境噪声和乐曲的特征量,并且选择特征量最相似的乐曲。因此,诸如音量操作等由用户执行的操作的数目可以被最小化,并且乐曲可以被收听而不会被噪声淹没。
作为根据本发明第二实施例的乐曲选择方法,除了选择环境噪声与乐曲的特征量的相似程度最大的乐曲的方法之外,也考虑选择环境噪声与乐曲的特征量的相似程度最小的乐曲的方法。
例如,现在将考虑在预定环境噪声下收听乐曲Z的情形。图15示出环境噪声和乐曲Z的频率特性。在这种情形下,乐曲Z的包络形状与环境噪声的包络形状有很大不同,被环境噪声遮蔽的区域较小。乐曲Z中具有最大功率的、被认为是乐曲Z的主要部分的频率分量没有被环境噪声遮蔽。因此,认为可以不提高音量就收听乐曲Z。
因此,即使通过选择与环境噪声的相似程度低的乐曲,即与环境噪声的包络形状不同的乐曲,也可以在环境噪声下收听合适的乐曲。
图16示出麦克风20收集的环境噪声的噪声数据NT以及记录在音乐再现装置1中的乐曲的乐曲数据M1到M9已经被映射到包络信息Pe和功率信息Pp作为特征量的二维平面上的例子。
在这样的情形下,认为环境噪声与乐曲相似程度最小的情形就是特征量之间的差异最大的情形。即,与环境噪声之间的距离L最长的乐曲数据的乐曲是与环境噪声相似程度最小的乐曲。因此,基于方程(2)计算噪声数据NT与乐曲数据之间的距离,可以选择与环境噪声的相似程度最小的乐曲。
在这个例子中,作为基于方程(2)计算乐曲数据M1到M9与噪声数据NT之间的距离L1到L9得到的结果,判断噪声数据NT与乐曲数据M7之间的距离L7最长。因此,乐曲数据M7的乐曲被选择作为与环境噪声相似程度最小的乐曲。
在本发明第二实施例中,以类似于前述第一实施例的方式,麦克风20可以被设在头戴式受话器2之外,或也可以设于音乐再现装置1的外壳等。
随后,将描述本发明第三实施例。在本发明第三实施例中,将用于降低噪声的噪声消除功能应用于前述第一实施例。对已执行噪声消除并且噪声已经被降低的环境噪声进行分类,并且根据分类结果自动选择乐曲的种类。
图17示出可以应用于本发明第三实施例的音乐再现装置1′的一个例子的使用方式。在图17所示的例子中,描述这样的状态,即麦克风20或麦克风20′与头戴式受话器2′被连接到音乐再现装置1′,用户通过头戴式受话器2′在收听记录在音乐再现装置1′中的乐曲。
音乐再现装置1′具有噪声消除功能。当开启噪声消除功能时,音乐再现装置1′对麦克风20或麦克风20′收集的环境噪声执行噪声消除,由此降低用户听到的环境噪声。麦克风20被设于例如头戴式受话器2′内,并且收集用户在已经将头戴式受话器2′戴在头上的状态下耳朵位置听到的环境噪声。麦克风20′被设于例如头戴式受话器2′之外。
尽管噪声消除功能可以被开启或关闭,由于在噪声消除功能被关闭的情形下的操作类似于前述第一实施例,所以此处将描述噪声消除功能被开启的情形。
当用户指示音乐再现装置1′根据环境噪声选择乐曲时,音乐再现装置1′利用麦克风20或麦克风20′收集周边环境噪声。在噪声消除功能处于ON(开启)时,在利用噪声消除功能执行噪声降低处理后,分析噪声已经被降低的环境噪声。基于对噪声已经被降低的环境噪声的分析结果,音乐再现装置1′选择对应的乐曲的种类,并且再现被分类为所选种类的乐曲。在噪声消除功能处于OFF(关闭)时,不执行环境噪声的降噪处理。
在使用被设于头戴式受话器2′内的麦克风20时,麦克风20收集用户耳朵位置处的环境噪声。因此,在噪声消除功能处于ON时,麦克风20收集的环境噪声是噪声已经被利用噪声消除功能降低的环境噪声。
在使用被设于头戴式受话器2′之外的麦克风20′时,麦克风20′收集不同于用户耳朵位置处的环境噪声。因此,即使噪声消除功能处于ON,麦克风20′收集的环境噪声也不是噪声已经被利用噪声消除功能降低的环境噪声。
如上所述,在使用被设于头戴式受话器2′内的麦克风20的情形下与在使用被设于头戴式受话器2′之外的麦克风20′的情形下收集的环境噪声的状态不同,所以对于各自的环境噪声必须使用不同的分类方法。
首先,将描述在麦克风20被设于头戴式受话器2′内的情形下的环境噪声的分类方法。如上所述,在使用被设于头戴式受话器2′内的麦克风20的情形下,用户耳朵位置处的环境噪声被收集。因此,当噪声消除功能被开启时,麦克风20收集的环境噪声处于与用户听到的环境噪声类似的降噪状态。
因此,通过对麦克风20收集的、噪声已经被降低的环境噪声进行分类,与用户听到的环境噪声相符的乐曲的种类可以被选择。
图18是解释环境噪声的分类方法的一个例子的框图。图18所示的环境噪声的分类由CPU 11执行。在这个例子中,通过执行类似于前述第一实施例中的处理,环境噪声可以被分类。因此,用相同的附图标记标明与前述第一实施例类似的部分,并且此处省略它们的解释。在噪声消除功能处于ON时,麦克风20收集噪声已经被降低的环境噪声的噪声数据CT(在下文中被称为降噪数据CT)。在噪声消除功能处于OFF时,麦克风20收集环境噪声的噪声数据T。收集的噪声数据T或降噪数据CT被输送到频率分析单元31。
频率分析单元31将通过对输入的噪声数据T或降噪数据CT执行频率分析获得的频率信息S输送给包络分析单元32和功率分析单元33。基于频率信息S,包络分析单元32和功率分析单元33分别计算包络信息Pe和功率信息Pp,并分别将计算结果输送给噪声辨别单元34。基于包络信息Pe和功率信息Pp,噪声辨别单元34参考噪声参数数据库35对环境噪声进行分类,形成显示分类结果的噪声信息,并将其输送到种类选择单元36。
基于从噪声辨别单元34输送来的噪声信息,种类选择单元36选择与环境噪声的分类对应的乐曲的种类。通过预定选择方法从被分类为每个种类的乐曲中选择乐曲并再现。
现在参考图19所示的流程图描述在使用麦克风20收集环境噪声的情形下乐曲的种类的选择方法。除非另外指定,假定下面的处理是在CPU 11的控制下执行的。
在步骤S31中,开启音乐再现装置1′的电源。当在步骤S32中用户指示根据周边环境噪声再现乐曲时,在步骤S33中通过麦克风20收集环境噪声,并且将环境噪声的噪声数据T或被执行噪声消除的降噪数据CT输送给CPU 11。
在步骤S34中,对收集的环境噪声的噪声数据T或降噪数据CT执行频率分析,并且计算作为特征量的包络信息Pe和功率信息Pp。在步骤S35中,基于计算出的包络信息Pe和功率信息Pp,参考噪声参数数据库对环境噪声进行分类。
在步骤S36中,基于环境噪声的分类结果选择乐曲的对应种类。在步骤S37中,从对应于所选种类的乐曲中选择预定的乐曲,从记录介质18读出对应的乐曲数据并再现。
在步骤S38中,当再现的乐曲完成时辨别用户是否继续收听音乐。如果判断用户继续收听音乐,则处理进程返回到步骤S33,通过麦克风20再次收集环境噪声。如果在步骤S38中判断用户不继续收听音乐,则处理进程前进至步骤S39。由用户关闭音乐再现装置1′的电源,并且结束这一系列的处理。
随后,将描述在麦克风20′被设于头戴式受话器2′之外的情形下环境噪声的分类方法。如上所述,在使用被设于头戴式受话器2′之外的麦克风20′的情形下,不同于用户耳朵处的环境噪声被收集。因此,当噪声消除功能被开启时,尽管用户听到的环境噪声被降低,麦克风20′收集的环境噪声也不是噪声已经被降低状态下的噪声。
如上所述,即使在收集的环境噪声被分类时,由于用户实际听到的环境噪声与麦克风20′收集的环境噪声不同,也存在这样的风险,即很难选择与用户听到的环境噪声对应的乐曲的种类。
因此,在这样的情形下,通过对收集的环境噪声执行处理来获得相当于在噪声消除功能处于ON时的环境噪声,对这样获得的降噪的环境噪声进行分类。
图20是解释环境噪声的分类方法的一个例子的框图。图20所示的环境噪声的分类由CPU 11执行。用相同的附图标记标明与前述第一实施例类似的部分,并且此处省略它们的解释。麦克风20′收集的噪声数据T′被输送到均衡滤波器61和选择单元62的一个输入端62a。
均衡滤波器61执行处理,以便获得与当噪声消除功能被用于收集的环境噪声的噪声数据T′时获得的降噪效应类似的效应,由此形成噪声已被降低的降噪数据CT′。形成的降噪数据CT′被输送给选择单元62的另一输入端62b。
在CPU 11的控制下,选择单元62选择输入端62a和62b之一,并将被输送到所选输入端的数据输送到频率分析单元31。例如,在噪声消除功能处于OFF时,输入端62a被选择,噪声数据T′被输送到频率分析单元31。在噪声消除功能处于ON时,输入端62b被选择,降噪数据CT′被输送到频率分析单元31。
频率分析单元31将通过对输入的噪声数据T′或降噪数据CT′执行频率分析获得的频率信息S输送给包络分析单元32和功率分析单元33。基于频率信息S,包络分析单元32和功率分析单元33分别计算包络信息Pe和功率信息Pp,并分别将计算结果输送给噪声辨别单元34。基于包络信息Pe和功率信息Pp,噪声辨别单元34参考噪声参数数据库35对环境噪声进行分类,形成显示分类结果的噪声信息,并将其输送给种类选择单元36。
基于从噪声辨别单元34输送来的噪声信息,种类选择单元36选择与环境噪声的分类对应的乐曲的种类。通过预定选择方法从被分类为每个种类的乐曲中选择乐曲并再现。
不总是必须利用均衡滤波器61对噪声数据T′实现与噪声消除功能的降噪效应严格一致的降噪效应。在这种情况下,不必精确地重建降低的环境噪声,而是将它们重建到可以知道噪声消除功能总体上怎样改变环境噪声的特征量的程度就足够了。
现在将参考图21所示的流程图描述在利用麦克风20′收集环境噪声的情形下的乐曲种类的选择方法。假定下面的处理是在CPU 11的控制下执行的,除非另外指定。
在步骤S41中,开启音乐再现装置1′的电源。当在步骤S42中用户指示根据周边环境噪声再现乐曲时,在步骤S43中通过麦克风20′收集环境噪声,并且将环境噪声的噪声数据T′输送给CPU 11。
在步骤S44中,辨别噪声消除功能是否处于ON。在噪声消除功能处于ON时,处理进程前进至步骤S45。在噪声消除功能处于OFF时,处理进程前进至步骤S46。在步骤S45中执行处理,以便获得与当对收集的环境噪声的噪声数据T′执行噪声消除时获得的降噪效应类似的效应,从而形成噪声已经被降低的环境噪声的降噪数据CT′。
在步骤S46中,对收集的环境噪声的噪声数据T′或降噪数据CT′执行频率分析,并且计算作为特征量的包络信息Pe和功率信息Pp。在步骤S47中,基于计算出的包络信息Pe和功率信息Pp,参考噪声参数数据库,对环境噪声进行分类。
在步骤S48中,基于环境噪声的分类结果,选择乐曲的对应种类。在步骤S49中,从与所选种类对应的乐曲中选择预定的乐曲,从记录介质18中读取对应的乐曲数据并再现。
在步骤S50中,当再现的乐曲完成时辨别用户是否继续收听音乐。如果判断用户继续收听音乐,则处理进程返回到步骤S43,通过麦克风20′再次收集环境噪声。如果在步骤S50中判断用户不继续收听音乐,则处理进程前进至步骤S51。由用户关闭音乐再现装置1′的电源,并且结束这一系列的处理。
如上所述,在本发明第三实施例中,通过将噪声消除功能或相当于噪声消除的处理应用于收集的环境噪声,在收听乐曲时环境噪声被降低。基于从噪声已经被降低的环境噪声中提取的特征量来辨别当前的噪声。基于辨别结果来选择预先建立对应关系的乐曲种类。因此,与环境相符的合适的乐曲可以被自动选择。
即使在高噪声水平例如在“车辆”等内的环境中,在现有技术中不适于环境噪声的乐曲也可以被收听,例如,环境噪声被分类为低噪声水平的环境例如“咖啡馆”等以及被分类为“古典”种类等的乐曲。
虽然在本发明第三实施例中描述了噪声消除功能被应用于前述第一实施例的情形,但本发明不限于这样的例子。例如,噪声消除功能可以被应用于前述第二实施例。在这样的情形下,比较环境噪声的特征量与乐曲的特征量,所述环境噪声中噪声已经被利用噪声消除功能降低,并且选择特征量的相似程度最高或最低的乐曲。利用这种方法,用户可以收听适合环境的乐曲。
虽然上面描述了本发明第一实施例、第一实施例的修正以及第二和第三实施例,但本发明不限于上述的本发明第一实施例、第一实施例的修正以及第二和第三实施例,而可以根据设计要求和其它因素进行不同的修正、组合、子组合和替代,只要其在所附权利要求或其等同物的范围之内。虽然在前述例子中使用频率分析作为环境噪声的分析方法,但本发明不限于这样的例子。例如,可以分析时间波形。
虽然上面描述了例如使用包络和功率作为环境噪声的特征量的情形,但本发明不限于这两个特征量,而可以基于三个或更多特征量对环境噪声进行分类。
虽然在上面的例子中假定环境噪声被分类为“车辆”和“咖啡馆”进行解释,但本发明不限于这样的例子。例如,环境噪声可以被分类为三个和更多种类。另外,乐曲的种类不限于“摇滚”和“古典”,而是环境噪声可以被分类为任何其它种类。例如,环境噪声可以根据用户的情绪被分类为“愉快的乐曲”、“平静的乐曲”等等。
Claims (19)
1.一种乐曲再现装置,包括:
声音收集单元,收集周边环境的噪声数据;
分析单元,对所述声音收集单元收集的噪声数据进行频率分析,并且提取显示所述噪声数据的特征的特征量;
噪声参数数据库,按环境来分类噪声数据;以及
再现单元,再现已经记录在记录介质中并且按种类分类的乐曲数据,
其中,所述分析单元
基于提取的所述噪声数据的特征量,参考所述噪声参数数据库,对所述噪声数据进行分类,根据所述噪声数据的分类结果来选择预先建立对应关系的乐曲的种类,并且从被分类为所述选择的种类的乐曲数据中选择预定的乐曲数据。
2.根据权利要求1的乐曲再现装置,其中,所述分析单元
具有保存预定次数的所述噪声数据的分类结果的存储器,
每隔预定时间对所述噪声数据执行所述分类,并且基于在所述存储器中保存的所述预定次数的分类结果的平均对所述噪声数据进行分类。
3.根据权利要求2的乐曲再现装置,其中,所述分析单元
对在所述存储器中保存的所述预定次数的分类结果卷积运算权重系数,对于所述权重系数,分类结果过去得时间越长,权重降低得越多,并且基于已与所述权重系数进行卷积运算的所述预定次数的所述噪声数据的分类结果的平均,对所述噪声数据进行分类。
4.根据权利要求1的乐曲再现装置,其中,所述分析单元提取所述乐曲数据的预定频率区域中的包络的倾斜度作为所述特征量。
5.根据权利要求1的乐曲再现装置,其中,所述分析单元提取所述乐曲数据的预定频率区域中的功率的总和作为所述特征量。
6.根据权利要求1的乐曲再现装置,其中,所述分析单元还对所述声音收集单元收集的噪声数据执行时间波形分析,并且提取所述噪声数据的特征量。
7.根据权利要求1的乐曲再现装置,还包括降噪单元,降低所述声音收集单元收集的噪声数据的噪声水平,并且
其中,所述分析单元对噪声已经被所述降噪单元降低的噪声数据执行频率分析。
8.根据权利要求7的乐曲再现装置,还包括音频输出单元,输出所述再现单元再现的乐曲数据,并且
其中,所述声音收集单元被设在所述音频输出单元内。
9.根据权利要求7的乐曲再现装置,还包括音频输出单元,输出所述再现单元再现的乐曲数据,并且
其中,所述声音收集单元被设在所述音频输出单元之外。
10.一种乐曲再现装置,包括:
声音收集单元,收集周边环境的噪声数据;
分析单元,对所述声音收集单元收集的噪声数据和记录在记录介质中的乐曲数据执行相同的频率分析,并且分别提取显示所述噪声数据和所述乐曲数据的特征的特征量;
乐曲特征量数据库,在该乐曲特征量数据库中与所述乐曲数据对应地记录提取的所述乐曲数据的特征量;以及
再现单元,再现记录在记录介质中的乐曲数据,
其中,所述分析单元基于提取的所述噪声数据的特征量和记录在所述乐曲特征量数据库中的乐曲数据的特征量,从记录在所述记录介质中的乐曲数据之中选择预定的乐曲数据。
11.根据权利要求10的乐曲再现装置,其中,所述分析单元
将提取的所述噪声数据的特征量与记录在所述乐曲特征量数据库中的乐曲数据的特征量进行比较,并且选择相似程度最大的乐曲数据。
12.根据权利要求10的乐曲再现装置,其中,所述分析单元
将提取的所述噪声数据的特征量与记录在所述乐曲特征量数据库中的乐曲数据的特征量进行比较,并且选择相似程度最小的乐曲数据。
13.根据权利要求10的乐曲再现装置,其中,所述分析单元提取所述乐曲数据的预定频率区域中的包络的倾斜度作为所述特征量。
14.根据权利要求10的乐曲再现装置,其中,所述分析单元提取所述乐曲数据的预定频率区域中的功率的总和作为所述特征量。
15.根据权利要求10的乐曲再现装置,其中,所述分析单元还对所述声音收集单元收集的噪声数据执行时间波形分析,并且提取所述噪声数据的特征量。
16.根据权利要求10的乐曲再现装置,还包括降噪单元,降低所述声音收集单元收集的噪声数据的噪声水平,并且
其中,所述分析单元对噪声已经被所述降噪单元降低的噪声数据执行频率分析。
17.根据权利要求16的乐曲再现装置,还包括音频输出单元,输出所述再现单元再现的乐曲数据,并且
其中,所述声音收集单元被设在所述音频输出单元内。
18.根据权利要求16的乐曲再现装置,还包括音频输出单元,输出所述再现单元再现的乐曲数据,并且
其中,所述声音收集单元被设在所述音频输出单元之外。
19.一种乐曲再现方法,包括:
声音收集步骤,收集周边环境的噪声数据;
分析步骤,对所述声音收集步骤收集的噪声数据进行频率分析,并且提取显示所述噪声数据的特征的特征量;以及
再现步骤,再现已经记录在记录介质中并且按种类分类的乐曲数据,
其中,在所述分析步骤中,基于提取的所述噪声数据的特征量,参考按环境来分类噪声数据的噪声参数数据库,对所述噪声数据进行分类,根据所述噪声数据的分类结果选择预先建立对应关系的乐曲的种类,并且从被分类为所述选择的种类的乐曲数据中选择预定的乐曲数据。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008099166A JP4623124B2 (ja) | 2008-04-07 | 2008-04-07 | 楽曲再生装置、楽曲再生方法および楽曲再生プログラム |
JP2008-099166 | 2008-04-07 | ||
JP2008099166 | 2008-04-07 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011103504779A Division CN102419967A (zh) | 2008-04-07 | 2009-03-12 | 乐曲再现装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101556797A true CN101556797A (zh) | 2009-10-14 |
CN101556797B CN101556797B (zh) | 2012-01-25 |
Family
ID=40565409
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101286236A Expired - Fee Related CN101556797B (zh) | 2008-04-07 | 2009-03-12 | 乐曲再现装置及乐曲再现方法 |
CN2011103504779A Pending CN102419967A (zh) | 2008-04-07 | 2009-03-12 | 乐曲再现装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011103504779A Pending CN102419967A (zh) | 2008-04-07 | 2009-03-12 | 乐曲再现装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8076567B2 (zh) |
JP (1) | JP4623124B2 (zh) |
KR (1) | KR101534346B1 (zh) |
CN (2) | CN101556797B (zh) |
GB (1) | GB2459008B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914136A (zh) * | 2012-12-28 | 2014-07-09 | 索尼公司 | 信息处理装置、信息处理方法和计算机程序 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4591557B2 (ja) * | 2008-06-16 | 2010-12-01 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法および音声信号処理プログラム |
JP4640463B2 (ja) * | 2008-07-11 | 2011-03-02 | ソニー株式会社 | 再生装置、表示方法および表示プログラム |
JP5499633B2 (ja) * | 2009-10-28 | 2014-05-21 | ソニー株式会社 | 再生装置、ヘッドホン及び再生方法 |
US20110184539A1 (en) * | 2010-01-22 | 2011-07-28 | Sony Ericsson Mobile Communications Ab | Selecting audio data to be played back in an audio reproduction device |
US20150179181A1 (en) * | 2013-12-20 | 2015-06-25 | Microsoft Corporation | Adapting audio based upon detected environmental accoustics |
WO2015154814A1 (en) * | 2014-04-10 | 2015-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio system and method for adaptive sound playback during physical activities |
EP3057097B1 (en) * | 2015-02-11 | 2017-09-27 | Nxp B.V. | Time zero convergence single microphone noise reduction |
CN105872884B (zh) * | 2016-05-24 | 2019-09-06 | Tcl通力电子(惠州)有限公司 | 耳机、耳机的下行降噪电路及方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3381074B2 (ja) * | 1992-09-21 | 2003-02-24 | ソニー株式会社 | 音響構成装置 |
CA2107316C (en) * | 1992-11-02 | 1996-12-17 | Roger David Benning | Electronic cancellation of ambient noise in telephone receivers |
JPH06274164A (ja) * | 1993-03-18 | 1994-09-30 | Kawai Musical Instr Mfg Co Ltd | 自動演奏装置 |
EP0907258B1 (en) * | 1997-10-03 | 2007-01-03 | Matsushita Electric Industrial Co., Ltd. | Audio signal compression, speech signal compression and speech recognition |
JP3956263B2 (ja) * | 1999-07-19 | 2007-08-08 | ヤマハ株式会社 | 電話装置 |
JP2001223767A (ja) * | 2000-02-07 | 2001-08-17 | Hitachi Ltd | 携帯電話装置 |
US6910035B2 (en) * | 2000-07-06 | 2005-06-21 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to consonance properties |
JP2004086189A (ja) * | 2002-07-02 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 楽曲検索システム |
CN1682566A (zh) * | 2002-09-13 | 2005-10-12 | 皇家飞利浦电子股份有限公司 | 校准第一麦克风和第二麦克风 |
US8311821B2 (en) | 2003-04-24 | 2012-11-13 | Koninklijke Philips Electronics N.V. | Parameterized temporal feature analysis |
JP4182809B2 (ja) | 2003-05-12 | 2008-11-19 | ソニー株式会社 | ディスク再生装置 |
JP2004361845A (ja) * | 2003-06-06 | 2004-12-24 | Mitsubishi Electric Corp | 移動体における自動選曲システム |
US20050129252A1 (en) * | 2003-12-12 | 2005-06-16 | International Business Machines Corporation | Audio presentations based on environmental context and user preferences |
JP2005252467A (ja) * | 2004-03-02 | 2005-09-15 | Sony Corp | 音響再生方法、音響再生装置および記録メディア |
JP4650662B2 (ja) | 2004-03-23 | 2011-03-16 | ソニー株式会社 | 信号処理装置および信号処理方法、プログラム、並びに記録媒体 |
JP4649859B2 (ja) | 2004-03-25 | 2011-03-16 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
JP2006092430A (ja) | 2004-09-27 | 2006-04-06 | Denso Corp | 音楽再生装置 |
JP4713129B2 (ja) * | 2004-11-16 | 2011-06-29 | ソニー株式会社 | 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置 |
CN1783892A (zh) * | 2004-12-02 | 2006-06-07 | 华为技术有限公司 | 移动终端中自动切换情景模式的实现方法及其装置 |
JP4209838B2 (ja) * | 2004-12-15 | 2009-01-14 | 株式会社ケンウッド | 車載マルチメディアシステム、車載マルチメディア装置およびポータブルプレーヤ |
JP2006251054A (ja) | 2005-03-08 | 2006-09-21 | Yamaha Corp | 楽音制御装置 |
JP4550888B2 (ja) * | 2005-03-31 | 2010-09-22 | パイオニア株式会社 | 音出力制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 |
JP2007088521A (ja) | 2005-09-16 | 2007-04-05 | Nec Saitama Ltd | イヤホンの音漏れ防止装置、方法、プログラム及び携帯電話無線機 |
JP2007110481A (ja) * | 2005-10-14 | 2007-04-26 | Fujitsu Ten Ltd | 音声制御装置、補正装置 |
KR100749045B1 (ko) * | 2006-01-26 | 2007-08-13 | 삼성전자주식회사 | 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치 |
JP4517401B2 (ja) * | 2006-03-03 | 2010-08-04 | 日本ビクター株式会社 | 音楽再生装置、音楽再生プログラム、音楽再生方法、楽曲選択装置、楽曲選択プログラム、及び楽曲選択方法 |
JP2007266803A (ja) * | 2006-03-28 | 2007-10-11 | Nec Saitama Ltd | 着信メロディ機能付通信機 |
JP4322283B2 (ja) * | 2007-02-26 | 2009-08-26 | 独立行政法人産業技術総合研究所 | 演奏判定装置およびプログラム |
-
2008
- 2008-04-07 JP JP2008099166A patent/JP4623124B2/ja not_active Expired - Fee Related
-
2009
- 2009-02-17 US US12/372,120 patent/US8076567B2/en not_active Expired - Fee Related
- 2009-02-19 GB GB0902843A patent/GB2459008B/en not_active Expired - Fee Related
- 2009-03-12 CN CN2009101286236A patent/CN101556797B/zh not_active Expired - Fee Related
- 2009-03-12 CN CN2011103504779A patent/CN102419967A/zh active Pending
- 2009-04-06 KR KR1020090029575A patent/KR101534346B1/ko active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914136A (zh) * | 2012-12-28 | 2014-07-09 | 索尼公司 | 信息处理装置、信息处理方法和计算机程序 |
CN103914136B (zh) * | 2012-12-28 | 2018-09-21 | 索尼公司 | 信息处理装置、信息处理方法和计算机程序 |
Also Published As
Publication number | Publication date |
---|---|
JP4623124B2 (ja) | 2011-02-02 |
KR101534346B1 (ko) | 2015-07-06 |
US8076567B2 (en) | 2011-12-13 |
KR20090107001A (ko) | 2009-10-12 |
CN101556797B (zh) | 2012-01-25 |
CN102419967A (zh) | 2012-04-18 |
GB2459008B (en) | 2010-11-10 |
JP2009251276A (ja) | 2009-10-29 |
US20090249942A1 (en) | 2009-10-08 |
GB0902843D0 (en) | 2009-04-08 |
GB2459008A (en) | 2009-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101556797B (zh) | 乐曲再现装置及乐曲再现方法 | |
JP5512126B2 (ja) | オーディオ入力信号についての特徴のセットを導出する方法 | |
JP4640463B2 (ja) | 再生装置、表示方法および表示プログラム | |
CN103050126A (zh) | 音频信号处理设备、音频信号处理方法及程序 | |
CN101625868B (zh) | 音量调节设备和音量调节方法 | |
US20170061978A1 (en) | Real-time method for implementing deep neural network based speech separation | |
CN1998044B (zh) | 音频信号分类方法和系统 | |
CN101023469A (zh) | 数字滤波方法和装置 | |
CN112908344B (zh) | 一种鸟鸣声智能识别方法、装置、设备和介质 | |
CN101165779B (zh) | 信息处理装置和方法、程序及记录介质 | |
CN111859011A (zh) | 音频处理方法、装置、存储介质及电子设备 | |
WO2012040577A1 (en) | Systems and methods for multiple pitch tracking | |
Eklund | Data augmentation techniques for robust audio analysis | |
CN117975995A (zh) | 一种场景感知与事件分类的多任务声学分析方法 | |
CN109767784A (zh) | 鼾声识别的方法及装置、存储介质和处理器 | |
Cui et al. | Research on audio recognition based on the deep neural network in music teaching | |
CN110739006B (zh) | 音频处理方法、装置、存储介质及电子设备 | |
Shibuya et al. | Audio fingerprinting robust against reverberation and noise based on quantification of sinusoidality | |
CN105632523A (zh) | 调节音频数据的音量输出值的方法和装置及终端 | |
JP5126281B2 (ja) | 楽曲再生装置 | |
CN113945265B (zh) | 一种多声音区域的音频隔离度检测方法、装置及系统 | |
Garoufis et al. | HTMD-Net: A Hybrid Masking-Denoising Approach to Time-Domain Monaural Singing Voice Separation | |
Horsburgh et al. | Music-inspired texture representation | |
JP4021851B2 (ja) | 音声信号を特徴付ける方法 | |
US20240079022A1 (en) | General speech enhancement method and apparatus using multi-source auxiliary information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120125 Termination date: 20210312 |