KR101534346B1 - 악곡 재생 장치, 악곡 재생 방법 및 기록 매체 - Google Patents

악곡 재생 장치, 악곡 재생 방법 및 기록 매체 Download PDF

Info

Publication number
KR101534346B1
KR101534346B1 KR1020090029575A KR20090029575A KR101534346B1 KR 101534346 B1 KR101534346 B1 KR 101534346B1 KR 1020090029575 A KR1020090029575 A KR 1020090029575A KR 20090029575 A KR20090029575 A KR 20090029575A KR 101534346 B1 KR101534346 B1 KR 101534346B1
Authority
KR
South Korea
Prior art keywords
noise
music
data
noise data
unit
Prior art date
Application number
KR1020090029575A
Other languages
English (en)
Other versions
KR20090107001A (ko
Inventor
시로 스즈끼
지사또 게모찌
스스께 다까하시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20090107001A publication Critical patent/KR20090107001A/ko
Application granted granted Critical
Publication of KR101534346B1 publication Critical patent/KR101534346B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data

Abstract

악곡 재생 장치는, 주위 환경의 소음 데이터를 수음하는 수음부(sound collecting)와, 수음부에 의해 수음된 소음 데이터에 대하여 주파수를 해석하고, 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석부와, 소음 데이터를 환경마다 분류하는 소음 파라미터 데이터베이스와, 기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생부를 포함하며, 해석부는, 소음 데이터의 추출된 특징량에 기초하여, 소음 파라미터 데이터베이스를 참조하여 소음 데이터를 분류하고, 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하고, 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다.
Figure R1020090029575
악곡 재생, 환경 소음 레벨, 악곡 분류, 엔벨로프 정보

Description

악곡 재생 장치, 악곡 재생 방법 및 기록 매체{MUSIC PIECE REPRODUCING APPARATUS, MUSIC PIECE REPRODUCING METHOD AND RECORDING MEDIUM}
관련 출원의 교차 참조
본 발명은 2008년 4월 7일에 일본 특허청에 출원된 일본 특허 출원 JP 2008-099166과 관련된 기술 내용을 포함하며, 그 전체 내용은 이하 참조된다.
본 발명은, 기록된 악곡 중에서, 환경 소음(environmental noises) 하에서도 청취하기 쉬운 악곡을 자동으로 선택하여 재생하는 악곡 재생 장치, 악곡 재생 방법 및 악곡 재생 프로그램에 관한 것이다.
최근, 악곡을 다양한 카테고리로 자동으로 분류하고, 사용자가 희망하는 카테고리를 선택함으로써, 선택된 카테고리에 대응하는 악곡을 자동으로 선택하여 재생하는 음악 재생 장치가 실용화되고 있다. 이와 같은 음악 재생 장치에서는, 악곡의 템포나 코드 진행 등, 각각의 악곡이 갖는 특징량(feature amount)을 검출하여, 검출된 특징량에 기초하여 악곡을 다양한 카테고리로 자동으로 분류하는 악곡 분류 방법이 이용되고 있다.
예를 들면, 하기의 특허 문헌 1에는, 악곡을 해석하고, 템포나 스피드감 등 의 특징량을 검출하는 방법이 기재되어 있다. 또한, 예를 들면, 하기의 특허 문헌 2에는, 음성 신호에서의 각 음정(musical interval)의 신호 성분을 해석하는 방법이 기재되어 있다.
[특허 문헌 1] 일본 특허 공개 제2005-274708호 공보
[특허 문헌 2] 일본 특허 공개 제2005-275068호 공보
여기에서, 종래의 음악 재생 장치에 대하여 개략적으로 설명한다. 도 22는, 종래의 음악 재생 장치(101)의 일례의 사용 형태를 나타낸다. 도 22에 도시한 예는, 휴대형 음악 재생 장치 등의 음악 재생 장치(101)와 헤드폰(102)이 접속되고, 사용자가 헤드폰(102)을 통하여, 음악 재생 장치(101)에 기록된 악곡을 청취하고 있는 상태를 나타낸다. 또한, 이 예에서는, 복수의 악곡이 종래의 악곡 분류 방법에 기초하여 카테고리 분류되어, 음악 재생 장치(101)에 미리 기록되어 있는 것으로 한다. 또한, 여기에서는, 설명의 편의를 위해서, 음악 재생 장치(101)에 기록된 악곡이 "락(즉, 락 뮤직)"및 "클래식(즉, 클랙식 음악)"의 2개의 카테고리 중 어느 하나의 카테고리로 분류되어 있는 것으로 한다. 또한, 사용자의 주위 환경에 대해서는, "전철"을 타고 있는 상태 및 "커피숍"에 있는 상태의 2가지 환경인 경우에 대하여 설명한다.
종래의 음악 재생 장치(101)에서는, 복수의 악곡이 카테고리마다 분류되어 기록되어 있다. 예를 들면, 악곡 A, 악곡 B, …가 "락"의 카테고리로 분류되고, 악곡 C, 악곡 D, …가 "클래식"의 카테고리로 미리 분류되어 기록되어 있다. 그리고, 사용자가 희망 카테고리를 수동으로 선택함으로써, 선택된 카테고리에 대응하 는 악곡이 선택되어 재생되도록 한다.
사용자에 의한 카테고리의 선택은, 주위의 환경 소음 레벨 등에 따라서 행해진다고 생각된다. 예를 들면, 사용자가 전철을 타고 있는 경우에는, 주위의 환경 소음 레벨이 높기 때문에, 느린 곡조인 "클래식"의 카테고리로 분류된 악곡을 청취하는 것이 곤란하다. 따라서, 이 경우에는, 높은 환경 소음 레벨의 상황에서 청취할 수 있는 "락"의 카테고리로 분류된 악곡이 선택된다고 생각된다. 또한, 예를 들면, 사용자가 커피숍에서 편히 쉬고 있는 경우에는, 주위의 환경 소음 레벨이 낮기 때문에, 이 경우에는, "클래식"의 카테고리로 분류된 악곡이 선택된다고 고려된다.
다음으로, 도 23에 도시한 플로우차트를 이용하여, 종래의 음악 재생 장치(101)에서의 악곡의 카테고리의 선택 방법에 대하여 설명한다. 스텝 S101에서, 음악 재생 장치(101)의 전원이 ON으로 된다. 스텝 S102에서는, 사용자에 의해 주위 환경이 인식된다. 스텝 S103에서, 사용자에 의해 주위의 환경 소음 레벨에 따른 카테고리가 선택된다. 예를 들면, 사용자가 전철을 타고 있는 경우에는, "락"의 카테고리가 선택되고, 커피숍에 있는 경우에는, "클래식"의 카테고리가 선택된다.
스텝 S104에서는, 선택된 카테고리에 대응하는 악곡 중에서 소정의 악곡이 선택되어 재생된다. 재생되는 악곡은, 예를 들면, 선택된 카테고리로 분류된 복수의 악곡을 랜덤하게 재생하여도 되고, 미리 정해진 재생 순서에 따라서 재생하도록 해도 된다.
스텝 S105에서, 음악을 계속해서 청취할지의 여부가 판단된다. 음악을 계속해서 청취한다고 판단한 경우에는, 처리가 스텝 S102로 되돌아가고, 사용자에 의해 주위 환경이 다시 인식된다. 한편, 음악을 청취하지 않는다고 판단한 경우에는, 처리가 스텝 S106으로 이행되고, 음악 재생 장치(101)의 전원이 OFF로 되어, 일련의 처리가 종료된다.
이와 같이, 종래의 음악 재생 장치(101)에서는, 사용자 자신이 주위 환경을 인식하고, 환경 소음 레벨에 따라서 악곡의 카테고리를 수동으로 선택한다.
그런데, 전술한 종래의 음악 재생 장치에서는, 사용자가 카테고리를 수동으로 선택하여 악곡을 재생하도록 하고 있기 때문에, 환경이 변화되더라도, 카테고리를 변경하지 않는 한, 선택되어 있는 카테고리로 분류된 악곡을 계속해서 재생한다.
예를 들면, 사용자가 전철 안에 있는 경우, 환경 소음 레벨이 높기 때문에, "락"의 카테고리를 선택하고, 사용자는 비교적 볼륨을 높인 상태에서 악곡을 청취한다. 그 후, 전철을 내려 커피숍에 들어가서, 그대로 "락"의 카테고리로 분류된 악곡을 계속해서 청취하면, 환경 소음 레벨이 전철 안보다도 낮기 때문에, 헤드폰으로부터의 음 누출(sound leakage)에 의해 주위에 피해를 주게 된다는 문제점이 생긴다.
또한, 예를 들면, 이하의 문제점이 발생한다. 전철 안에서는 "클래식"의 카 테고리로 분류된 악곡을 청취하는 것이 곤란하기 때문에, "락"의 카테고리를 선택하고, 사용자는 볼륨을 적절하게 설정한 상태에서 악곡을 청취한다. 그리고, 다음 악곡이 재생될 때에, 동일한 "락"의 카테고리더라도, 녹음 레벨이나 곡조가 크게 변화되기 때문에, 사용자의 귀를 아프게 하거나, 헤드폰으로부터의 음 누출에 의해 주위에 피해를 주게 된다.
따라서, 최근에는, 악곡을 카테고리 분류하는 것 외에, 아침이나 밤 등의 시간적인 환경 변화나, 사용자의 기분에 맞춰서 희망 악곡을 자동으로 선택하여 재생하는 음악 재생 장치도 실용화되고 있다. 이러한 장치에 따라, 예를 들면, 음악 재생 장치에 기록된 악곡을 아침이나 낮, 심야 등의 시간대마다의 카테고리로 각각 분류하고, 음악 재생 장치에 내장된 시계를 이용하여, 현재의 시간대에 대응하는 악곡을 자동으로 선택하여 재생한다.
그러나, 이와 같은 음악 재생 장치의 경우에도, 전술과 마찬가지의 문제가 생기게 된다. 시간에 기초하여 환경을 인식하여 악곡을 선택하는 경우, 예를 들면, 아침의 시간대여도, 전철 내부나 커피숍에서는 주위의 환경 소음 레벨이 서로 다르기 때문에, 환경에 적합한 악곡을 선택하는 것은 곤란하다.
따라서, 본 발명의 목적은, 환경 소음하에서도 청취하기 쉬운 악곡을 자동으로 선택할 수 있는 악곡 재생 장치, 악곡 재생 방법 및 악곡 재생 프로그램을 제공하는 것에 있다.
본 발명의 일 실시예에 따라, 주위 환경의 소음 데이터를 수음(collect)하는 수음부(sound collecting unit)와, 수음부에 의해 수음된 소음 데이터에 대하여 주파수를 해석하고, 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석부(analyzing unit)와, 소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스와, 기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생부를 구비하는 악곡 재생 장치가 제공되며, 해석부는 추출된 소음 데이터의 특징량에 기초하여, 소음 파라미터 데이터베이스를 참조하여 소음 데이터를 분류하고, 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하여, 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다.
본 발명의 다른 실시예에 따라, 주위 환경의 소음 데이터를 수음하는 수음부와, 수음부에 의해 수음된 소음 데이터 및 기록 매체에 기록된 악곡 데이터에 대하여 동일한 주파수를 해석하고, 소음 데이터 및 악곡 데이터의 특징을 나타내는 특징량을 각각 추출하는 해석부와, 추출된 악곡 데이터의 특징량을 악곡 데이터와 대응해서 기록하는 악곡 특징량 데이터베이스와, 기록 매체에 기록된 악곡 데이터를 재생하는 재생부를 구비하는 악곡 재생 장치가 제공되며, 해석부는 추출된 소음 데이터의 특징량과, 악곡 특징량 데이터베이스에 기록된 악곡 데이터의 특징량에 기초하여, 기록 매체에 기록된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다.
본 발명의 또 다른 실시예에 따라, 주위 환경의 소음 데이터를 수음하는 수음 스텝과, 수음 스텝에 의해 수음된 소음 데이터에 대하여 주파수를 해석하고, 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석 스텝과, 기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생 스텝을 구비하는 악곡 재생 방법이 제공되며, 해석 스텝은, 추출된 소음 데이터의 특징량에 기초하여, 소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스를 참조하여 소음 데이터를 분류하고, 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하여, 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다.
본 발명의 실시예에 따라, 주위 환경의 소음 데이터를 수음하고, 수음된 소음 데이터에 대하여 주파수를 해석하고, 소음 데이터의 특징을 나타내는 특징량을 추출하고, 추출된 소음 데이터의 특징량에 기초하여, 소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스를 참조하여 소음 데이터를 분류하고, 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하여, 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다. 따라서, 주위 환경에 따른 악곡 데이터가 재생된다.
본 발명의 실시예에 따라, 주위 환경의 소음 데이터를 수음하고, 수음된 소음 데이터 및 기록 매체에 기록된 악곡 데이터에 대하여 동일한 주파수를 해석하고, 소음 데이터 및 악곡 데이터의 특징을 나타내는 특징량을 각각 추출하고, 추출된 소음 데이터의 특징량과, 추출된 악곡 데이터의 특징량을 악곡 데이터와 대응해서 기록하는 악곡 특징량 데이터베이스에 기록된 악곡 데이터의 특징량에 기초하여, 기록 매체에 기록된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다. 따라서, 주위 환경에 따른 악곡 데이터가 재생된다.
본 발명의 실시예에 따라, 주위 환경의 수음된 소음 데이터로부터 특징량을 추출하고, 추출된 소음 데이터의 특징량에 기초하여, 기록 매체에 기록된 악곡 데이터 중에서 소정의 악곡 데이터를 선택한다. 따라서, 환경 소음에 따라서 적절한 악곡을 자동으로 선택할 수 있다고 하는 효과가 있다.
본 발명의 다른 특징 및 장점은 첨부 도면과 관련해서 후술되는 이하의 설명으로부터 명백해지며, 도면에서 유사한 참조 부호는 도면에서 동일하거나 유사한 부분을 나타낸다.
이하, 본 발명의 실시예에 대하여, 도면을 참조하면서 설명한다. 본 발명의 실시예에서는, 주위의 환경 소음을 해석하여 특징량을 추출하고, 추출한 특징량에 따라서 환경 소음을 분류한다. 그리고, 환경 소음의 분류 결과에 따라서, 환경 소음 레벨에 적합한 악곡을 자동으로 선택한다.
본 발명의 제1 실시예에 대하여 설명한다. 본 발명의 제1 실시예에서는, 음악 재생 장치에 마이크로폰을 접속하고, 접속된 마이크로폰으로부터 주위의 환경 소음을 수음한다. 그리고, 수음된 환경 소음을 해석하고, 해석에 의해 얻어진 환경 소음의 특징량에 기초하여 환경 소음을 분류하고, 환경 소음의 분류마다 미리 대응된 악곡의 카테고리를 자동으로 선택한다.
도 1은, 본 발명의 제1 실시예에 적용 가능한 음악 재생 장치(1)의 일례의 사용 형태를 나타낸다. 도 1에 도시한 예에서는, 휴대형 음악 재생 장치 등의 음악 재생 장치(1)에 대하여 마이크로폰(20)(이하, 마이크(20)라고 적절히 칭함) 및 헤드폰(2)이 접속되고, 사용자가 헤드폰(2)을 통하여, 음악 재생 장치(1)에 기록된 악곡을 청취하고 있는 상태를 나타낸다. 마이크(20)는, 예를 들면, 헤드폰(2)의 내부에 설치되고, 사용자가 헤드폰(2)을 머리에 장착한 상태에서의 귀의 위치에서 들리는 환경 소음을 수음한다.
음악 재생 장치(1)에는, 복수의 악곡이 카테고리로 분류되어 기록된다. 악곡의 카테고리 분류 방법으로서는, 예를 들면, 종래의 악곡 분류 방법을 이용할 수 있다. 이 예에서는, 설명의 편의를 위해서, 음악 재생 장치(1)에 기록된 악곡이 "락(즉, 락 뮤직)" 및 "클래식(즉, 클래식 음악)"의 2개의 카테고리 중 어느 하나로 분류된다.
마이크(20)에 의해 수음된 환경 소음은, 소정의 처리에 의해서 해석되고, 해석 결과에 따라서 분류된다. 이 예에서는, 환경 소음의 해석 결과로서, 예를 들면, "교통 수단" 및 "커피숍"의 2개의 환경 중 어느 하나로 분류된다. 또한, 이 예에서는, 악곡을 분류하는 방법과는 다른 방법을 이용하여, 환경 소음의 분류를 수행한다.
환경 소음의 분류와 악곡의 카테고리의 대응 관계는, 사용자에 의해 미리 설정된다. 예를 들면, "교통 수단"으로 분류된 환경 소음과 "락"의 카테고리가 서로 대응된다. "커피숍"으로 분류된 환경 소음과 "클래식"의 카테고리가 서로 대응된다.
사용자가 음악 재생 장치(1)에 대하여 환경 소음에 따른 악곡 선택을 지시하면, 음악 재생 장치(1)는, 마이크(20)에 의해 주위의 환경 소음을 수음하고, 환경 소음을 해석한다. 그리고, 음악 재생 장치(1)는, 환경 소음의 해석 결과에 기초하 여, 대응된 악곡의 카테고리를 선택하고, 선택된 카테고리로 분류된 악곡을 재생한다. 예를 들면, 환경 소음이 "교통 수단"으로 분류된 경우에는, 악곡의 카테고리로서 "락"이 선택된다. 또한, 환경 소음이 "커피숍"으로 분류된 경우에는, 악곡의 카테고리로서 "클래식"이 선택된다.
본 발명의 제1 실시예에 적용 가능한 음악 재생 장치(1)의 일례의 구성에 대하여, 도 2를 참조하여 설명한다. 또한, 도 2에서는, 본 발명의 제1 실시예와 관계가 없는 부분에 대해서는 도시하지 않고, 설명을 생략한다. 음악 재생 장치(1)는, CPU(11; Central Processing Unit), ROM(12; Read Only Memory), RAM(13; Random Access Memory), 음성 신호 처리부(14), 기록 재생 제어부(15), 입력 처리부(16) 및 조작부(17)가 버스(10)를 통해서 접속되어 있다.
CPU(11)는, RAM(13)을 워크 메모리로서 이용하고, ROM(12)에 미리 기억된 프로그램에 따라서 음악 재생 장치(1)의 전체 동작을 제어한다. 예를 들면, CPU(11)는, 버스(10)를 통해서 각 부와 커맨드 및 데이터를 송수신한다. 또한, CPU(11)는, 후술하는 조작부(17)에 대한 조작에 따라서, 기록 매체(18)에 기록된 악곡 데이터의 재생을 제어한다.
CPU(11)는, 후술하는 마이크(20)에 의해 수음된 환경 소음의 소음 데이터를 입력 처리부(16)를 통해서 수취하고, 소음 데이터의 해석을 수행한다. 그리고, 해석 결과에 따라서 환경 소음을 적절하게분류하고, 분류마다 대응된 악곡 데이터의 재생을 제어한다.
음성 신호 처리부(14)에는, 음성 출력부(19)가 접속된다. 음성 신호 처리 부(14)는, 재생 대상인 악곡 데이터를 수취하고, 악곡 데이터에 대하여 D/A(Digital/Analog) 변환 등의 각종 처리를 실시하여, 악곡 데이터를 아날로그 음성 신호로 변환한다. 또한, 악곡 데이터가 압축되어 있는 경우에는, 음성 신호 처리부(14)는 소정의 압축 방식을 이용하여 감압 처리(decompressing process)를 실시한다. 그리고, 음성 신호 처리부(14)는, 변환된 아날로그 음성 신호를, 음성 출력부(19)를 통하여 출력한다. 음성 출력부(19)로서는, 예를 들면, 헤드폰(2)이나 스피커를 이용할 수 있다.
기록 재생 제어부(15)에는 기록 매체(18)가 접속된다. 기록 재생 제어부(15)는, 기록 매체(18)에 대한 데이터의 기록 제어나, 기록 매체(18)에 기록된 데이터의 재생 제어를 행한다. 기록 매체(18)에는, 악곡 데이터나, CPU(11)에서의 소음 데이터의 해석시에 참조되는 소음 파라미터 데이터베이스가 기록되어 있다. 기록 매체(18)로서는, 예를 들면, 착탈 가능한 비휘발성 메모리나, 착탈 가능 하드 디스크 또는 음악 재생 장치(1)에 내장되는 하드 디스크를 이용할 수 있다. 또한, 소음 파라미터 데이터베이스의 상세에 대해서는 후술한다.
입력 처리부(16)에는, 마이크(20)가 접속된다. 마이크(20)는, 환경 소음을 수음하고, 환경 소음의 소음 데이터를 아날로그 음성 신호로 변환하여, 입력 처리부(16)에 공급한다. 입력 처리부(16)는, 마이크(20)로부터 공급된 아날로그 음성 신호에 대하여 A/D(Analog/Digital) 변환 등의 각종 처리를 실시하고, 아날로그 음성 신호를 디지털 소음 데이터로 변환한다. 변환된 소음 데이터는 CPU(11)에 공급된다.
조작부(17)는 음악 재생 장치(1)를 조작하기 위해 이용되는 각종 조작자(operation knobs)가 설치되고, 각 조작자의 조작에 따른 제어 신호를 생성한다. 예를 들면, 악곡 데이터를 재생/정지하기 위한 재생 키 및 정지 키, 환경 소음에 따른 악곡을 자동으로 선곡하여 재생하기 위한 조작자 등이 설치된다.
다음으로, 환경 소음의 분류 방법에 대하여 설명한다. 주위 환경으로부터 들려오는 소음은, 전철 또는 버스의 내부나 커피숍 등의 환경에 따라 각각 서로 다르다. 이들 환경 소음은, 예를 들면, 가청 주파수대에서의 저역의 음량이 큰 경우나, 고역의 음량이 큰 경우 등, 환경에 따라 서로 다른 특징을 갖는다.
도 3a, 도 3b 및 도 3c는, 각각 "커피숍", "전철" 및 "버스"에서 수음된 환경 소음의 주파수 특성의 일례를 나타낸다. 이 예들은, 수음된 환경 소음의 0.5초 정도의 시간 데이터에 대하여 FFT(Fast Fourier Transform)에 의해 주파수를 해석하였을 때의 주파수 특성과 각각 관련된다. 이들 도면에서, 횡축이 주파수 [㎐]를 나타내고, 종축이 파워 [㏈]을 나타낸다. 도 3a∼도 3c에 의하면, 다양한 환경에서, 각 주파수에서의 파워의 값이 크게 서로 다른 것을 판단할 수 있다. 따라서, 이와 같은 특징을 추출함으로써, 사용자가 어떤 환경에 있는지를 판단할 수 있다.
그런데, FFT에 의한 주파수 해석에서는, 해석되는 시간 데이터의 샘플 수를 x개로 하면, 파워로서 얻어지는 주파수 데이터는, x/2개로 된다. 이때, 환경 소음의 해석의 정밀도(precision)를 높이기 위해서는, 주파수 분해능을 높게 할 필요가 있다. 그것을 위해서는, 샘플 수를 어느 정도의 크기로 설정할 필요가 있다. 예를 들면, 시간 데이터의 샘플 수를 32768개로 한 경우, 얻어지는 주파수 데이터 수 는 16384개로 된다.
이와 같이 하여 얻어지는 환경 소음의 주파수 특성에 기초하여, 예를 들면, 각 주파수에서의 데이터를 특징량으로서 이용할 수 있다고 생각된다. 그러나, 16384개의 주파수 데이터를 환경 소음의 특징량으로서 이용한 경우, 데이터량이 방대하기 때문에, 처리하는데 시간이 오래 걸린다. 또한, 주파수 데이터의 시간적인 변동도 크다. 따라서, 이러한 방법은 실용적이지는 않다.
따라서, 예를 들면, 도 4a, 도 4b 및 도 4c에 도시한 바와 같이, 각각의 환경에서의 주파수 데이터의 엔벨로프의 기울기(도 4a 내지 4c에서, 각각, 점선으로 나타내는 부분) 및 엔벨로프로 둘러싸인 면적(도 4a 내지 4c에서, 각각, 사선 부분)에 주목한다. 예를 들면, 전철이나 버스 안에서는, 커피숍과 비교하여, 저역의 파워가 크다. 그 때문에, 전철이나 버스의 차 안에서의 소음의 주파수 특성은, 커피숍에서의 소음의 주파수 특성과 비교하여, 엔벨로프의 기울기가 커서, 엔벨로프로 둘러싸인 부분의 면적이 크다고 판단할 수 있다.
따라서, 본 발명의 제1 실시예에서는, 이 환경 소음의 주파수 영역에서의 엔벨로프의 기울기와, 엔벨로프로 둘러싸인 면적으로 나타내어지는 파워의 총합을 특징량으로서 산출한다.
도 5는, 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도이다. 도 5에 도시한 환경 소음의 분류는, CPU(11)에서 행해진다. 이 예에서는, 환경 소음에 대한 해석으로서, 환경 소음의 주파수 영역에서의 엔벨로프 및 파워를 해석하고, 이들 해석 결과를 환경 소음의 특징량으로서 산출하는 경우에 대하여 설명한 다.
마이크(20)에 의해 수음된 환경 소음의 소음 데이터 T가 주파수 분석부(31)에 공급된다. 주파수 분석부(31)는, 입력된 소음 데이터 T의 소정 시간, 예를 들면, 0.5초간 정도의 짧은 시간 길이를 갖는 소음 데이터를 이용하여, 소음 데이터 T에 대하여 FFT 분석이나 Octave 분석 등의 주파수 분석을 실시하고, 주파수 정보 S를 취득한다. 취득한 주파수 정보 S는, 엔벨로프 해석부(32) 및 파워 해석부(33)에 각각 공급된다.
엔벨로프 해석부(32)는, 입력된 주파수 정보 S에 기초하여, 소음 데이터 T의 주파수 영역에서의 엔벨로프를 해석하고, 예를 들면, 소정의 주파수 대역에서의 엔벨로프를 적합하게 수치로 변환한 엔벨로프 정보 Pe를 산출한다. 이 예에서는, 엔벨로프 정보 Pe로서, 예를 들면, 소정의 주파수 대역에서의 엔벨로프의 기울기의 값이 이용된다. 산출한 엔벨로프 정보 Pe는, 소음 판정부(34)에 공급된다.
파워 해석부(33)는, 입력된 주파수 정보 S에 기초하여, 소음 데이터 T의 주파수 영역에서의 파워를 해석하고, 예를 들면, 소정의 주파수 대역에서의 파워를 적합하게 수치로 변환한 파워 정보 Pp를 산출한다. 이 예에서는, 파워 정보 Pp로서, 예를 들면, 소정의 주파수 대역에서의 엔벨로프로 둘러싸인 부분의 면적, 즉 소정의 주파수 대역에서의 파워의 총합의 값이 이용된다. 산출한 파워 정보 Pp는, 소음 판정부(34)에 공급된다.
소음 판정부(34)는, 엔벨로프 해석부(32)로부터 공급된 엔벨로프 정보 Pe 및 파워 해석부(33)로부터 공급된 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베 이스(35)를 참조하여 환경 소음을 분류하고, 분류 결과를 나타내는 소음 정보를 생성한다. 생성된 소음 정보는 카테고리 선택부(36)에 공급된다.
소음 파라미터 데이터베이스(35)는, 다양한 환경에서의 소음 데이터로부터 추출된 특징량에 기초하여, 소음 데이터를 환경마다 분류할 때에 이용되는 데이터베이스다. 이 예에서는, 환경 소음의 특징량으로서, 엔벨로프 정보 Pe 및 파워 정보 Pp가 이용되고, 이들 특징량에 기초하여, 비교 대상으로 되는 환경 소음이 분류된다. 이 예에서는, 소음 파라미터 데이터베이스(35)에 기초하여, 환경 소음이 "교통 수단" 및 "커피숍" 중 어느 하나로 분류된다.
카테고리 선택부(36)는, 소음 판정부(34)로부터 공급된 소음 정보에 기초하여, 환경 소음의 분류에 따른 악곡의 카테고리를 선택한다. 예를 들면, 환경 소음이 "교통 수단"으로 분류된 경우에는, "락"의 카테고리가 선택되고, 환경 소음이 "커피숍"으로 분류된 경우에는, "클래식"의 카테고리가 선택된다. 그리고, 각각의 카테고리로 분류된 악곡 중에서 소정의 선택 방법에 의해 악곡이 선택되어, 재생된다.
소음 파라미터 데이터베이스(35)의 작성 방법에 대하여 설명한다. 소음 파라미터 데이터베이스를 작성하는 경우에는, 도 6a에 도시한 바와 같이, 우선, 다양한 환경에서 실제로 수음된 환경 소음의 소음 데이터를 환경마다 분류한다. 이 예에서는, 예를 들면, 수음된 소음 데이터 T를 "교통 수단" 및 "커피숍" 등의 환경마다의 소음 데이터로 분류한다. 그리고, 이들 소음 데이터 T를 주파수 분석부(37)에 공급한다.
주파수 분석부(37)는, 공급된 각각의 소음 데이터 T에 대하여 주파수 분석을 실시하고, 주파수 정보 S를 취득한다. 취득한 주파수 정보 S는, 엔벨로프 해석부(38) 및 파워 해석부(39)에 공급된다. 엔벨로프 해석부(38)는, 주파수 정보 S에 기초하여, 각각의 소음 데이터 T에서의 엔벨로프 정보 Pe를 산출한다. 또한, 파워 해석부(39)는, 주파수 정보 S에 기초하여, 각각의 소음 데이터 T에서의 파워 정보 Pp를 산출한다.
다음으로, 도 6b에 도시한 바와 같이, 산출된 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 각각의 소음 데이터 T를 엔벨로프 정보 Pe 및 파워 정보 Pp의 2차원 평면상에 매핑한다. "교통 수단"이나 "커피숍" 등의 환경마다 분류된 소음 데이터 T를 매핑함으로써, 2차원 평면상에는, 소음 데이터 T의 분류마다 경계가 형성된다. 따라서, 이 분류마다의 경계를 나타내는 경계선을 설정한다.
이와 같이 하여 설정된 경계선의 정보와, 특징량에 기초하는 2차원 평면의 데이터를 소음 파라미터 데이터베이스(35)로서 설정한다. 따라서, 악곡을 재생할 때에 수음된 소음 데이터 T의 특징량에 기초하여, 이 소음 파라미터 데이터베이스(35)를 참조함으로써, 수음된 환경 소음을 분류할 수 있다. 예를 들면, 수음된 소음 데이터 T의 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여 소음 파라미터 데이터베이스(35)를 참조하여, 수음된 소음 데이터 T가 경계선의 상측에 있으면, 환경 소음이 "교통 수단"으로 분류된다. 수음된 소음 데이터 T가 경계선의 하측에 있으면, 환경 소음이 "커피숍"으로 분류된다.
또한, 분류마다의 경계가 명확한 경우에는, 사람의 판단에 의해 경계선을 설 정하여도 된다. 그러나, 분류마다의 경계가 명확하지 않은 경우, 또는 특징량이 3차원 이상인 경우에는, 사람의 판단에 의한 경계의 설정이 곤란하게 되기 때문에, 예를 들면, 수학적인 방법을 이용하여, 분류마다의 경계선을 설정하면 바람직하다.
또한, 이 환경 소음의 분류에서는, "교통 수단"이나 "커피숍" 등, 환경 소음의 상태를 대략적으로 분류하는 것이며, 구체적인 환경 소음의 상태를 분류하는 것은 아니다. 즉, 환경 소음의 상태는, 예를 들면, 사용자가 비행기를 타고 있는 경우이어도 "교통 수단"으로 분류되고, 사용자가 도서관에 있는 경우이어도 "커피숍"으로 분류되는 경우도 있다. 따라서, 어느 정도의 애매성을 갖는 것으로 추측된다.
도 7에 도시한 플로우차트를 참조하여, 본 발명의 제1 실시예에서의 악곡의 카테고리의 선택 방법에 대하여 설명한다. 또한, 특별한 기재가 없는 한, 이하의 처리는, CPU(11)의 제어하에서 행해지는 것으로 한다. 스텝 S1에서, 음악 재생 장치(1)의 전원이 ON으로 된다. 스텝 S2에서, 조작부(17)에 설치된, 주위의 환경 소음에 따른 악곡의 재생을 지시하기 위한 조작자가 사용자에 의해 조작되면, 스텝 S3에서, 마이크(20)를 통해서 환경 소음이 수음되고, 환경 소음의 소음 데이터 T가 CPU(11)에 공급된다.
스텝 S4에서, 수음된 환경 소음의 소음 데이터 T에 대하여 주파수 분석이 실시되고, 환경 소음의 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp가 산출된다. 스텝 S5에서는, 산출된 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스를 참조하여 환경 소음의 분류가 행해진다. 이 예에서는, 수음된 환경 소음이 "교통 수단" 및 "커피숍" 중 어느 하나로 분류된다.
스텝 S6에서는, 환경 소음의 분류 결과에 기초하여, 대응된 악곡의 카테고리를 선택한다. 예를 들면, 환경 소음이 "교통 수단"으로 분류된 경우에는, "락"의 카테고리가 선택되고, 환경 소음이 "커피숍"으로 분류된 경우에는, "클래식"의 카테고리가 선택된다. 스텝 S7에서, 선택된 카테고리에 대응하는 악곡 중에서, 소정의 악곡이 선택되고, 대응하는 악곡 데이터가 기록 매체(18)로부터 읽어내어져 재생된다.
스텝 S8에서는, 재생된 악곡이 종료하였을 때에, 음악을 계속해서 청취할 지의 여부가 판단된다. 음악을 계속해서 청취한다고 판단한 경우에는, 처리가 스텝 S3으로 되돌아가고, 마이크(20)를 통해서 재차, 환경 소음의 수음이 행해진다. 또한, 악곡을 계속해서 청취한 경우에는, 예를 들면, 선택된 카테고리에 대응하는 악곡 중에서 재생된 악곡을 제외하고 동일한 악곡이 연속해서 재생되지 않도록 하여, 랜덤하게 재생하도록 하여도 된다. 또한, 예를 들면, 카테고리마다 악곡을 재생하는 순서를 미리 설정해 두고, 이 순서에 따라서 재생하도록 하여도 된다.
한편, 스텝 S8에서, 음악을 계속해서 청취하지 않는다고 판단한 경우에는, 처리가 스텝 S9로 이행하고, 사용자에 의해 음악 재생 장치(1)의 전원이 OFF로 되어, 일련의 처리가 종료된다.
이와 같이, 본 발명의 제1 실시예에서는, 음악 재생 장치(1)에 접속된 마이크(20)를 이용하여 환경 소음을 수음하고, 수음된 환경 소음으로부터 추출된 특징량에 기초하여, 현재의 환경을 판정한다. 그리고, 판정 결과에 기초하여 미리 대 응된 악곡의 카테고리를 선택한다. 따라서, 환경에 따른 적절한 악곡을 자동으로 선택할 수 있다.
다음으로, 본 발명의 제1 실시예의 변형예에 대하여 설명한다. 전술한 제1 실시예에 적용 가능한 환경 소음의 분류 방법에서는, 환경 소음의 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp를 산출할 때에, 예를 들면, 0.5초 정도의 짧은 시간 길이를 갖는 소음 데이터를 이용하여, 환경 소음의 분류를 행하고 있다. 그 때문에, 환경 소음의 분류는, 이 소음 데이터를 취득한 짧은 시간에 지배된다.
즉, 예를 들면, 사용자가 커피숍에 있는 경우이어도, 주위에서 사람이 대화를 하고 있는 경우와 대화를 하고 있지 않은 경우에서는, 환경 소음의 특징량이 크게 변한다. 따라서, 환경 소음의 분류가 적절하게 행해지지 않을 우려가 있다.
따라서, 본 발명의 제1 실시예의 변형예에서는, 소정 시간마다 환경 소음을 수음하여 분류를 행하고, 분류 결과를 소정 횟수분만큼 메모리에 기억시켜 둔다. 그리고, 이 소정 횟수분의 분류 결과에 기초하여, 과거의 데이터로 될수록 가중치가 감소하는 가중 계수(weight coefficient)를 이용하여 현재의 환경 소음을 분류한다.
도 8은, 본 발명의 제1 실시예의 변형예에 적용 가능한 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도이다. 이 도 8에 도시한 환경 소음의 분류는 CPU(11)에서 행해진다. 여기에서는, 전술한 제1 실시예와 마찬가지로, 환경 소음에 대한 해석으로서, 환경 소음의 주파수 영역에서의 엔벨로프 및 파워를 해석하고, 이들 해석 결과를 환경 소음의 특징량으로서 산출한 경우에 대하여 설명한 다. 또한, 전술한 제1 실시예와 마찬가지의 부분에 대해서는, 동일한 부호를 붙이고, 설명을 생략한다.
제1 소음 판정부(34)는, 마이크(20)에 의해 수음된 환경 소음의 소음 데이터 T에 대하여 주파수 분석을 행함으로써 얻어지는 엔벨로프 정보 Pe 및 파워 정보 Pp가 공급된다. 그리고, 공급된 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스(35)를 참조하여 환경 소음을 분류하고, 분류 결과를 나타내는 소음 정보를 생성한다. 생성된 소음 정보는, 변환부(41)에 공급된다.
변환부(41)는, 공급된 소음 정보에 기초하여, 분류 결과를 소정의 수치로 변환한다. 예를 들면, 환경 소음이 "교통 수단"으로 분류된 경우에는, 분류 결과를 "0"으로 변환하고, 환경 소음이 "커피숍"으로 분류된 경우에는, 분류 결과를 "1"로 변환한다. 분류 결과에 따라서 수치로 변환된 데이터는 메모리(42)에 공급된다.
메모리(42)는, 소정 횟수분, 예를 들면, n개분의 데이터를 저장할 수 있는 영역을 갖고 있다. 메모리(42)는, 새로운 데이터가 공급되면, 저장된 데이터를 1개씩 시프트하고, 시간적으로 가장 오래된 데이터를 삭제하고, 공급된 새로운 데이터를 저장한다.
구체적으로는, 예를 들면, 메모리(42)에 새로운 데이터가 공급된 경우, 메모리(42)에 저장된 데이터 중에서 가장 오래된 데이터 dn가 삭제되고, 데이터 dn-1이 1개만 시프트되고, 데이터 dn으로서 메모리(42)에 저장된다. 마찬가지로 하여, 데이터 d3, d2 및 d1이 각각 1개만 시프트되고, 데이터 d4, d3 및 d2로서 메모리(42)에 저 장된다. 그리고, 새롭게 공급된 데이터가 d1로서 메모리(42)에 저장된다.
메모리(42)에 저장된 데이터 d1, d2, …, dn은 승산기(43, 43, …)에 각각 공급된다.
승산기(43, 43, …)는 메모리(42)로부터 공급된 데이터 d1, d2, …, dn에 대하여, 가중 계수 w1, w2, …, wn을 컨벌루션 연산한다. 가중 계수 w1, w2, … wn은, 메모리(42)에 저장된 데이터의 가중치를 결정하는 계수이며, 수학식 1로 표현되는 바와 같이, 과거의 데이터로 될수록 가중치가 감소하도록 설정되어 있다.
1 ≥ w1 > w2 > … wn-1 > wn ≥ 0
각각의 데이터 d1, d2, …, dn에 대하여 가중 계수 w1, w2, … wn을 컨벌루션 연산한 결과의 데이터는 가산기(44)에 공급된다. 가산기(44)는 승산기(43, 43, …)로부터 공급된 컨벌루션 연산의 결과 데이터를 각각 가산하고, 제2 소음 판정부(45)에 가산 결과를 공급한다.
제2 소음 판정부(45)는, 가산기(44)로부터 공급된 데이터의 평균값을 산출하고, 산출 결과에 따라서 환경 소음의 판정을 행한다. 이 예에서는, 환경 소음이 "교통 수단"으로 분류된 경우에는, 분류 결과를 "0"으로 하고, 환경 소음이 "커피숍"으로 분류된 경우에는, 분류 결과를 "1"로 한다. 따라서, "0.5"를 기준으로 하여, 데이터의 평균값이 "0.5"를 초과하고 있으면, 환경 소음의 카테고리가 "교통 수단"이라고 판정한다. 또한, 데이터의 평균값이 "0.5" 이하이면, 환경 소음의 카테고리는 "커피숍"이한다. 그리고, 제2 소음 판정부(45)는, 판정 결과를 나타내는 정보를 생성하여, 카테고리 선택부(46)에 공급한다.
카테고리 선택부(46)는, 판정 결과를 나타내는 정보에 기초하여, 환경 소음의 분류에 따른 악곡의 카테고리를 선택한다. 예를 들면, 환경 소음이 "교통 수단"으로 분류된 경우에는, "락"의 카테고리가 선택되고, 환경 소음이 "커피숍"으로 분류된 경우에는, "클래식"의 카테고리가 선택된다. 그리고, 각각의 카테고리로 분류된 악곡 중에서 소정의 선택 방법에 의해 악곡이 선택되어, 재생된다.
이와 같이, 본 발명의 제1 실시예의 변형예에서는, 소정 시간마다 환경 소음을 수음하고, 소정 횟수분의 환경 소음의 분류에 기초하여 악곡의 카테고리를 선택한다. 또한, 과거의 환경 소음일수록 가중치가 감소하도록 연산한다. 그 때문에, 전술한 제1 실시예에 의한 환경 소음의 분류 방법과 비교하여, 환경 소음의 분류의 정밀도를 높일 수 있다.
또한, 제1 실시예 및 제1 실시예의 변형예에서는, 마이크(20)를 헤드폰(2)의 내부에 설치한 경우에 대하여 설명하였지만, 본 발명은 이 예에 한정되지 않는다. 예를 들면, 마이크(20)를 헤드폰(2)의 외부에 설치해도 되고, 음악 재생 장치(1)의 케이스 등에 설치해도 된다. 단, 마이크(20)를 설치하는 위치에 의해, 마이크(20)로부터 수음되는 환경 소음의 주파수 특성 등이 변화한다. 따라서, 마이크(20)를 설치하는 위치를 고려하여 소음 파라미터 데이터베이스를 작성하고, 환경 소음의 분류를 행할 필요가 있다.
다음으로, 본 발명의 제2 실시예에 대하여 설명한다. 본 발명의 제2 실시예에서는, 음악 재생 장치에 접속된 마이크를 통하여 수음된 환경 소음의 특징량과, 음악 재생 장치에 기록된 악곡의 특징량을 비교하여, 각각의 특징량이 가장 유사한 악곡을 자동으로 선택하도록 하고 있다.
전술한 제1 실시예에서는, 환경 소음의 분류에 대하여 미리 악곡의 카테고리를 대응해서 두고, 환경 소음의 분류 결과에 따라서, 대응하는 악곡의 카테고리를 선택한다. 이와 같이 하여 악곡의 카테고리를 선택한 경우, 환경 소음을 해석하는 알고리즘과 악곡의 카테고리 분류에 이용되는 알고리즘이 서로 다르기 때문에, 동일한 카테고리로 분류된 악곡이어도, 반드시 환경 소음에 적합한 악곡이 선택되지는 않는다. 또한, 환경 소음과 악곡의 카테고리와 서로 잘 어울리는지를 확인하도록 한 경우, 확인을 위한 처리에 시간을 요하게 될 우려가 있다.
여기에서, 소정의 환경 소음하에서 악곡 X를 청취하는 경우에 대하여 생각한다. 도 9는, 환경 소음 및 악곡 X의 주파수 특성을 나타낸다. 사선으로 나타내는 환경 소음의 엔벨로프로 둘러싸인 부분은, 환경 소음에 의해 마스크되는 영역을 나타낸다. 마스크되는 영역 내에 존재하는 악곡 데이터의 주파수 성분에 의한 소리는, 환경 소음의 주파수 성분에 의한 소리에 의해 묻혀 청취하기 어렵다.
이와 같은 환경 소음하에서 악곡 X를 청취한 경우, 환경 소음의 엔벨로프의 형상과 악곡 X의 엔벨로프의 형상이 서로 다르며, 점선으로 둘러싸인 영역 A로 나타내는 악곡 X의 주파수 성분이 환경 소음의 마스크 영역 내에 존재한다. 그 때문에, 악곡 X의 주파수 성분 중, 영역 A로 나타내는 주파수 성분이 환경 소음의 주파 수 성분에 의해 마스크된다. 이 마스크 된 악곡 X의 주파수 성분은, 악곡 X의 주파수 성분 중 가장 파워가 큰 부분이며, 이 악곡 X의 주요한 주파수 성분이라고 생각된다. 그 때문에, 악곡의 주요 부분이 환경 소음에 의해 마스크되어, 악곡을 적절하게 청취하기가 어렵다.
따라서, 악곡 X를 적절하게 청취하는 경우에는, 볼륨을 많이 올릴 필요가 있다. 그러나, 볼륨을 많이 올리는 경우, 모든 주파수 성분의 파워가 커진다. 따라서, 원래 들리고 있던 주파수 성분의 소리, 즉 일점쇄선으로 둘러싸인 영역 B로 나타내는 악곡 X의 주파수 성분의 음이 지나치게 들리게 된다.
한편, 도 10은, 환경 소음 및 다른 악곡 Y의 주파수 특성을 나타낸다. 도 10에 도시한 예에서는, 악곡 Y의 주파수 성분의 대부분이, 사선으로 나타내는 환경 소음의 마스크 영역 내에 존재하고 있다. 그 때문에, 이 상태에서는, 악곡 Y의 대부분의 주파수 성분이 마스크되어, 악곡 Y를 청취하기가 어렵다.
그러나, 악곡 Y의 엔벨로프의 형상은, 환경 소음의 엔벨로프의 형상에 유사하기 때문에, 볼륨을 올림으로써, 악곡의 대부분의 주파수 성분이 환경 소음의 마스크 영역으로부터 벗어난다. 그 때문에, 환경 소음에 묻히는 일 없이 악곡 Y를 적절하게 청취할 수 있다. 또한, 전술한 도 9에 도시한 악곡 X와 비교하여, 볼륨을 올리는 양을 적게 할 수 있다.
따라서, 본 발명의 제2 실시예에서는, 환경 소음 및 악곡의 특징량을 추출하고, 환경 소음의 엔벨로프의 형상과 악곡의 엔벨로프의 형상 각각이 유사한 악곡을 선택한다.
도 11은, 본 발명의 제2 실시예에 적용 가능한 음악 재생 장치(1)의 일례의 사용 형태를 나타낸다. 도 11에 도시한 예에서는, 제1 실시예와 마찬가지로, 헤드폰(2)의 내부에 설치되고, 음악 재생 장치(1)에 접속된 마이크(20)를 통해서 환경 소음을 수음한다. 음악 재생 장치(1)는, 마이크(20)에 의해 수음된 환경 소음에 대하여 적절하게 해석을 수행하고, 특징량을 추출한다. 또한, 음악 재생 장치(1)는, 음악 재생 장치(1)에 기록된 악곡에 대하여, 환경 소음의 특징량의 추출 방법과 동일한 방법을 이용하여 적절하게 해석을 수행하고, 특징량을 추출한다. 그리고, 환경 소음의 특징량과 악곡의 특징량을 비교한다. 각각의 특징량이 가장 유사한 악곡을 선택한다.
도 12는, 환경 소음에 따른 악곡의 선택 방법의 일례에 대하여 설명하기 위한 블록도이다. 도 12에 도시한 악곡의 선택은 CPU(11)에서 행해진다. 이 예에서는, 환경 소음 및 악곡에 대한 해석으로서, 주파수 영역에서의 엔벨로프 및 파워를 해석한다. 그리고, 환경 소음 및 악곡 각각의 엔벨로프 및 파워를 수치로 변환한 정보를 각각의 특징량으로서 산출한 경우에 대하여 설명한다.
마이크(20)에 의해 수음된 환경 소음의 소음 데이터 NT가 주파수 분석부(51)에 공급된다. 주파수 분석부(51)는, 입력된 소음 데이터 NT의 소정 시간, 예를 들면, 0.5초간 정도의 짧은 시간 길이를 갖는 소음 데이터를 이용해서, 소음 데이터 NT에 대하여 FFT 분석이나 Octave 분석 등의 주파수 분석을 실시하여, 주파수 정보 NS를 취득한다. 취득한 주파수 정보 NS는, 엔벨로프 해석부(52) 및 파워 해석부(53)에 공급된다.
엔벨로프 해석부(52)는, 입력된 주파수 정보 NS에 기초하여, 소음 데이터 NT의 주파수 영역에서의 엔벨로프를 해석하고, 예를 들면, 소정의 주파수 대역에서의 엔벨로프의 기울기를 수치로 변환해서, 엔벨로프 정보 NPe를 산출한다. 산출한 엔벨로프 정보 NPe는, 유사도 판정부(58)에 공급된다.
파워 해석부(53)는, 입력된 주파수 정보 NS에 기초하여, 소음 데이터 NT의 주파수 영역에서의 파워를 해석하고, 예를 들면, 소정의 주파수 대역에서의 파워의 총합을 수치로 변환한 파워 정보 NPp를 산출한다. 산출한 파워 정보 NPp는 유사도 판정부(58)에 공급된다.
음악 재생 장치(1)에 기록된 악곡의 악곡 데이터 MT가 주파수 분석부(54)에 공급된다. 주파수 분석부(54)는, 입력된 악곡 데이터 MT의 소정 시간, 예를 들면, 0.5초간 정도의 짧은 시간 길이를 갖는 악곡 데이터를 이용해서, 악곡 데이터 MT에 대하여 FFT 분석이나 Octave 분석 등의 주파수 분석을 실시하여, 주파수 정보 MS를 취득한다. 취득한 주파수 정보 MS는, 엔벨로프 해석부(55) 및 파워 해석부(56)에 공급된다.
엔벨로프 해석부(55)는, 입력된 주파수 정보 MS에 기초하여, 악곡 데이터 MT의 주파수 영역에서의 엔벨로프를 해석하고, 예를 들면, 소정의 주파수 대역에서의 엔벨로프의 기울기를 수치로 변환한 엔벨로프 정보 MPe를 산출한다. 산출한 엔벨로프 정보 MPe는, 악곡 특징량 데이터베이스(57)에 공급된다.
파워 해석부(56)는, 입력된 주파수 정보 MS에 기초하여, 악곡 데이터 MT의 주파수 영역에서의 파워를 해석하고, 예를 들면, 소정의 주파수 대역에서의 파워의 총합을 수치로 변환한 파워 정보 MPp를 산출한다. 산출한 파워 정보 MPp는, 악곡 특징량 데이터베이스(57)에 공급된다.
음악 재생 장치(1)에 기록된 모든 악곡 데이터의 특징량은 악곡마다 대응해서 악곡 특징량 데이터베이스(57)에 기록되어 있다. 이 예에서는, 악곡 데이터 MT의 엔벨로프 정보 MPe 및 파워 정보 MPp가 특징량으로서 기록되어 있다. 음악 재생 장치(1)에 대하여 새롭게 악곡 데이터가 기록된 경우에는, 엔벨로프 해석부(55) 및 파워 해석부(56)에서 산출된 엔벨로프 정보 MPe 및 파워 정보 MPp가 악곡 특징량 데이터베이스(57)에 공급되고, 악곡에 대응해서 기록된다.
유사도 판정부(58)는, 소음 데이터 NT의 엔벨로프 정보 NPe 및 파워 정보 NPp와, 악곡 특징량 데이터베이스(57)에 기록된 모든 악곡 데이터 MT의 엔벨로프 정보 MPe 및 파워 정보 MPp를 이용하여, 환경 소음에 대하여 가장 유사도가 높은 악곡을 선택한다.
유사도 판정부(58)에서의 환경 소음 및 악곡의 유사도의 판정 방법에 대하여 설명한다. 예를 들면, 도 13에 도시한 바와 같이, 소음 데이터 NT와 악곡 데이터 MT를, 각각의 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp의 2차원 평면상에 매핑한 경우에 대하여 생각한다. 도 13에서는, 마이크(20)에 의해 수음된 환경 소음의 소음 데이터 NT와, 음악 재생 장치(1)에 기록된 악곡의 악곡 데이터 M1∼M9가 매핑되어 있는 일례를 나타낸다. 환경 소음 및 악곡 간의 유사도는, 환경 소음의 소음 데이터 NT와 각각의 악곡의 악곡 데이터 M1∼M9의 위치 관계에 기초하여 판정된다.
이와 같은 경우에서, 환경 소음과 악곡이 가장 유사한 경우란, 특징량 간의 차분(difference)이 최소로 되는 경우라고 생각된다. 즉, 환경 소음으로부터의 거리 L이 최단으로 되는 악곡 데이터의 악곡이, 환경 소음과 가장 유사한 악곡이다. 환경 소음 및 악곡의 거리는, 수학식 2에 기초하여, 소음 데이터 NT 및 악곡 데이터 M1∼M9의 엔벨로프 정보의 차분의 제곱과 각각의 파워 정보의 차분의 제곱을 가산함으로써 산출된다.
Figure 112009020664472-pat00001
이 예에서는, 소음 데이터 NT 및 악곡 데이터 M1∼M9 간의 거리 L1∼L9를 수학식 2에 기초하여 산출한 결과, 소음 데이터 NT와 악곡 데이터 M3 간의 거리 L3이 최단이라고 판정된다. 따라서, 환경 소음과 가장 유사한 악곡으로서, 악곡 데이터 M3의 악곡이 선택된다.
도 14에 도시한 플로우차트를 참조하여, 본 발명의 제2 실시예에서의 악곡의 선택 방법에 대하여 설명한다. 또한, 특별한 기재가 없는 한, 이하의 처리는 CPU(11)의 제어하에서 행해지는 것으로 한다. 스텝 S11에서, 음악 재생 장치(1)의 전원이 ON으로 된다. 스텝 S12에서는, 조작부(17)에 설치된, 주위의 환경 소음에 따른 악곡의 재생을 지시하기 위한 조작자가 사용자에 의해 조작된다.
스텝 S13에서, 음악 재생 장치(1)에 기록된 모든 악곡에 대하여, 특징량이 산출되고 악곡 특징량 데이터베이스(57)에 기록되어 있는지의 여부가 판단된다. 모든 악곡에 대하여 특징량을 산출하지 않았다고 판단된 경우에는, 처리가 스텝 S14로 이행하고, 특징량 산출의 대상으로 되는 악곡이 선택된다. 한편, 모든 악곡에 대하여 특징량을 산출하였다고 판단된 경우에는, 처리가 스텝 S19로 이행한다.
스텝 S15에서는, 선택된 악곡의 악곡 데이터 MT에 대하여 주파수 분석이 실시되고, 악곡의 특징량인 엔벨로프 정보 MPe 및 파워 정보 MPp가 산출된다. 스텝 S16에서는, 산출된 엔벨로프 정보 MPe 및 파워 정보 MPp가 유지된다.
스텝 S17에서는, 특징량 산출의 대상으로 된 모든 악곡에 대하여, 특징량을 산출하였는지의 여부가 판단된다. 특징량 산출의 대상으로 된 모든 악곡의 특징량을 산출하였다고 판단된 경우에는, 처리가 스텝 S18로 이행하고, 산출된 특징량이 악곡 특징량 데이터베이스(57)에 기록된다. 한편, 스텝 S17에서, 특징량 산출의 대상으로서 모든 악곡의 특징량을 산출하지 않았다고 판단된 경우에는, 처리가 스텝 S14로 되돌아가고, 특징량 산출의 대상으로서 다른 악곡이 선택된다.
스텝 S19에서는, 마이크(20)를 통해서 환경 소음이 수음되고, 환경 소음의 소음 데이터 NT가 CPU(11)에 공급된다. 스텝 S20에서는, 수음된 환경 소음의 소음 데이터 NT에 대하여 주파수 분석이 실시되고, 환경 소음의 특징량인 엔벨로프 정보 MPe 및 파워 정보 NPp가 산출된다. 스텝 S21에서는, 산출한 엔벨로프 정보 MPe 및 파워 정보 NPp가 유지된다.
스텝 S22에서는, 소음 데이터 NT의 엔벨로프 정보 MPe 및 파워 정보 NPp와, 악곡 특징량 데이터베이스(57)에 기록된 악곡 데이터 MT의 엔벨로프 정보 MPe 및 파워 정보 MPp를 이용하여, 전술한 수학식 2에 기초하여 특징량의 거리가 산출된다. 그리고, 산출된 거리가 가장 짧은 악곡이, 특징량이 가장 유사한 악곡으로서 선택되고, 선택된 악곡에 대응하는 악곡 데이터가 기록 매체(18)로부터 읽어내어져 재생된다.
스텝 S23에서는, 재생된 악곡이 종료하였을 때에, 음악을 계속해서 청취할지의 여부가 판단된다. 음악을 계속해서 청취한다고 판단한 경우에는, 처리가 스텝 S19로 되돌아가고, 마이크(20)를 통해서 재차, 환경 소음의 수음이 행해진다.
여기에서, 악곡을 계속해서 청취하는 경우에서, 환경 소음이 상시 변화하지 않을 때나, 환경 소음의 변화가 작을 때에는, 환경 소음과 악곡의 유사도가 가장 높은 것으로서, 전회와 동일한 악곡이 선택될 우려가 있다. 따라서, 이 경우에는, 한번 선택된 악곡을 소정 횟수 선택되지 않도록 함으로써 동일한 악곡이 연속하여 재생되지 않도록 하고, 유사도가 다음으로 높은 악곡을 선택하도록 하는 것이 바람직하다.
한편, 스텝 S23에서, 음악을 계속해서 청취하지 않는다고 판단한 경우에는, 처리가 스텝 S24로 이행한다. 사용자에 의해 음악 재생 장치(1)의 전원이 OFF로 되어, 일련의 처리가 종료한다.
또한, 이 예에서는, 스텝 S12에서 주위의 환경 소음에 따른 악곡의 재생이 지시된 경우에, 악곡 데이터 MT의 특징량을 산출하여 악곡 특징량 데이터베이스(57)에의 기록을 행하도록 설명하였지만, 이것은 이 예에 한정되지 않는다. 예를 들면, 음악 재생 장치(1)의 기록 매체(18)에 새로운 악곡이 기록되었을 때에, 이 악곡의 특징량을 산출하여 악곡 특징량 데이터베이스(57)에 기록할 수 있다.
이와 같이, 본 발명의 제2 실시예에서는, 환경 소음 및 악곡의 특징량을 동 일한 방법을 이용하여 추출하고, 각각의 특징량이 가장 유사한 악곡을 선택한다. 그 때문에, 사용자에 의한 볼륨 조작 등의 조작을 최저한으로 할 수 있어, 소음에 묻히는 일 없이 악곡을 청취할 수 있다.
또한, 본 발명의 제2 실시예에 의한 악곡의 선택 방법으로서는, 환경 소음 및 악곡의 특징량의 유사도가 가장 높은 악곡을 선택하는 방법 외에, 환경 소음 및 악곡의 특징량의 유사도가 가장 낮은 악곡을 선택하는 방법이 생각된다.
예를 들면, 소정의 환경 소음하에서 악곡 Z를 청취하는 경우에 대하여 생각한다. 도 15는, 환경 소음 및 악곡 Z의 주파수 특성을 나타낸다. 이 경우, 악곡 Z의 엔벨로프의 형상은, 환경 소음의 엔벨로프의 형상과 크게 달라, 환경 소음에 의해 마스크되는 영역이 적다. 또한, 이 악곡 Z의 주요 부분이라고 생각되는, 악곡 Z의 가장 파워가 큰 주파수 성분이 환경 소음에 의해 마스크되어 있지 않다. 그 때문에, 악곡 Z는, 볼륨을 올리는 일 없이 청취할 수 있다고 생각된다.
따라서, 환경 소음 및 악곡의 유사도가 낮은 악곡, 즉, 환경 소음 및 악곡의 엔벨로프의 형상이 서로 다른 악곡을 선택함으로써도, 환경 소음하에서 적절한 악곡을 청취할 수 있다.
도 16은, 마이크(20)에 의해 수음된 환경 소음의 소음 데이터 NT 및 음악 재생 장치(1)에 기록된 악곡의 악곡 데이터 M1∼M9가 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp의 2차원 평면상에 매핑되어 있는 일례를 나타낸다.
이와 같은 경우에서, 환경 소음 및 악곡의 유사도가 가장 낮은 경우란, 특징량 간의 차분이 최대로 되는 경우라고 생각된다. 즉, 환경 소음으로부터의 거리 L 이 최장으로 되는 악곡 데이터의 악곡이, 환경 소음과의 유사도가 가장 낮은 악곡이다. 따라서, 환경 소음 및 악곡의 거리를 전술한 수학식 2에 기초하여 산출함으로써, 환경 소음과의 유사도가 가장 낮은 악곡을 선택할 수 있다.
이 예에서는, 소음 데이터 NT 및 악곡 데이터 M1∼M9의 거리 L1∼L9를 수학식 2에 기초하여 산출한 결과, 소음 데이터 NT와 악곡 데이터 M7 간의 거리 L7이 최장이라고 판정된다. 따라서, 환경 소음과 가장 유사한 악곡으로서, 악곡 데이터 M7의 악곡이 선택된다.
또한, 본 발명의 제2 실시예에서는, 전술한 제1 실시예와 마찬가지로, 마이크(20)를 헤드폰(2)의 외부나 음악 재생 장치(1)의 케이스 등에 설치하도록 하여도 된다.
다음으로, 본 발명의 제3 실시예에 대하여 설명한다. 본 발명의 제3 실시예에서는, 전술한 제1 실시예에 대하여, 소음을 저감시키는 소음 제거 기능을 적용한다. 그리고, 소음 제거가 실시되고 소음이 저감된 환경 소음에 대하여 환경 소음의 분류를 행하고, 분류 결과에 따라서 악곡의 카테고리를 자동으로 선택한다.
도 17은, 본 발명의 제3 실시예에 적용 가능한 음악 재생 장치(1')의 일례의 사용 형태를 나타낸다. 도 17에 도시한 예에서는, 음악 재생 장치(1')에 대하여 마이크(20) 또는 마이크(20') 및 헤드폰(2')이 접속되고, 사용자가 헤드폰(2')을 통하여, 음악 재생 장치(1')에 기록된 악곡을 청취하고 있는 상태를 나타낸다.
음악 재생 장치(1')는 소음 제거 기능을 갖는다. 소음 제거 기능을 ON으로 한 경우, 마이크(20) 또는 마이크(20')에 의해 수음된 환경 소음에 대하여 소음 제 거를 실시하여, 사용자에게 들리는 환경 소음을 저감시킨다. 마이크(20)는, 예를 들면, 헤드폰(2')의 내부에 설치되고, 사용자가 헤드폰(2')을 머리에 장착한 상태에서의 귀의 위치에서 들리는 환경 소음을 수음한다. 또한, 마이크(20')는, 예를 들면, 헤드폰(2')의 외부에 설치되어 있다.
또한, 소음 제거 기능은, ON 또는 OFF로 할 수 있지만, 소음 제거 기능을 OFF로 한 경우에 대해서는, 전술한 제1 실시예와 마찬가지이므로, 여기에서는, 소음 제거 기능을 ON으로 한 경우에 대하여 설명한다.
사용자가 음악 재생 장치(1')에 대하여 환경 소음에 따른 악곡 선택을 지시하면, 음악 재생 장치(1')는, 마이크(20) 또는 마이크(20')에 의해 주위의 환경 소음을 수음한다. 소음 제거 기능이 ON으로 되어 있는 경우에는, 소음 제거 기능에 의한 소음의 저감 처리를 행한 후, 소음이 저감된 환경 소음을 해석한다. 그리고, 음악 재생 장치(1')는, 소음이 저감된 환경 소음의 해석 결과에 기초하여, 대응된 악곡의 카테고리를 선택하고, 선택된 카테고리로 분류된 악곡을 재생한다. 또한, 소음 제거 기능이 OFF로 되어 있는 경우에는, 환경 소음의 저감 처리를 행하지 않는다.
여기에서, 헤드폰(2')의 내부에 설치된 마이크(20)를 이용한 경우, 마이크(20)는 사용자의 귀의 위치에서 환경 소음을 수음한다. 따라서, 소음 제거 기능이 ON인 경우, 마이크(20)에 의해 수음되는 환경 소음은, 소음 제거 기능에 의해 소음이 저감된다.
한편, 헤드폰(2')의 외부에 설치된 마이크(20')를 이용한 경우, 마이크(20') 는, 사용자의 귀의 위치와는 다른 위치에서 환경 소음을 수음한다. 따라서, 소음 제거 기능이 ON인 경우이어도, 마이크(20')에 의해 수음되는 환경 소음은, 소음 제거 기능에 의해 소음이 저감되는 환경 소음은 아니다.
이와 같이, 헤드폰(2')의 내부에 설치된 마이크(20)를 이용한 경우와, 헤드폰(2') 외부에 설치된 마이크(20')를 이용한 경우에서는, 수음되는 환경 소음의 상태가 서로 다르기 때문에, 각각의 환경 소음에 대하여 서로 다른 분류 방법을 이용할 필요가 있다.
우선, 헤드폰(2')의 내부에 마이크(20)가 설치되어 있는 경우의 환경 소음의 분류 방법에 대하여 설명한다. 전술한 바와 같이, 헤드폰(2')의 내부에 설치된 마이크(20)를 이용한 경우에는, 사용자의 귀의 위치에서의 환경 소음이 수음된다. 그 때문에, 소음 제거 기능을 ON으로 하였을 때에, 마이크(20)에 의해 수음되는 환경 소음은, 사용자에게 들리는 환경 소음과 유사하게, 소음이 저감된 상태이다.
따라서, 마이크(20)에 의해 수음된, 소음이 저감된 환경 소음의 분류를 행함으로써, 사용자에게 들리는 환경 소음에 따른 악곡의 카테고리를 선택할 수 있다.
도 18은, 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도이다. 도 18에 도시한 환경 소음의 분류는 CPU(11)에서 행해진다. 이 경우, 전술한 제1 실시예와 마찬가지의 처리를 행함으로써 환경 소음을 분류할 수 있다. 따라서, 전술한 제1 실시예와 마찬가지의 부분에 대해서는, 동일한 부호를 붙이고, 상세한 설명을 생략한다. 마이크(20)는, 소음 제거 기능이 ON인 경우에, 소음이 저감된 환경 소음의 소음 데이터 CT(이하, 저감 소음 데이터 CT라고 적절히 칭함)를 수음한다. 소음 제거 기능이 OFF인 경우에, 환경 소음의 소음 데이터 T를 수음한다. 수음된 소음 데이터 T 또는 저감 소음 데이터 CT가 주파수 분석부(31)에 공급된다.
주파수 분석부(31)는, 입력된 소음 데이터 T 또는 저감 소음 데이터 CT에 대하여 주파수 분석을 실시하여 얻어지는 주파수 정보 S를, 엔벨로프 해석부(32) 및 파워 해석부(33)에 공급한다. 엔벨로프 해석부(32) 및 파워 해석부(33)는, 주파수 정보 S에 기초하여, 각각 엔벨로프 정보 Pe 및 파워 정보 Pp를 산출하고, 소음 판정부(34)에 공급한다. 소음 판정부(34)는, 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스(35)를 참조하여 환경 소음을 분류하고, 분류 결과를 나타내는 소음 정보를 생성하여, 카테고리 선택부(36)에 공급한다.
카테고리 선택부(36)는, 소음 판정부(34)로부터 공급된 소음 정보에 기초하여, 환경 소음의 분류에 따른 악곡의 카테고리를 선택한다. 그리고, 각각의 카테고리로 분류된 악곡 중에서 소정의 선택 방법에 의해 악곡이 선택되어, 재생된다.
도 19에 도시한 플로우차트를 참조하여, 마이크(20)를 이용하여 환경 소음을 수음한 경우에서의, 악곡의 카테고리의 선택 방법에 대하여 설명한다. 또한, 특별한 기재가 없는 한, 이하의 처리는, CPU(11)의 제어하에서 행해지는 것으로 한다.
스텝 S31에서, 음악 재생 장치(1')의 전원이 ON으로 된다. 스텝 S32에서, 주위의 환경 소음에 따른 악곡의 재생의 지시가 사용자에 의해 이루어지면, 스텝 S33에서, 마이크(20)를 통해서 환경 소음이 수음되고, 환경 소음의 소음 데이터 T 또는 소음 제거가 실시된 저감 소음 데이터 CT가 CPU(11)에 공급된다.
스텝 S34에서, 수음된 환경 소음의 소음 데이터 T 또는 저감 소음 데이터 CT에 대하여 주파수 분석이 실시되고, 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp가 산출된다. 스텝 S35에서는, 산출된 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스를 참조하여 환경 소음의 분류가 행해진다.
스텝 S36에서는, 환경 소음의 분류 결과에 기초하여, 대응된 악곡의 카테고리를 선택한다. 그리고, 스텝 S37에서, 선택된 카테고리에 대응하는 악곡 중에서, 소정의 악곡이 선택되어, 대응하는 악곡 데이터가 기록 매체(18)로부터 읽어내어져 재생된다.
스텝 S38에서는, 재생된 악곡이 종료하였을 때에, 음악을 계속해서 청취할지의 여부가 판단되고, 음악을 계속해서 청취한다고 판단한 경우에는, 처리가 스텝 S33으로 되돌아가고, 마이크(20)를 통해서 재차, 환경 소음의 수음이 행해진다. 한편, 스텝 S38에서, 사용자가 음악을 계속해서 청취하지 않는다고 판단한 경우에는, 처리가 스텝 S39로 이행한다. 사용자에 의해 음악 재생 장치(1')의 전원이 OFF로 되고, 일련의 처리가 종료한다.
다음으로, 헤드폰(2')의 외부에 마이크(20')가 설치되어 있는 경우의 환경 소음의 분류 방법에 대하여 설명한다. 전술한 바와 같이, 헤드폰(2')의 외부에 설치된 마이크(20')를 이용한 경우에는, 사용자의 귀의 위치와는 다른 위치에서의 환경 소음이 수음된다. 그 때문에, 소음 제거 기능을 ON으로 하였을 때에, 사용자에 대하여 들리는 환경 소음은 저감되지만, 마이크(20')에 의해 수음되는 환경 소음은, 소음이 저감되지 않는 상태의 소음이다.
이와 같이 수음된 환경 소음의 분류를 행하여도, 실제로 사용자에게 들리는 환경 소음과, 마이크(20')에 의해 수음된 환경 소음이 서로 다르기 때문에, 사용자에게 들리는 환경 소음에 따른 악곡의 카테고리를 선택할 수 없을 우려가 있다.
따라서, 이와 같은 경우에는, 수음된 환경 소음에 대하여 소음 제거 기능이 ON인 경우와 등가의 환경 소음이 되도록 하는 처리를 실시함으로써 얻어지는 소음이 저감된 환경 소음에 대하여 분류를 행한다.
도 20은, 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도이다. 도 20에 도시한 환경 소음의 분류는 CPU(11)에서 행해진다. 또한, 전술한 제1 실시예와 마찬가지의 부분에 대해서는, 동일한 부호를 붙이고, 상세한 설명을 생략한다. 마이크(20')에 의해 수음된 환경 소음의 소음 데이터 T'가 등가 필터(61) 및 선택부(62)의 한쪽의 입력 단자(62a)에 공급된다.
등가 필터(61)는, 수음된 환경 소음의 소음 데이터 T'에 대하여 소음 제거 기능을 이용하였을 때에 얻어지는 저감 효과와 유사한 효과가 얻어지는 처리를 실시하여, 소음이 저감된 저감 소음 데이터 CT'를 생성한다. 생성된 저감 소음 데이터 CT'는, 선택부(62)의 다른 쪽의 입력 단자(62b)에 공급된다.
선택부(62)는, CPU(11)의 제어에 기초하여, 입력 단자(62a 및 62b) 중 어느 한쪽의 입력 단자를 선택하고, 선택된 입력 단자에 공급된 데이터를 주파수 분석부(31)에 공급한다. 예를 들면, 소음 제거 기능이 OFF인 경우에는, 입력 단자(62a)가 선택되어, 소음 데이터 T'를 주파수 분석부(31)에 공급한다. 또한, 소음 제거 기능이 ON인 경우에는, 입력 단자(62b)가 선택되고, 저감 소음 데이터 CT' 를 주파수 분석부(31)에 공급한다.
주파수 분석부(31)는, 입력된 소음 데이터 T' 또는 저감 소음 데이터 CT'에 대하여 주파수 분석을 실시하여 얻어지는 주파수 정보 S를, 엔벨로프 해석부(32) 및 파워 해석부(33)에 공급한다. 엔벨로프 해석부(32) 및 파워 해석부(33)는, 주파수 정보 S에 기초하여, 각각 엔벨로프 정보 Pe 및 파워 정보 Pp를 산출하고, 소음 판정부(34)에 공급한다. 소음 판정부(34)는, 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스(35)를 참조하여 환경 소음을 분류하고, 분류 결과를 나타내는 소음 정보를 생성하여 카테고리 선택부(36)에 공급한다.
카테고리 선택부(36)는, 소음 판정부(34)로부터 공급된 소음 정보에 기초하여, 환경 소음의 분류에 따른 악곡의 카테고리를 선택한다. 그리고, 각각의 카테고리로 분류된 악곡 중에서 소정의 선택 방법에 의해 악곡이 선택되어, 재생된다.
또한, 등가 필터(61)에 의한 소음 데이터 T'에 대한 저감 효과는, 소음 제거 기능에 의한 저감 효과와 반드시 완전하게 일치시킬 필요는 없다. 여기에서는, 저감된 환경 소음을 정확하게 재현할 필요는 없으며, 소음 제거 기능에 의해 환경 소음의 특징량이 대국적으로 어떻게 변화하였는지를 판단할 수 있는 정도이어도 된다.
도 21에 도시한 플로우차트를 참조하여, 마이크(20')를 이용하여 환경 소음을 수음한 경우에서의, 악곡의 카테고리의 선택 방법에 대하여 설명한다. 또한, 특별한 기재가 없는 한, 이하의 처리는, CPU(11)의 제어하에서 행해지는 것으로 한다.
스텝 S41에서, 음악 재생 장치(1')의 전원이 ON으로 된다. 스텝 S42에서, 주위의 환경 소음에 따른 악곡의 재생의 지시가 사용자에 의해 이루어지면, 스텝 S43에서, 마이크(20')를 통해서 환경 소음이 수음되고, 환경 소음의 소음 데이터 T'가 CPU(11)에 공급된다.
스텝 S44에서는, 소음 제거 기능이 ON인지의 여부가 판단된다. 소음 제거 기능이 ON인 경우에는, 처리가 스텝 S45로 이행한다. 한편, 소음 제거 기능이 OFF인 경우에는, 처리가 스텝 S46으로 이행한다. 스텝 S45에서는, 수음된 환경 소음의 소음 데이터 T'에 대하여 소음 제거를 실시하였을 때에 얻어지는 저감 효과와 동등한 효과가 얻어지는 처리가 실시되고, 소음이 저감된 환경 소음의 저감 소음 데이터 CT'가 생성된다.
스텝 S46에서, 수음된 환경 소음의 소음 데이터 T' 또는 저감 소음 데이터 CT'에 대하여 주파수 분석이 실시되고, 특징량인 엔벨로프 정보 Pe 및 파워 정보 Pp가 산출된다. 스텝 S47에서는, 산출된 엔벨로프 정보 Pe 및 파워 정보 Pp에 기초하여, 소음 파라미터 데이터베이스를 참조하여 환경 소음의 분류가 행해진다.
스텝 S48에서는, 환경 소음의 분류 결과에 기초하여, 대응된 악곡의 카테고리를 선택한다. 그리고, 스텝 S49에서, 선택된 카테고리에 대응하는 악곡 중에서, 소정의 악곡이 선택되어, 대응하는 악곡 데이터가 기록 매체(18)로부터 읽어내어져 재생된다.
스텝 S50에서는, 재생된 악곡이 종료하였을 때에, 음악을 계속해서 청취할 지의 여부가 판단된다. 음악을 계속해서 청취한다고 판단한 경우에는, 처리가 스 텝 S43으로 되돌아가고, 마이크(20)를 통해서 재차, 환경 소음의 수음이 행해진다. 한편, 스텝 S50에서, 음악을 계속해서 청취하지 않는다고 판단한 경우에는, 처리가 스텝 S51로 이행한다. 사용자에 의해 음악 재생 장치(1')의 전원이 OFF로 되어, 일련의 처리가 종료한다.
이와 같이, 본 발명의 제3 실시예에서는, 수음한 환경 소음에 대하여 소음 제거 기능, 또는 소음 제거와 등가의 처리를 적용함으로써, 악곡을 청취할 때의 환경 소음이 저감된다. 그리고, 소음이 저감된 환경 소음으로부터 추출된 특징량에 기초하여, 현재의 환경을 판단한다. 판단 결과에 기초하여 미리 대응된 악곡의 카테고리를 선택한다. 따라서, 환경에 따른 적절한 악곡을 자동으로 선택할 수 있다.
또한, 예를 들면, "교통 수단"의 내부 등의 소음 레벨이 높은 환경에서도, 환경 소음이 "커피숍" 등의 소음 레벨이 낮은 환경으로 분류되어, "클래식"의 카테고리로 분류되는 조용한 악곡 등, 종래에서는 환경 소음에 적합하지 않은 악곡을 청취할 수 있다.
또한, 본 발명의 제3 실시예에서는, 전술한 제1 실시예에 대하여 소음 제거 기능을 적용한 경우에 대하여 설명하였지만, 이것은 이 예에 한정되지 않는다. 예를 들면, 전술한 제2 실시예에 대하여 소음 제거 기능을 적용하도록 하여도 된다. 이 경우에는, 소음 제거 기능에 의해 소음이 저감한 환경 소음의 특징량과, 악곡의 특징량을 비교하여, 특징량 간의 유사도가 가장 높은 또는 가장 낮은 악곡을 선택한다. 이렇게 함으로써, 사용자는 환경에 적합한 악곡을 청취할 수 있다.
이상, 본 발명의 제1 실시예, 제1 실시예의 변형예, 제2 실시예 및 제3 실시 예에 대하여 설명하였지만, 본 발명은, 전술한 본 발명의 제1 실시예, 제1 실시예의 변형예, 제2 실시예 및 제3 실시예에 한정되는 것은 아니며, 본 발명의 요지를 일탈하지 않는 범위 내에서 다양한 변형이나 응용이 가능하다. 전술한 예에서는, 환경 소음에 대한 해석 방법으로서 주파수 해석을 이용하였지만, 본 발명은 이것에 한정되지 않는다. 예를 들면, 시간 파형의 해석을 수행하여도 된다.
또한, 예를 들면, 환경 소음의 특징량으로서, 엔벨로프 및 파워를 이용한 경우에 대하여 설명하였지만, 본 발명은 이 예에 한정되지 않고, 다른 특징량을 이용하여도 된다. 또한, 2개의 특징량에 한정되지 않고, 3개 이상의 특징량에 기초하여 환경 소음을 분류하여도 된다.
또한, 전술한 예에서는, 환경 소음을 "교통 수단" 및 "커피숍"으로 분류하여 설명하였지만, 본 발명은 이 예에 한정되지 않는다. 예를 들면, 환경 소음을 3개 이상으로 분류하여도 된다. 또한, 악곡의 카테고리에 대해서도, "락" 및 "클래식"에 한정되지 않고, 환경 소음을 그 밖의 카테고리로 분류하여도 된다. 예를 들면, "밝은 곡"이나 "안정을 주는 곡" 등, 사용자의 기분에 맞춘 카테고리로 분류하도록 하여도 된다.
도 1은 본 발명의 제1 실시예에 적용 가능한 음악 재생 장치의 일례의 사용 형태를 나타내는 개략도.
도 2는 본 발명의 제1 실시예에 적용 가능한 음악 재생 장치의 일례의 구성을 나타내는 블록도.
도 3은 환경 소음의 주파수 특성의 일례를 나타내는 개략도.
도 4는 환경 소음의 특징량에 대하여 설명하기 위한 개략도.
도 5는 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도.
도 6은 소음 파라미터 데이터베이스의 제작 방법에 대하여 설명하기 위한 개략도.
도 7은 본 발명의 제1 실시예에서의 악곡의 카테고리의 선택 방법에 대하여 설명하기 위한 플로우차트.
도 8은 본 발명의 제1 실시예의 변형예에 적용 가능한 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도.
도 9는 환경 소음 및 악곡의 주파수 특성을 나타내는 개략도.
도 10은 환경 소음 및 악곡의 주파수 특성을 나타내는 개략도.
도 11은 본 발명의 제2 실시예에 적용 가능한 음악 재생 장치의 일례의 사용 형태를 나타내는 개략도.
도 12는 환경 소음에 따른 악곡의 선택 방법의 일례에 대하여 설명하기 위한 블록도.
도 13은 소음 데이터 및 악곡 데이터의 유사도에 대하여 설명하기 위한 개략도.
도 14는 본 발명의 제2 실시예에서의 악곡의 선택 방법에 대하여 설명하기 위한 플로우차트.
도 15는 환경 소음 및 또 다른 악곡의 주파수 특성을 나타내는 개략도.
도 16은 소음 데이터 및 악곡 데이터의 유사도에 대하여 설명하기 위한 개략도.
도 17은 본 발명의 제3 실시예에 적용 가능한 음악 재생 장치의 일례의 사용 형태를 나타내는 개략도.
도 18은 헤드폰의 내부에 설치된 마이크를 이용한 경우의 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도.
도 19는 헤드폰의 내부에 설치된 마이크를 이용한 경우의 악곡의 카테고리의 선택 방법에 대하여 설명하기 위한 플로우차트.
도 20은 헤드폰의 외부에 설치된 마이크를 이용한 경우의 환경 소음의 분류 방법의 일례에 대하여 설명하기 위한 블록도.
도 21은 헤드폰의 외부에 설치된 마이크를 이용한 경우의 악곡의 카테고리의 선택 방법에 대하여 설명하기 위한 플로우차트.
도 22는 종래의 음악 재생 장치의 일례의 사용 형태를 나타내는 개략도.
도 23은 종래의 음악 재생 장치에서의 악곡의 카테고리의 선택 방법에 대하여 설명하기 위한 플로우차트.
<도면의 주요 부분에 대한 부호의 설명>
1, 1': 음악 재생 장치
2, 2': 헤드폰
11: CPU
14: 음성 신호 처리부
18: 기록 매체
19: 음성 출력부
20, 20': 음성 출력부
31, 37, 51, 54: 주파수 분석부
32, 38, 52, 55: 엔벨로프 해석부
33, 39, 53, 56: 파워 해석부
34, 45: 소음 판정부
35: 소음 파라미터 데이터베이스
36, 46: 카테고리 선택부
41: 변환부
42: 메모리
43: 승산기
44: 가산기
57: 악곡 특징량 데이터베이스
58: 유사도 판정부
61: 등가 필터
62: 선택부
62a, 62b: 입력 단자

Claims (19)

  1. 주위 환경의 소음 데이터를 수음하는 수음부(sound collecting unit)와,
    상기 수음부에 의해 수음된 소음 데이터에 대하여 주파수를 해석하고, 상기 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석부와,
    소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스와,
    기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생부
    를 포함하며,
    상기 해석부는,
    추출된 상기 소음 데이터의 특징량에 기초하여, 상기 소음 파라미터 데이터베이스를 참조하여 상기 소음 데이터를 분류하고, 상기 분류를 소정 시간마다 행하여, 그 분류 결과를 소정 횟수분 메모리에 기억하고, 상기 메모리에 기억된 상기 소정 횟수분의 분류 결과에 대하여, 과거의 분류 결과일수록 가중치가 감소하는 가중 계수를 각각 컨벌루션 연산(convolution operate)하고, 상기 가중 계수가 컨벌루션 연산된 상기 소정 횟수분의 분류 결과의 평균에 기초하여 상기 소음 데이터를 분류하고,
    상기 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하고, 상기 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택하는 악곡 재생 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 해석부는, 상기 소음 데이터의 소정 주파수 영역에서의 엔벨로프의 기울기를 상기 특징량으로서 추출하는 악곡 재생 장치.
  5. 제1항에 있어서,
    상기 해석부는, 상기 소음 데이터의 소정 주파수 영역에서의 파워의 총합을 상기 특징량으로서 추출하는 악곡 재생 장치.
  6. 제1항에 있어서,
    상기 해석부는, 상기 수음부에 의해 수음된 소음 데이터에 대하여 시간 파형 해석을 더 행하여, 상기 소음 데이터의 특징량을 추출하는 악곡 재생 장치.
  7. 제1항에 있어서,
    상기 수음부에 의해 수음된 소음 데이터의 소음 레벨을 저감시키는 소음 저감부를 더 포함하며,
    상기 해석부는, 상기 소음 저감부에 의해 소음이 저감된 소음 데이터에 대하여 주파수를 해석하는 악곡 재생 장치.
  8. 제7항에 있어서,
    상기 재생부에서 재생된 악곡 데이터를 출력하는 음성 출력부를 더 포함하며,
    상기 수음부는 상기 음성 출력부의 내부에 설치되는 악곡 재생 장치.
  9. 제7항에 있어서,
    상기 재생부에서 재생된 악곡 데이터를 출력하는 음성 출력부를 더 포함하며,
    상기 수음부는 상기 음성 출력부의 외부에 설치되는 악곡 재생 장치.
  10. 주위 환경의 소음 데이터를 수음하는 수음 스텝과,
    상기 수음 스텝에서 수음된 소음 데이터에 대하여 주파수를 해석하고, 상기 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석 스텝과,
    기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생 스텝
    을 포함하며,
    상기 해석 스텝은,
    추출된 상기 소음 데이터의 특징량에 기초하여, 소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스를 참조하여 상기 소음 데이터를 분류하고, 상기 분류를 소정 시간마다 행하여, 그 분류 결과를 소정 횟수분 메모리에 기억하고, 상기 메모리에 기억된 상기 소정 횟수분의 분류 결과에 대하여, 과거의 분류 결과일수록 가중치가 감소하는 가중 계수를 각각 컨벌루션 연산하고, 상기 가중 계수가 컨벌루션 연산된 상기 소정 횟수분의 분류 결과의 평균에 기초하여 상기 소음 데이터를 분류하고,
    상기 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하고, 상기 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택하는 악곡 재생 방법을 컴퓨터 장치에 실행시키는 재생 프로그램이 기록된 컴퓨터 판독가능한 기록 매체.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 수음부와, 해석부와, 소음 데이터를 환경마다 분류하기 위한 소음 파라미터 데이터베이스와, 재생부를 구비한 악곡 재생 장치에 의해 실행되는 악곡 재생 방법으로서,
    상기 수음부가 주위 환경의 소음 데이터를 수음하는 수음 스텝과,
    상기 해석부가 상기 수음 스텝에서 수음된 소음 데이터에 대하여 주파수를 해석하고, 상기 소음 데이터의 특징을 나타내는 특징량을 추출하는 해석 스텝과,
    상기 재생부가 기록 매체에 기록되어 카테고리마다 분류된 악곡 데이터를 재생하는 재생 스텝
    을 포함하며,
    상기 해석 스텝은,
    추출된 상기 소음 데이터의 특징량에 기초하여, 상기 소음 파라미터 데이터베이스를 참조하여 상기 소음 데이터를 분류하고, 상기 분류를 소정 시간마다 행하여, 그 분류 결과를 소정 횟수분 메모리에 기억하고, 상기 메모리에 기억된 상기 소정 횟수분의 분류 결과에 대하여, 과거의 분류 결과일수록 가중치가 감소하는 가중 계수를 각각 컨벌루션 연산하고, 상기 가중 계수가 컨벌루션 연산된 상기 소정 횟수분의 분류 결과의 평균에 기초하여 상기 소음 데이터를 분류하고,
    상기 소음 데이터의 분류 결과에 따라서, 미리 대응된 악곡의 카테고리를 선택하고, 상기 선택된 카테고리로 분류된 악곡 데이터 중에서 소정의 악곡 데이터를 선택하는 악곡 재생 방법.
KR1020090029575A 2008-04-07 2009-04-06 악곡 재생 장치, 악곡 재생 방법 및 기록 매체 KR101534346B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008099166A JP4623124B2 (ja) 2008-04-07 2008-04-07 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
JPJP-P-2008-099166 2008-04-07

Publications (2)

Publication Number Publication Date
KR20090107001A KR20090107001A (ko) 2009-10-12
KR101534346B1 true KR101534346B1 (ko) 2015-07-06

Family

ID=40565409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090029575A KR101534346B1 (ko) 2008-04-07 2009-04-06 악곡 재생 장치, 악곡 재생 방법 및 기록 매체

Country Status (5)

Country Link
US (1) US8076567B2 (ko)
JP (1) JP4623124B2 (ko)
KR (1) KR101534346B1 (ko)
CN (2) CN102419967A (ko)
GB (1) GB2459008B (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591557B2 (ja) * 2008-06-16 2010-12-01 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
JP5499633B2 (ja) * 2009-10-28 2014-05-21 ソニー株式会社 再生装置、ヘッドホン及び再生方法
US20110184539A1 (en) * 2010-01-22 2011-07-28 Sony Ericsson Mobile Communications Ab Selecting audio data to be played back in an audio reproduction device
JP2014130467A (ja) * 2012-12-28 2014-07-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US20150179181A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Adapting audio based upon detected environmental accoustics
CN106416063A (zh) * 2014-04-10 2017-02-15 弗劳恩霍夫应用研究促进协会 用于身体活动期间的自适应声音回放的音频系统和方法
EP3057097B1 (en) * 2015-02-11 2017-09-27 Nxp B.V. Time zero convergence single microphone noise reduction
CN105872884B (zh) * 2016-05-24 2019-09-06 Tcl通力电子(惠州)有限公司 耳机、耳机的下行降噪电路及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06216974A (ja) * 1992-11-02 1994-08-05 American Teleph & Telegr Co <Att> ノイズ消去受信装置
JP2004086189A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 楽曲検索システム
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381074B2 (ja) * 1992-09-21 2003-02-24 ソニー株式会社 音響構成装置
JPH06274164A (ja) * 1993-03-18 1994-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
DE69836785T2 (de) * 1997-10-03 2007-04-26 Matsushita Electric Industrial Co., Ltd., Kadoma Audiosignalkompression, Sprachsignalkompression und Spracherkennung
JP3956263B2 (ja) * 1999-07-19 2007-08-08 ヤマハ株式会社 電話装置
JP2001223767A (ja) * 2000-02-07 2001-08-17 Hitachi Ltd 携帯電話装置
US6910035B2 (en) * 2000-07-06 2005-06-21 Microsoft Corporation System and methods for providing automatic classification of media entities according to consonance properties
EP1540986A1 (en) * 2002-09-13 2005-06-15 Koninklijke Philips Electronics N.V. Calibrating a first and a second microphone
EP1620811A1 (en) 2003-04-24 2006-02-01 Koninklijke Philips Electronics N.V. Parameterized temporal feature analysis
JP4182809B2 (ja) 2003-05-12 2008-11-19 ソニー株式会社 ディスク再生装置
JP2004361845A (ja) * 2003-06-06 2004-12-24 Mitsubishi Electric Corp 移動体における自動選曲システム
US20050129252A1 (en) * 2003-12-12 2005-06-16 International Business Machines Corporation Audio presentations based on environmental context and user preferences
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
JP4650662B2 (ja) 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
JP4649859B2 (ja) 2004-03-25 2011-03-16 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP2006092430A (ja) 2004-09-27 2006-04-06 Denso Corp 音楽再生装置
JP4713129B2 (ja) * 2004-11-16 2011-06-29 ソニー株式会社 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
CN1783892A (zh) * 2004-12-02 2006-06-07 华为技术有限公司 移动终端中自动切换情景模式的实现方法及其装置
JP4209838B2 (ja) * 2004-12-15 2009-01-14 株式会社ケンウッド 車載マルチメディアシステム、車載マルチメディア装置およびポータブルプレーヤ
JP2006251054A (ja) 2005-03-08 2006-09-21 Yamaha Corp 楽音制御装置
JP4550888B2 (ja) * 2005-03-31 2010-09-22 パイオニア株式会社 音出力制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2007088521A (ja) 2005-09-16 2007-04-05 Nec Saitama Ltd イヤホンの音漏れ防止装置、方法、プログラム及び携帯電話無線機
JP2007110481A (ja) * 2005-10-14 2007-04-26 Fujitsu Ten Ltd 音声制御装置、補正装置
KR100749045B1 (ko) * 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치
JP4517401B2 (ja) * 2006-03-03 2010-08-04 日本ビクター株式会社 音楽再生装置、音楽再生プログラム、音楽再生方法、楽曲選択装置、楽曲選択プログラム、及び楽曲選択方法
JP4322283B2 (ja) * 2007-02-26 2009-08-26 独立行政法人産業技術総合研究所 演奏判定装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06216974A (ja) * 1992-11-02 1994-08-05 American Teleph & Telegr Co <Att> ノイズ消去受信装置
JP2004086189A (ja) * 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 楽曲検索システム
JP2007266803A (ja) * 2006-03-28 2007-10-11 Nec Saitama Ltd 着信メロディ機能付通信機

Also Published As

Publication number Publication date
CN101556797B (zh) 2012-01-25
CN102419967A (zh) 2012-04-18
JP2009251276A (ja) 2009-10-29
US20090249942A1 (en) 2009-10-08
US8076567B2 (en) 2011-12-13
GB0902843D0 (en) 2009-04-08
GB2459008B (en) 2010-11-10
KR20090107001A (ko) 2009-10-12
GB2459008A (en) 2009-10-14
CN101556797A (zh) 2009-10-14
JP4623124B2 (ja) 2011-02-02

Similar Documents

Publication Publication Date Title
KR101534346B1 (ko) 악곡 재생 장치, 악곡 재생 방법 및 기록 매체
JP4067969B2 (ja) 信号を特徴付ける方法および装置、および、索引信号を生成する方法および装置
JP4640463B2 (ja) 再生装置、表示方法および表示プログラム
KR100896737B1 (ko) 오디오 신호의 견고한 분류를 위한 장치 및 방법, 오디오신호 데이터베이스를 설정 및 운영하는 방법, 및 컴퓨터프로그램
JP4640461B2 (ja) 音量調整装置およびプログラム
JP2004530153A6 (ja) 信号を特徴付ける方法および装置、および、索引信号を生成する方法および装置
US20050038635A1 (en) Apparatus and method for characterizing an information signal
US20080160943A1 (en) Method and apparatus to post-process an audio signal
CN101421778B (zh) 在用于谐波和基调分析的音频频谱中选择音调分量
KR20130112898A (ko) 시간 변화 정보를 갖는 기저 함수를 사용한 음악 신호의 분해
CN110211556B (zh) 音乐文件的处理方法、装置、终端及存储介质
CN110459196A (zh) 一种调整歌曲演唱难度的方法、装置及系统
JP2010021627A (ja) 音量調整装置、音量調整方法および音量調整プログラム
CN101379549B (zh) 声音合成装置、声音合成方法
EP1512952A1 (en) Speech signal interpolation device, speech signal interpolation method, and program
JP2008058470A (ja) 音声信号処理装置、音声信号再生システム
JP6102076B2 (ja) 評価装置
JP2014178620A (ja) 音声処理装置
KR100456408B1 (ko) 오디오유전자 생성방법 및 오디오데이터 검색방법
JP5126281B2 (ja) 楽曲再生装置
WO2017135350A1 (ja) 記録媒体、音響処理装置および音響処理方法
CN115273826A (zh) 歌声识别模型训练方法、歌声识别方法及相关装置
CN113781989A (zh) 一种音频的动画播放、节奏卡点识别方法及相关装置
JP4483561B2 (ja) 音響信号分析装置、音響信号分析方法及び音響信号分析プログラム
JP3227291B2 (ja) データ符号化装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right