KR20070082529A - 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법 - Google Patents

악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법 Download PDF

Info

Publication number
KR20070082529A
KR20070082529A KR1020070015195A KR20070015195A KR20070082529A KR 20070082529 A KR20070082529 A KR 20070082529A KR 1020070015195 A KR1020070015195 A KR 1020070015195A KR 20070015195 A KR20070015195 A KR 20070015195A KR 20070082529 A KR20070082529 A KR 20070082529A
Authority
KR
South Korea
Prior art keywords
music
information
section
data
processing unit
Prior art date
Application number
KR1020070015195A
Other languages
English (en)
Inventor
타카시 코이케
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20070082529A publication Critical patent/KR20070082529A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/046Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/211Wireless transmission, e.g. of music parameters or control data by radio, infrared or ultrasound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/031Spectrum envelope processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

본 발명에 따른 악곡 추출 프로그램은, 입력된 오디오 데이터의 처리 단위마다 곡다움을 검출하는 곡다움 검출 스텝과; 상기 곡다움의 검출 결과에 응하여, 상기 오디오 데이터에서의 곡 후보 구간을 특정하는 곡 후보 구간 특정 스텝과; 상기 곡 후보 구간과, 외부 서버로부터 취득한 악곡 정보에 의거하여, 상기 오디오 데이터에서의 곡 구간을 결정하는 곡 구간 결정 스텝과; 기록 매체에 상기 악곡 정보를 상기 곡 구간에 대응시켜서 기록하는 악곡 정보 기록 스텝을 포함한다.
악곡추출

Description

악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법{MUSICAL PIECE EXTRACTION PROGRAM, APPARATUS, AND METHOD}
도 1은 본 발명에 의한 악곡 추출 장치의 개요를 도시하는 블록도.
도 2는 본 발명에 의한 악곡 취득 시스템의 전체 구성을 도시하는 약선도.
도 3은 방송 악곡 테이블의 구성을 도시하는 약선도.
도 4는 본 발명을 적용한 데이터 기록 장치의 회로 구성의 한 실시의 형태를 도시하는 블록도.
도 5는 데이터 처리부의 회로 구성을 도시하는 블록도.
도 6은 곡다움 검출 처리 순서를 도시하는 순서도.
도 7은 곡다움 검출 처리 순서를 도시하는 순서도.
도 8은 악곡 판별 처리 순서를 도시하는 순서도.
도 9는 방송프로그램 음성 데이터의 구성을 도시하는 약선도.
도 10은 곡 후보 구간의 특정의 설명에 제공하는 약선도.
도 11은 곡 후보 구간 테이블의 구성을 도시하는 약선도.
도 12는 시각 보정 방송 악곡 테이블의 구성을 도시하는 약선도.
도 13은 악곡 추출 처리 순서 (1)을 도시하는 순서도.
도 14는 악곡 추출 처리 순서 (2)를 도시하는 순서도.
도 15는 악곡 추출 테이블의 구성을 도시하는 약선도.
도 16은 악곡 추출 처리 순서를 도시하는 순서도.
도 17은 악곡 구입 처리 순서를 도시하는 순서도.
기술 분야
본 발명은 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법에 관한 것으로, 예를 들면 라디오의 방송국(이하, 이것을 라디오국이라고 부른다)에 의해 방송된 라디오 방송프로그램을 방송프로그램 음성 데이터로서 기록하고, 해당 방송프로그램 음성 데이터중에서 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터를 추출하는 데이터 기록 장치에 적용하기 알맞은 것이다.
배경 기술
종래의 데이터 처리 장치는, 라디오국에서 방송되는 라디오 방송프로그램을 방송프로그램 음성 데이터로서 보존하면, 서버 장치로부터 해당 라디오 방송프로그램중에서 방송된 악곡에 대한 곡명(이하, 이것을 악곡 타이틀이라고 부른다)이나 아티스트명, 라디오 방송프로그램 내에서의 악곡의 방송 시작 시각 및 방송 종료 시각 등을 관련시킨 플레이리스트를 취득한다. 그리고 데이터 처리 장치는, 플레이리스트 내의 악곡에 대한 방송 시작 시각 및 방송 종료 시각을 참조하여 방송프로 그램 음성 데이터중에서 해당 악곡의 악곡 데이터를 추출하고 있다(예를 들면, 특허문헌1 참조).
또한 종래의 기록 장치는, 유저에 의해 소망하는 악곡을 나타내는 키워드가 입력된 상태에서 라디오 방송프로그램을 방송프로그램 음성 데이터로서 수신하면, 그 방송프로그램 음성 데이터를 수신하고 있는 동안, 하드 디스크에 대해 현시점부터 소정 시간(이하, 이것을 보존 시간이라고 부른다) 전까지의 해당 방송프로그램 음성 데이터를 항상 갱신하면서 일시 기록한다. 그리고 기록 장치는, 방송프로그램 음성 데이터의 일시 기록과 병행하여 라디오 방송 정보 배신 서버로부터 라디오 방송프로그램중에서 지금 현재 방송되고 있는 악곡의 방송 시작 시각, 악곡 타이틀, 아티스트명 및 장르명을 나타내는 나우 온 에어 정보를, 방송프로그램 음성 데이터에 대한 보존 시간보다도 짧은 소정 시간(이하, 이것을 취득 시간이라고 부른다) 간격으로 주기적으로 취득하고, 해당 취득한 나우 온 에어 정보에 키워드와 일치하는 정보가 포함되어 있는지의 여부를 판별한다. 그 결과, 기록 장치는, 나우 온 에어 정보에 키워드와 일치하는 정보가 포함되어 있으면, 하드 디스크로부터 이것에 일시 기록하고 있는 보존 시간분의 방송프로그램 음성 데이터중 나우 온 에어 정보를 수신한 시점부터 취득 시간 전까지의 부분의 방송프로그램 음성 데이터를 취출하고, 해당 취출한 방송프로그램 음성 데이터에 계속해서 나우 온 에어 정보를 수신한 시점 이후의 방송프로그램 음성 데이터를 보존용으로서 하드 디스크에 기록하여 간다. 그리고 기록 장치는, 주기적으로 취득하고 있는 나우 온 에어 정보에 키워드와 일치하는 정보가 포함되지 않게 된 때, 하드 디스크에 대한 방송프로그램 음성 데이터의 보존용의 기록을 정지한다. 이와 같이 하여 기록 장치는, 주기적으로 취득하는 나우 온 에어 정보를 이용하여, 라디오 방송프로그램 전체의 방송프로그램 음성 데이터중에서 해당 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터를 보존용의 방송프로그램 음성 데이터로서 추출하여 하드 디스크에 기록하고 있다(예를 들면, 특허문헌2 참조).
특허문헌1 : 일본 특개2003-203467 공보(제 4페이지, 제 5페이지, 제 6페이지)
특허문헌2 : 일본 특개2005-332475 공보(제 43페이지, 제 44페이지, 제 45페이지)
그런데 서버 장치에 보존되어 있는 플레이리스트는, 실제로 라디오 방송프로그램중에서 악곡의 방송 시작이나 방송 종료가 초 단위와 같은 미세한 시간 단위로 실행되어도, 해당 악곡의 방송 시작 시각 및 방송 종료 시각이 정밀도가 거친 분 단위로 기술되어 있다. 이때문에 종래의 데이터 처리 장치는, 플레이리스트를 이용하여, 예를 들면 라디오 방송프로그램중에서 악곡의 전후에 흐른 디스크 자키에 의한 악곡 소개의 음성이나 광고방송의 데이터 등을 악곡 데이터의 선두 부분이나 후미 부분으로서 여분으로 추출하는 경우가 있다.
또한 라디오 방송 정보 배신 서버에 보존되어 있는 나우 온 에어 정보는, 라디오 방송프로그램중에서의 악곡의 방송 시작 및 방송 종료에 따라 내용이 갱신되어 있지만, 상술한 플레이리스트와 마찬가지로 실제로 라디오 방송프로그램중에서 의 악곡의 방송 시작이나 방송 종료가 초 단위와 같은 미세한 시간 단위로 실행되어도, 해당 악곡의 방송 시작 시각 및 방송 종료 시각이 정밀도가 거친 분 단위로 기술되어 있다. 또한 종래의 기록 장치는, 라디오 방송 정보 배신 서버로부터 단지 취득 시간 간격으로 주기적으로 나우 온 에어 정보를 취득하고 있고, 그 취득 시간을 나우 온 에어 정보의 내용의 갱신 시각에 맞추고 있는 것은 아니다. 이에 더하여 기록 장치는, 취득 시간도 임의로 설정되어 있고, 방송프로그램 음성 데이터로부터 악곡 데이터를 추출할 때, 일시적으로 기록하고 있던 방송프로그램 음성 데이터의 일부를 이용하여도, 그 일부의 선두 위치가 악곡의 선두 위치와 일치하고 있는 것은 아니다. 이때문에 기록 장치에서도, 예를 들면 라디오 방송프로그램중에서 악곡의 전후에 흐른 디스크 자키에 의한 악곡 소개의 음성이나 광고방송의 데이터 등을 악곡 데이터의 선두 부분이나 후미 부분으로서 여분으로 추출하는 경우가 있다. 이와 같이 종래의 데이터 처리 장치나 기록 장치에서는, 방송프로그램 음성 데이터중에서 악곡 데이터를 정밀도 좋게 추출하고 있다고는 기술하기 어렵다는 문제가 있다.
본 발명은 이상의 점을 고려하여 이루어진 것으로, 방송 정보중에서의 악곡의 추출 정밀도를 향상할 수 있는 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법을 제안하고자 하는 것이다.
본 발명에 따른 악곡 추출 프로그램은: 입력된 오디오 데이터의 처리 단위마다 곡다움(musical piece likeliness) 을 검출하는 곡다움 검출 스텝과, 상기 곡다 움의 검출 결과에 응하여, 상기 오디오 데이터에서의 곡 후보 구간을 특정하는 곡 후보 구간 특정 스텝과, 상기 곡 후보 구간과, 외부 서버로부터 취득한 악곡 정보에 의거하여, 상기 오디오 데이터에서의 곡 구간을 결정하는 곡 구간 결정 스텝과, 기록 매체에 상기 악곡 정보를 상기 곡 구간에 대응시켜서 기록하는 악곡 정보 기록 스텝을 포함하는 것을 특징으로 한다.
따라서 본 발명에서는, 방송 정보로부터 단지 악곡 정보를 이용하여 곡 구간을 결정하는 것이 아니라, 방송 정보중에서 곡다운 곡 후보 구간을 특정한 다음, 이러한 곡 후보 구간과 악곡 정보에 의거하여 해당 방송 정보중에서 곡 구간을 결정함에 의해, 이러한 방송 정보중에서 악곡의 전후에 흐른 악곡 소개의 음성이나 광고방송의 음성 등의 부분을 제거하여 곡 구간을 결정할 수 있다.
발명을 실시하기 위한 최선의 형태
이하 도면에 관해, 본 발명의 한 실시의 형태를 상세히 기술한다.
(1) 실시의 형태의 개요
도 1에서, 100은 전체로서 본 발명에 의한 악곡 추출 장치를 나타낸다. 이러한 악곡 추출 장치(musical piece extraction apparatus; 100)에서 방송 정보 기록부(101)는, 기록 매체(102)에 방송 정보를 기록한다. 또한 악곡 추출 장치(100)에서 곡다움 검출부(musical piece likeliness detection section; 103)는, 방송 정보의 처리 단위마다 곡다움을 검출한다. 또한 악곡 추출 장치(100)에서 곡 후보 구간 특정부(104)는, 곡다움 검출부(103)에 의한 곡다움의 검출 결과에 따라, 기록 매체(102)에 기록된 방송 정보중에서 곡 후보 구간을 특정한다. 또한 악곡 추출 장 치(100)에서 악곡 정보 취득부(105)는, 외부 서버(106)로부터 악곡 정보를 취득한다. 그리고 악곡 추출 장치(100)에서 곡 구간 결정부(107)는, 곡 후보 구간 특정부(104)에 의해 특정된 곡 후보 구간과, 악곡 정보 취득부(105)에 의해 취득된 악곡 정보에 의거하여, 기록 매체(102)에 기록된 방송 정보중에서 곡 구간을 결정한다. 이로써 악곡 추출 장치(100)에서 악곡 정보 기록부(108)는, 기록 매체(102)에 악곡 정보를 곡 구간에 대응시켜서 기록한다. 이와 같이 하여 악곡 추출 장치(100)는, 방송 정보중에서 곡 구간으로서 악곡을 추출할 수 있도록 되어 있다.
그와 관련하여 악곡 추출 장치(100)에서는, 곡다움 검출부(103)가 외부로부터 방송 정보를 취득하면서 해당 방송 정보의 처리 단위마다 곡다움을 검출한 후, 방송 정보 기록부(101)이 이러한 방송 정보를 기록 매체(102)에 기록하도록 하여도 좋고, 방송 정보 기록부(101)가 기록 매체(102)에 대해 방송 정보를 일단 기록한 후, 또는 기록하면서 곡다움 검출부(103)가 해당 기록 매체에 기록된 방송 정보의 처리 단위마다 곡다움을 검출하도록 하여도 좋다. 또한 악곡 추출 장치(100)에서는, 악곡 정보 기록부(108)가 기록 매체(102)에 대해 곡 구간과 대응시켜서 기록하는 악곡 정보를 곡 구간 결정부(107)로부터 취득하도록 하여도 좋고, 악곡 정보 취득부(105)로부터 취득하도록 하여도 좋다.
(2) 실시의 형태
도 2에서, 1은 전체로서 본 발명을 적용한 데이터 기록 장치(2)를 이용하여 구축된 악곡 취득 시스템을 나타내고, 이러한 데이터 기록 장치(2)는 라디오의 방송국(이하, 이것을 라디오국이라고 부른다)(3)이 방송하는 방송 정보로서의 라디오 방송프로그램의 아날로그로 이루어지는 방송프로그램 음성 신호를 수신하고, 해당 수신한 방송프로그램 음성 신호를 디지털의 방송프로그램 음성 데이터로서 기록할 수 있도록 되어 있다. 또한 데이터 기록 장치(2)는, 인터넷 등의 네트워크(NT)를 통하여 라디오 방송 정보 배신 서버(radio broadcast information distribution server; 4), 악곡 정보 검색 서버(5) 및 악곡 배신 서버(6)와 접속하여 통신할 수 있도록 되어 있다.
이 경우, 라디오 방송 정보 배신 서버(4)는, 예를 들면 라디오국(3)에 의해 관리되고, 도 3에 도시하는 바와 같이, 그 라디오국(3)에 의해 라디오 방송프로그램중에서 방송된 악곡에 관한 악곡 정보(이하, 이것을 방송 악곡 정보라고 부른다)(OAM1 내지 OAMn)를 등록한, 이른바 온 에어 리스트 정보라고 불리는 데이터 테이블(이하, 이것을 방송 악곡 테이블이라고 부른다)(OAT)를 보존하고 있다. 이러한 방송 악곡 정보(OAM1 내지 OAMn)는, 라디오국(3)에서 방송된 라디오 방송프로그램의 편성용의 정보와 거의 같은 구성으로 이루어지고, 예를 들면 라디오 방송프로그램을 방송하는 라디오국(3)의 방송국명(RAN), 라디오 방송프로그램중에서 방송된 악곡에 대한 방송 일시 정보(즉, 악곡의 방송일, 방송 시작 시각 및 방송 종료 시각으로 이루어지는 정보)(OTI1), 곡 번호(MN), 악곡에 대한 곡명(이하, 이것을 악곡 타이틀이라고 부른다)(MT), 아티스트명(ARN), 장르명(즉, 악곡이 속하는 장르의 명칭)(JN) 등으로 구성되어 있다.
라디오 방송 정보 배신 서버(4)는, 라디오국(3)으로부터 제작이 끝난 라디오 방송프로그램이 방송되는 경우, 그 라디오 방송프로그램의 방송 전에 해당 라디오 방송프로그램중에서 방송되는 모든 악곡의 방송 악곡 정보(OAM1 내지 OAMn)를 방송 악곡 테이블(OAT)에 등록한다. 또한 라디오 방송 정보 배신 서버(4)는, 라디오국(3)으로부터 라디오 방송프로그램이 생방송되는 경우, 해당 생방송중의 라디오 방송프로그램중에서 악곡이 방송될 때마다 그 악곡의 방송 악곡 정보(OAM1 내지 OAMn)를 생성하고, 이것을 라디오 방송프로그램의 생방송중 또는 생방송의 종료 후에 방송 악곡 테이블(OAT)에 등록한다. 그리고 라디오 방송 정보 배신 서버(4)는, 라디오국(3)에 의해 방송된 라디오 방송프로그램을 방송프로그램 음성 데이터로서 기록한 데이터 기록 장치(2)로부터, 그 라디오 방송프로그램중에 방송된 모든 악곡의 방송 악곡 정보(OAM1 내지 OAMn)가 요구되면, 이에 응하여 요구된 방송 악곡 정보(OAM1 내지 OAMn)를 방송 악곡 테이블(OAT)로서 네트워크(NT) 경유로 데이터 기록 장치(2)에 제공할 수 있도록 되어 있다.
또한 악곡 정보 검색 서버(5)는, 다수의 악곡 각각에 관한 제공용으로서의 악곡 정보(이하, 이것을 제공 악곡 정보라고 부른다)를 보존하고 있다. 그와 관련하여 개개의 제공 악곡 정보는, 예를 들면 악곡에 대한 악곡 타이틀, 아티스트명, 장르명 등으로 구성되어 있다. 이에 더하여 악곡 정보 검색 서버(5)는, 예를 들면 다수의 악곡의 아날로그 음성 파형을 각각 분석하고, 그 분석 결과에 의거하여 이들 다수의 악곡을 개별적으로 식별하기 위한 식별 정보(이하, 이것을 곡 지문 정보라고 부른다)를 생성하고, 해당 생성한 곡 지문 정보를, 이것으로 식별 가능한 악곡의 제공 악곡 정보와 대응시켜서 보존하고 있다.
그리고 악곡 정보 검색 서버(5)는, 후술하는 바와 같이 데이터 기록 장치(2) 로부터 곡 지문 정보가 제시되어 제공 악곡 정보의 검색이 요구되면, 해당 제시된 곡 지문 정보(이하, 이것을 특히 장치 제시 곡 지문 정보라고 부른다)와, 자기가 보존하고 있는 다수의 곡 지문 정보를 비교한다. 이로써 악곡 정보 검색 서버(5)는, 이러한 비교 결과에 의거하여 다수의 제공 악곡 정보중에서, 장치 제시 곡 지문 정보와 일치하는 곡 지문 정보에 대응시켜져 있는 제공 악곡 정보를 검색하고, 해당 검색한 제공 악곡 정보를 네트워크(NT) 경유로 데이터 기록 장치(2)에 송신한다. 이와 같이 하여 악곡 정보 검색 서버(5)는, 예를 들면 미국 그레이스 노트 주식회사나 미국 무드 로직 주식회사가 제공하는 제공 악곡 정보의 검색 서비스와 같이, 데이터 기록 장치(2)에 대해 제공 악곡 정보를 검색하여 제공할 수 있도록 되어 있다.
또한 악곡 배신 서버(6)는, 판매 대상의 다수의 악곡을 ATRAC3(Adaptive Transform Acoustic Coding 3), AAC(Advanced Audio Coding), WMA(Windows Media Audio(등록상표)), Real AUDIO G2 Music Codec, MP3(MPEG Audio Layer-3) 형식 등으로 이루어지는 악곡 데이터로서 보존하고 있다. 또한 악곡 배신 서버(6)는, 이들 다수의 악곡을 각각 시청(試聽)시키기 위한, 예를 들면 악곡 데이터의 일부로 이루어지는 시청(試聽) 데이터도 보존하고 있다. 또한 악곡 배신 서버(6)는, 이들 다수의 악곡에 대한 악곡 타이틀, 아티스트명, 장르명 등으로 이루어지는 악곡 정보도 보존하고 있고, 악곡마다 악곡 정보를 악곡 데이터나 시청 데이터와 대응시키고 있다.
그리고 악곡 배신 서버(6)는, 데이터 기록 장치(2)로부터 악곡 데이터에 대 응시켜져 있는 악곡 정보(이하, 이것을 특히 대응시킨 악곡 정보라고 부른다)가 제시되면, 다수의 악곡 정보중에서 대응시킨 악곡 정보와 일치하는 악곡 정보를 검출하고, 그 검출한 악곡 정보에 대응시켜져 있는 시청 데이터를 예를 들면 스토리밍 형식으로 네트워크(NT)를 통하여 데이터 기록 장치(2)에 송신한다. 이로써 악곡 배신 서버(6)는, 데이터 기록 장치(2)에 의해 그 시청 데이터에 의거하여 유저에게 악곡을 시청시킨다. 그 결과, 악곡 배신 서버(6)는, 유저에 의해 시청한 악곡을 구입하도록 판단되고 데이터 기록 장치(2)로부터 그 악곡의 구입이 요구되면, 시청시킨 악곡의 악곡 데이터(즉, 앞서 검출한 악곡 정보에 대응시켜져 있는 악곡 데이터)를 네트워크(NT) 경유로 데이터 기록 장치(2)에 송신한다. 또한 악곡 배신 서버(6)는, 이때 악곡 데이터의 배신에 수반하는 대가를 데이터 기록 장치(2)의 유저에 대해 과금하기 위한 과금 처리를 실행한다. 이와 같이 하여 악곡 배신 서버(6)는, 데이터 기록 장치(2)에 대해 악곡 데이터를 배신하여 유저에게 그 악곡 데이터를 구입시킬 수 있도록 되어 있다.
한편, 도 4에 도시하는 바와 같이, 데이터 기록 장치(2)는, 중앙 처리 유닛(CPU : Central Processing Unit)(10)과 각 하드웨어가 버스(11)를 통하여 접속되고, 해당 중앙 처리 유닛(10)이 ROM(Read Only Memory)(12) 또는 하드 디스크 드라이브(13)로부터 판독한 악곡 추출 프로그램 등의 각종 프로그램을 RAM(Random Access Memory)(14)에 전개하여 실행함에 의해 전체를 통괄 제어함과 함께, 각종 처리를 실행하도록 되어 있다. 이로써 중앙 처리 유닛(10)은, 예를 들면 데이터 기록 장치(2)의 박스 등에 설치된 조작 키(15)를 통하여 배신 대상의 악곡의 취득이 요구되면, 악곡의 배신을 요구하는 악곡 배신 요구 신호를, 통신 처리부(16)를 통하여 네트워크(NT)상의 악곡 배신 서버(6)에 송신한다. 이때 악곡 배신 서버(6)는, 데이터 기록 장치(2)로부터 송신된 악곡 배신 요구 신호를 수신하면, 이에 응하여, 배신이 요구된 악곡 데이터의 배신에 수반하는 과금 처리를 실행함과 함께, 해당 배신이 요구된 악곡 데이터를 네트워크(NT) 경유로 데이터 기록 장치(2)에 송신한다. 그리고 데이터 기록 장치(2)의 중앙 처리 유닛(10)은, 악곡 배신 서버(6)로부터 송신된 악곡 데이터를, 통신 처리부(16)을 통하여 수신하고, 이것을 하드 디스크 드라이브(13)에 기록한다. 이와 같이 하여 중앙 처리 유닛(10)은, 네트워크(NT)상의 악곡 배신 서버(6)로부터 악곡 데이터를 취득(다운로드)할 수 있도록 되어 있다.
이 후, 중앙 처리 유닛(10)은, 조작 키(15)를 통하여 악곡 데이터의 재생이 요구되면, 하드 디스크 드라이브(13)로부터 재생이 요구된 악곡 데이터를 판독하고, 이것을 데이터 처리부(17)에 송출한다. 데이터 처리부(17)는, 중앙 처리 유닛(10)으로부터 주어진 악곡 데이터에 대해 디코드 처리 등의 디지털 처리를 시행한 후, 이 디지털 처리한 악곡 데이터에 대해 디지털 아날로그 변환 처리 및 증폭 처리 등의 아날로그 처리를 시행한다. 이로써 데이터 처리부(17)는, 이러한 아날로그 처리에 의해 악곡 신호를 얻고, 이것을 스피커(18)에 송출함에 의해 해당 스피커(18)로부터 악곡 신호에 의거한 악곡을 출력시켜서 유저에게 청취시킬 수 있다. 이와 같이 하여 중앙 처리 유닛(10)은, 하드 디스크 드라이브(13)에 기록한 악곡 데이터를 재생할 수 있도록 되어 있다.
또한 중앙 처리 유닛(10)은, 조작 키(15)를 통하여 라디오국(3)이 선국되고 라디오 방송프로그램의 청취가 요구되면, 튜너(19)에 대해 복수의 라디오국(3)의 라디오 방송파중, 유저에 의해 선국된 라디오국(3)의 라디오 방송파를 추출하도록 설정하여 동작시킨다. 또한 중앙 처리 유닛(10)은, 이때 데이터 처리부(17)를 라디오 방송프로그램의 청취용으로 제어한다. 이로써 튜너(19)는, 안테나(20)로 수신된 각 라디오국(3)의 라디오 방송파중에서, 유저에 의해 선국된 라디오국(3)의 라디오 방송파를 추출하여 복조 처리 등의 소정의 수신 처리를 시행하고, 이 결과 얻어진 라디오 방송프로그램의 방송프로그램 음성 신호를 데이터 처리부(17)에 송출한다. 데이터 처리부(17)는, 튜너(19)로부터 주어진 방송프로그램 음성 신호에 대해 아날로그 디지털 변환 처리 및 이퀄라이징 처리 등의 디지털 처리를 시행하고, 그 결과 얻어진 방송프로그램 음성 데이터에 대해 디지털 아날로그 변환 처리 및 증폭 처리 등의 아날로그 처리를 시행한다. 이로써 데이터 처리부(17)는, 이러한 아날로그 처리에 의해 방송프로그램 음성 신호를 얻고, 이것을 스피커(18)에 송출함에 의해 해당 스피커(18)로부터 방송프로그램 음성 신호에 의거한 방송프로그램 음성을 출력시켜서 유저에게 청취시킨다. 이와 같이 하여 중앙 처리 유닛(10)은, 유저에 대해 소망하는 라디오국(3)에서 방송되고 있는 라디오 방송프로그램을 청취시킬 수 있다.
또한 중앙 처리 유닛(10)은, 조작 키(15)를 통하여 라디오국(3)이 선국되고 라디오 방송프로그램의 녹음이 요구되면, 상술한 바와 마찬가지로 튜너(19)를 유저에 의해 선국된 라디오국(3)의 라디오 방송파를 추출하도록 설정하여 동작시킨다. 또한 중앙 처리 유닛(10)은, 이때 데이터 처리부(17)을 라디오 방송프로그램의 녹음용으로 제어한다. 이로써 튜너(19)는, 안테나(20)로 수신된 각 라디오국(3)의 라디오 방송파중에서, 유저에 의해 선국된 라디오국(3)의 라디오 방송파를 추출하여 수신 처리를 시행하고, 이 결과 얻어진 라디오 방송프로그램의 방송프로그램 음성 신호를 데이터 처리부(17)에 송출한다. 또한 데이터 처리부(17)은, 튜너(19)로부터 주어진 방송프로그램 음성 신호에 대해 디지털 처리를 시행하고, 그 결과 얻어진 방송프로그램 음성 데이터를 중앙 처리 유닛(10)에 송출한다. 그리고 중앙 처리 유닛(10)은, 방송프로그램 음성 데이터를 하드 디스크 드라이브(13)에 송출하여 데이터 파일(이하, 이것을 방송프로그램 음성 파일이라고 부른다)로서 기록한다. 이와 같이 하여 중앙 처리 유닛(10)은, 소망하는 라디오국(3)에서 방송되고 있는 라디오 방송프로그램을 녹음할 수 있다. 그와 관련하여 중앙 처리 유닛(10)은, 라디오 방송프로그램을 녹음한 후에는, 상술한 악곡 데이터의 재생시와 마찬가지로 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터를 판독하여 재생 처리함에 의해 라디오 방송프로그램을 청취시킬 수도 있다.
또한 중앙 처리 유닛(10)은, ROM(12)으로부터 판독한 각종 프로그램의 실행 결과(예를 들면, 악곡 데이터의 취득 및 재생이나 라디오 방송프로그램의 청취 및 녹음 등)에 응한 표시용 데이터를 표시 제어부(21)에 송출한다. 표시 제어부(21)는, 중앙 처리 유닛(10)으로부터 주어진 표시용 데이터에 의거한 화면을 디스플레이(22)에 표시한다. 이와 같이 하여 중앙 처리 유닛(10)은, 디스플레이(22)를 통하여, 악곡 데이터의 취득 및 재생이나 라디오 방송프로그램의 청취 및 녹음 등에 관 한 각종 화면을 유저에게 시인(視認)시킬 수 있도록 되어 있다.
그런데 도 5에 도시하는 바와 같이, 데이터 처리부(17)는, 튜너(19)에 접속된 입력 인터페이스(30)와, 스피커(18)에 접속된 출력 인터페이스(31)가 각각 입출력 전환기(32)에 접속되어 있다. 그리고 데이터 처리부(17)의 입출력 전환기(32)는, 악곡 데이터의 재생시, 중앙 처리 유닛(10)의 제어하에서, 출력 인터페이스(31)를 입력 인터페이스(30)로부터 분리하여 버스(11)에 접속한다. 이로써 출력 인터페이스(31)는, 중앙 처리 유닛(10)으로부터 입출력 전환기(32)를 통하여 주어진 악곡 데이터에 대해 디코드 처리 등의 디지털 처리를 시행한 후, 이 디지털 처리한 악곡 데이터에 대해 디지털 아날로그 변환 처리 및 증폭 처리 등의 아날로그 처리를 시행하고, 그 결과 얻어진 악곡 신호를 스피커(18)에 송출한다.
또한 데이터 처리부(17)에서 입출력 전환기(32)는, 라디오 방송프로그램의 청취시, 중앙 처리 유닛(10)의 제어하에, 입력 인터페이스(30) 및 출력 인터페이스(31)를 버스(11)로부터 분리하고, 이들을 서로 접속한다. 이로써 입력 인터페이스(30)는, 이때 튜너(19)로부터 주어진 방송프로그램 음성 신호에 대해 아날로그 디지털 변환 처리 및 이퀄라이징 처리 등의 디지털 처리를 시행하고, 그 결과 얻어진 방송프로그램 음성 데이터를, 입출력 전환기(32)를 통하여 출력 인터페이스(31)에 송출한다. 그리고 출력 인터페이스(31)는, 입력 인터페이스(30)로부터 주어진 방송프로그램 음성 데이터에 대해 디지털 아날로그 변환 처리 및 증폭 처리 등의 아날로그 처리를 시행하고, 그 결과 얻어진 방송프로그램 음성 신호를 스피커(18)에 송출한다. 또한 데이터 처리부(17)에서 입출력 전환기(32)는, 라디오 방송프로 그램의 녹음시, 중앙 처리 유닛(10)의 제어하에, 입력 인터페이스(30)를 출력 인터페이스(31)로부터 분리하여 버스(11)에 접속한다. 이로써 입력 인터페이스(30)는, 튜너(19)로부터 주어진 방송프로그램 음성 신호에 대해 아날로그 디지털 변환 처리 등의 디지털 처리를 시행하고, 그 결과 얻어진 방송프로그램 음성 데이터를, 입출력 전환기(32)를 통하여 중앙 처리 유닛(10)에 송출한다.
이러한 구성에 더하여 데이터 처리부(17)에는, 데이터 해석 회로(35)가 마련되어 있다. 데이터 해석 회로(35)는, 버스(11)에 접속된 입력 전환기(36)에 대해 곡다움 검출기(37)의 입력단과 곡 지문 생성기(38)의 입력단이 접속되고, 버스(11)에 접속된 출력 전환기(39)에 대해 곡다움 검출기(37)의 출력단과 곡 지문 생성기(38)의 출력단이 접속되어 구성되어 있다. 이 경우, 데이터 해석 회로(35)에서 곡다움 검출기(37)는, 처리 대상의 데이터에 대해 얼마만큼 악곡 데이터다운지를 수치화하여 나타내는 곡다움을 검출할 수 있도록 되어 있다. 또한 데이터 해석 회로(35)에서 곡 지문 생성기(38)는, 곡다움 검출기(37)에 의한 곡다움의 검출 결과에 의거하여 처리 대상의 데이터중에서 특정된 곡 후보 구간이 나타내는 부분 데이터(이하, 이것을 곡 후보 구간 데이터라고 부른다)의 예를 들면 아날로그 음성 파형을 분석하고, 그 분석 결과에 의거하여, 상술한 악곡 정보 검색 서버(5)와 마찬가지로 곡 지문 정보를 생성할 수 있도록 되어 있다.
즉 중앙 처리 유닛(10)은, 유저에 의해 조작 키(15)를 통하여 악곡의 자동 추출을 목적으로 한 라디오 방송프로그램의 녹음이 요구되면, 이에 응하여 데이터 처리부(17)의 데이터 해석 회로(35)를 제어한다. 이로써 데이터 해석 회로(35)는, 입력 전환기(36) 및 출력 전환기(39)에 의해, 곡다움 검출기(37)와 곡 지문 생성기(38)중 한쪽의 곡다움 검출기(37)의 입력단 및 출력단을 각각 버스(11)에 접속한다. 그리고 중앙 처리 유닛(10)은, 이때 상술한 바와 마찬가지로 데이터 처리부(17)로부터 주어지는 방송프로그램 음성 데이터를 하드 디스크 드라이브(13)에 기록하면서, 이러한 기록 처리와 병행하여 해당 방송프로그램 음성 데이터를 소정의 처리 단위의 데이터(예를 들면, 라디오 방송프로그램의 1초 정도의 방송프로그램 음성 데이터에 상당하고, 이하, 이것을 처리 단위 데이터라고 부른다)마다 데이터 해석 회로(35)에 송출한다. 따라서 데이터 해석 회로(35)는, 중앙 처리 유닛(10)으로부터 주어진 처리 단위 데이터를, 입력 전환기(36)을 통하여 곡다움 검출기(37)에 순차적으로 받아들인다. 그리고 곡다움 검출기(37)는, 상술한 처리 대상의 데이터로서의 처리 단위 데이터가, 얼마만큼 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터다운지를 수치화하여 나타내는 곡다움을 검출하도록 하여, 이러한 곡다움의 검출을 방송프로그램 음성 데이터 전체에 대해 실행한다.
여기서 곡다움 검출기(37)에 의한 곡다움의 검출 수법으로서는, 예를 들면 2종류 있다. 이들 2종류의 곡다움 검출 수법중 한쪽의 곡다움 검출 수법은, 사람의 소리의 주파수 성분이 비교적 저역측에 분포하고, 또한 악기 등의 소리의 주파수 성분이 비교적 고역측에 분포하고 있는 것을 이용하는 것이다. 즉 한쪽의 곡다움 검출 수법은, 처리 단위 데이터를 주파수 분석하고, 그 분석 결과에 의거하여 곡다움을 검출하는 것이다. 또한 다른쪽의 곡다움 검출 수법은, 일반적으로 음성 데이터가 사람의 소리의 생성 기구를 모델화하여 인코드 처리(즉, 압축 처리)되어 있기 때문에, 악곡 등의 소리(聲) 이외의 부분의 데이터를 인코드 처리한 경우에 그 데이터의 원래의 파형과, 해당 데이터를 코덱 처리(즉, 일단 인코드 처리한 후 디코드 처리)하여 얻어진 처리 결과 데이터의 파형의 차분(이하, 이것을 인코드 오차라고 부른다)이, 소리(聲) 부분의 데이터로부터 얻어지는 인코드 오차에 비하여 커지는 것을 이용하는 것이다. 즉 다른쪽의 곡다움 검출 수법은, 처리 단위 데이터의 인코드 오차에 의거하여 곡다움을 검출하는 것이다. 그리고, 이러한 곡다움 검출기(37)에는, 이들 2종류의 곡다움 검출 수법중 어느 한쪽이 적용되어 있는 것에 의해, 이하에는, 이들 2종류의 곡다움 검출 수법에 관해 순서대로 설명한다.
우선 곡다움 검출기(37)에 대해 한쪽의 곡다움 검출 수법이 적용되어 있는 경우, 이러한 곡다움 검출기(37)는, 중앙 처리 유닛(10)의 제어하에, 내부의 메모리에 미리 기억하고 있는 곡다움 검출 프로그램에 따라 도 6에 도시하는 곡다움 검출 처리 순서(RT1)를 시작한다. 곡다움 검출기(37)는, 이러한 곡다움 검출 처리 순서(RT1)를 시작하면, 스텝 SP1에서 중앙 처리 유닛(10)으로부터 주어지는 방송프로그램 음성 데이터중의 처리 단위 데이터(예를 들면, 라디오 방송프로그램의 방송중의 시각이 타임 코드로서 부가되어 있는 방송프로그램 음성 데이터중에서, 해당 타임 코드로서의 어떤 시각(t)을 기점으로 한 해당 시각(t)의 경과측에의 1024 샘플의 데이터로 이루어진다)를 받아들인다. 그리고 곡다움 검출기(37)는, 그 처리 단위 데이터에 대해 고속 푸리에 변환(FFT : Fast Fourier Transformer) 연산을 시행함에 의해, 해당 처리 단위 데이터를 주파수 스펙트럼으로 분해하여, 다음의 스텝 SP2로 이동한다.
스텝 SP2에서 곡다움 검출기(37)는, 주파수 스펙트럼(sp)을 예를 들면 8[KHz]의 주파수를 경계로 하여 저역의 주파수 스펙트럼(spn)과 고역의 주파수 스펙트럼(spn)으로 나눈다. 그와 관련하여 방송프로그램 음성 데이터의 샘플링 주파수가 44.1 [KHz]인 경우, 저역의 주파수 스펙트럼(spn)은 sp0 내지 sp185로 되고, 고역의 주파수 스펙트럼(spn)은 sp186 내지 sp511로 된다. 또한 곡다움 검출기(37)는, 저역의 파워 스펙트럼(a)을 하기의 수학식1, 즉
Figure 112007013486418-PAT00001
로 표시되는 바와 같이, 저역의 주파수 스펙트럼(sp0 내지 sp185)의 크기 성분을 2승(乘)하여 산출함과 함께, 고역의 파워 스펙트럼(b)을 하기의 수학식2, 즉
Figure 112007013486418-PAT00002
로 표시되는 바와 같이, 고역의 주파수 스펙트럼(sp186 내지 sp511)의 크기 성분을 2승하여 산출한다.
그리고 곡다움 검출기(37)는, 저역의 파워 스펙트럼(a)와 고역의 파워 스펙트럼(b)의 비율(이하, 이것을 파워 스펙트럼 비율이라고 부른다)(Rt)을 하기의 수학식3, 즉
Figure 112007013486418-PAT00003
에 따라 산출하고, 다음의 스텝 SP3으로 이동한다.
스텝 SP3에서 곡다움 검출기(37)는, 이동평균치의 산출 수법을 이용하여, 이 시점까지 구한 합계 n개의 파워 스펙트럼 비율(Rt-n)의 이동평균의 수치(x)를 하기의 수학식4, 즉
Figure 112007013486418-PAT00004
에 따라 구하고, 그 이동평균의 수치(x)를 곡다움을 나타내는 수치(이하, 이것을 곡다움 값이라고 부른다)로 한다. 그리고 곡다움 검출기(37)는, 곡다움 값을, 출력 전환기(39)를 통하여 중앙 처리 유닛(10)에 송출하고, 다음의 스텝 SP4로 이동한다.
스텝 SP4에서 곡다움 검출기(37)는, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 관해 곡다움을 검출을 끝마쳤는지의 여부를 판별한다. 그 결과, 곡다움 검출기(37)는, 아직 중앙 처리 유닛(10)으로부터 처리 단위 데이터를 받아들이고 있는 도중이고, 곡다움의 검출이 완료되지 않음으로써 부정 결과를 얻으면, 스텝 SP1로 되돌아온다. 이로써 곡다움 검출기(37)는, 이 후, 스텝 SP4에서 긍정 결과를 얻기까지의 동안, 스텝 SP1 내지 스텝 SP4의 처리를 순환적으로 반복하여 실행한다. 그리고 곡다움 검출기(37)는, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 대한 곡다움의 검출이 완료됨으로써 스텝 SP4에서 긍정 결과를 얻으면, 다음의 스텝 SP5로 이동하고, 이러한 곡다움 검출 처리 순서(RT1)를 종료한다. 이와 같이 하여 곡다움 검출기(37)는, 한쪽의 곡다움 검출 수법이 적용되어 있는 경우, 상술한 수학식3으로부터도 분명한 바와 같이, 방송프로그램 음성 데이터에 있어서 라디오 방송프로그램의 프로그램 음성으로서 사람의 소리가 지배적인 개소에서는 곡다움 값이 비교적 작아지고, 이것에 대해 사람의 소리 이외의 악기의 음 등이 지배적인 개소에서는 곡다움 값이 비교적 커지는 것을 이용하여, 방송프로그램 음성 데이터의 처리 단위 데이터마다 순차적으로 곡다움을 검출한다.
또한 곡다움 검출기(37)에 대해 다른쪽의 곡다움 검출 수법이 적용되어 있는 경우, 이러한 곡다움 검출기(37)는, 중앙 처리 유닛(10)의 제어하에, 내부의 메모리에 미리 기억하고 있는 곡다움 검출 프로그램에 따라 도 7에 도시하는 곡다움 검출 처리 순서(RT2)를 시작한다. 곡다움 검출기(37)는, 이러한 곡다움 검출 처리 순서(RT2)를 시작하면, 스텝 SP11에서 중앙 처리 유닛(10)으로부터 주어지는 방송프로그램 음성 데이터중의 처리 단위 데이터(예를 들면, 방송프로그램 음성 데이터에 부가된 타임 코드로서의 어떤 시각(t)을 기점으로 한 해당 시각(t)의 경과측에의 200 샘플의 데이터로 이루어진다)를 받아들인다. 그리고 곡다움 검출기(37)는, 그 처리 단위 데이터의 샘플링 주파수를 변환하고, 다음의 스텝 SP12로 이동한다. 그와 관련하여 곡다움 검출기(37)는, 이때 처리 단위 데이터의 샘플링 주파수를, 후의 코덱 처리(예를 들면, CELP(Code Excited Linear Prediction) 방식에 준한 코덱 처리)로 취급할 수 있는 주파수에 맞추도록 예를 들면 8[KHz] 또는 16[KHz]에 변환한다.
스텝 SP12에서 곡다움 검출기(37)는, 처리 단위 데이터에 대해 코덱 처리(즉, 일단 인코드 처리한 후, 디코드 처리한다). 그리고 곡다움 검출기(37)는, 처리 단위 데이터의 원래의 파형(c)과, 그 처리 단위 데이터를 코덱 처리하여 얻어진 예를 들면 원래와 같은 200 샘플의 데이터로 이루어지는 처리 결과 데이터의 파형(d)으로부터 인코드 오차(Et)를 하기의 수학식5, 즉
Figure 112007013486418-PAT00005
로 표시되는 바와 같이, 서로의 샘플 사이의 차분을 구하도록 산출하고, 다음의 스텝 SP13으로 이동한다. 그와 관련하여 곡다움 검출기(37)는, 수학식5에 표시하는 연산을 실행하는 경우, 처리 단위 데이터에 대한 코덱 처리의 시작부터, 해당 처리 단위 데이터를 코덱 처리하어 처리 결과 데이터를 얻기까지의 지연(delay)을 고려하여 인코드 오차(Et)를 산출하고 있다.
스텝 SP13에서 곡다움 검출기(37)는, 이동평균치의 산출 수법을 이용하여, 이 시점까지 구한 합계 n개의 인코드 오차(Et)의 이동평균의 수치(x)를 하기의 수학식6, 즉
Figure 112007013486418-PAT00006
에 따라 구하고, 그 이동평균의 수치(x)를 곡다움 값으로 한다. 그리고 곡다움 검출기(37)는, 그 곡다움 값을, 출력 전환기(39)를 통하여 중앙 처리 유닛(10)에 송출하고, 다음의 스텝 SP14로 이동한다.
스텝 SP14에서 곡다움 검출기(37)는, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 관해 곡다움을 검출을 끝마쳤는지의 여부를 판별한다. 그 결과, 곡다움 검출기(37)는, 아직 중앙 처리 유닛(10)으로부터 처리 단위 데이터를 받아들이고 있는 도중이고, 곡다움의 검출이 완료되지 않아서 부정 결과를 얻으면, 스텝 SP11로 되돌아온다. 이로써 곡다움 검출기(37)는, 이 후, 스텝 SP14에서 긍정 결과를 얻기까지의 동안, 스텝 SP11 내지 스텝 SP14의 처리를 순환적으로 반복하여 실행한다. 그리고 곡다움 검출기(37)는, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 대한 곡다움의 검출이 완료됨으로써 스텝 SP14에서 긍정 결과를 얻으면, 다음의 스텝 SP15로 이동하고, 이러한 곡다움 검출 처리 순서(RT2)를 종료한다. 이와 같이 하여 곡다움 검출기(37)는, 다른쪽의 곡다움 검출 수법이 적용되어 있는 경우, 상술한 (5)식으로부터도 분명한 바와 같이, 방송프로그램 음성 데이터에서 라디오 방송프로그램의 프로그램 음성으로서 사람의 소리가 지배적인 개소에서는 곡다움 값이 비교적 작아지고, 이에 대해 사람의 소리 이외의 악기의 음 등이 지배적인 개소에서는 곡다움 값이 비교적 커지는 것을 이용하여, 방송프로그램 음성 데 이터의 처리 단위 데이터마다 순차적으로 곡다움을 검출한다.
그리고 중앙 처리 유닛(10)은, 상술한 바와 같이 곡다움 검출기(37)에 대해 방송프로그램 음성 데이터를 순차적으로 처리 단위 데이터로서 송출하여 곡다움을 검출시키고 있는 동안, 그 곡다움 검출 처리와 병행하여 하드 디스크 드라이브(13)에의 방송프로그램 음성 데이터의 기록 처리와 함께, 해당 방송프로그램 음성 데이터의 개개의 처리 단위 데이터에 대해 악곡 데이터인지의 여부를 판별하는 악곡 판별 처리도 실행하고 있다. 즉 중앙 처리 유닛(10)은, 라디오 방송프로그램의 녹음을 시작하면, ROM(12) 또는 하드 디스크 드라이브(13)에 미리 기억하고 있는 악곡 추출 프로그램에 따라 도 8에 도시하는 악곡 판별 처리 순서(RT3)를 시작한다. 중앙 처리 유닛(10)은, 이러한 악곡 판별 처리 순서(RT3)을 시작하면, 스텝 SP31에서 방송프로그램 음성 데이터를 구성하는 개개의 처리 단위 데이터가 악곡 데이터의 일부인지의 여부의 판별 결과를 나타내는 악곡 판별 정보를, 악곡 데이터의 일부가 아닌 것을 나타내는「Not Music」으로 초기 설정하고, 다음의 스텝 SP32로 이동한다.
스텝 SP32에서 중앙 처리 유닛(10)은, 곡다움 검출기(37)에, 라디오 방송프로그램의 방송 시간의 경과에 따른 순번으로 방송프로그램 음성 데이터중의 1개의 처리 단위 데이터를 송출하고, 다음의 스텝 SP33으로 이동한다. 스텝 SP33에서 중앙 처리 유닛(10)은, 곡다움 검출기(37)로부터, 그 처리 단위 데이터에 대한 곡다움의 검출 결과로서의 곡다움 값을 취득하고, 다음의 스텝 SP34로 이동한다. 스텝 SP34에서 중앙 처리 유닛(10)은, 이러한 곡다움 값을, 미리 선정된 소정의 임계치 와 비교하고, 그 비교 결과에 의거하여 해당 곡다움 값이 임계치 이상인지의 여부를 판별한다. 이 스텝 SP34에서 긍정 결과가 얻어지면, 이것은 곡다움 값이 임계치 이상이고, 이 시점에 곡다움을 검출한 처리 단위 데이터(이하, 이것을 특히 곡다움 검출 처리 단위 데이터라고 부른다)가 악곡 데이터의 일부일 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP35로 이동한다.
스텝 SP35에서 중앙 처리 유닛(10)은, 현재, 악곡 판별 정보를 「Not Music」으로 설정하고 있는지의 여부를 판별한다. 이 스텝 SP35에서 긍정 결과가 얻어지면, 이것은 악곡 판별 정보를 「Not Music」으로 설정하고 있어서, 곡다움 검출 처리 단위 데이터가 라디오 방송프로그램중에서 악곡이 방송되기 시작한 시점의 데이터일 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP36으로 이동한다. 그리고 스텝 SP36에서 중앙 처리 유닛(10)은, 악곡 판별 정보를 「Not Music」으로부터, 처리 단위 데이터가 악곡 데이터의 일부인 것을 나타내는「Music」으로 변경하여 설정한다. 또한 중앙 처리 유닛(10)은, 「Music」으로 설정한 악곡 판별 정보를, 방송프로그램 음성 데이터에서의 곡다움 검출 처리 단위 데이터의 선두 위치(즉, 악곡 데이터의 일부가 아니라고 판별한 처리 단위 데이터와 악곡 데이터의 일부라고 판별한 처리 단위 데이터와의 경계 위치)를 나타내는 시각 정보(즉, 타임 코드)와 함께, RAM(14) 또는 하드 디스크 드라이브(13)에 기록하고, 다음의 스텝 SP37로 이동한다. 그와 관련하여 곡다움 검출 처리 단위 데이터의 선두 위치를 나타내는 시각 정보는, 라디오 방송프로그램이 그 방송에 맞추어서 리얼 타임으로 녹음되어 있기 때문에, 현재 시각부터 곡다움 검출 처리 단위 데이 터에 대한 곡다움 검출 처리에 필요로 한 지연 시간을 뺀 시각이다. 스텝 SP37에서 중앙 처리 유닛(10)은, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 관해 악곡 데이터의 일부인지의 여부의 판별이 종료되었는지의 여부를 판별한다. 이 스텝 SP37에서 부정 결과가 얻어지면, 이것은 라디오 방송프로그램을 녹음하고 있는 도중인 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP32로 되돌아온다.
그런데 상술한 스텝 SP34에서 부정 결과가 얻어지면, 이것은 곡다움 값이 임계치보다도 작음으로써, 곡다움 검출 처리 단위 데이터가 악곡 데이터의 일부가 아닐 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP38로 이동한다. 스텝 SP38에서 중앙 처리 유닛(10)은, 현재, 악곡 판별 정보를 「Music」으로 설정하고 있는지의 여부를 판별한다. 이 스텝 SP38에서 긍정 결과가 얻어지면, 이것은 악곡 판별 정보를 「Music」으로 설정하고 있어서, 곡다움 검출 처리 단위 데이터가 라디오 방송프로그램중에서 악곡의 방송이 종료된 직후의 데이터일 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP39로 이동한다. 그리고 스텝 SP39에서 중앙 처리 유닛(10)은, 악곡 판별 정보를 「Music」으로부터 「Not Music」으로 변경하여 설정한다. 또한 중앙 처리 유닛(10)은, 「Not Music」으로 설정한 악곡 판별 정보를, 방송프로그램 음성 데이터에서의 곡다움 검출 처리 단위 데이터의 선두 위치(즉, 악곡 데이터의 일부가 된다고 판별한 처리 단위 데이터와 악곡 데이터의 일부가 아니라고 판별한 처리 단위 데이터와의 경계 위치)를 나타내는 시각 정보(즉, 타임 코드)와 함께, RAM(14) 또 는 하드 디스크 드라이브(13)에 기록하고, 다음의 스텝 SP37로 이동한다.
또한 상술한 스텝 SP35에서 부정 결과가 얻어지면, 이것은 악곡 판별 정보를 「Music」으로 설정하고 있어서, 곡다움 검출 처리 단위 데이터가 라디오 방송프로그램중에서 방송되고 있는 악곡의 도중의 데이터일 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP32로 되돌아온다. 또한 스텝 SP38에서 부정 결과가 얻어지면, 이것은 악곡 판별 정보를 「Not Music」으로 설정하고 있어서, 곡다움 검출 처리 단위 데이터가 라디오 방송프로그램중에서 흐르고 있는 디스크 자키에 의한 악곡 소개의 음성이나 광고방송에 의한 광고용의 음성의 도중의 데이터일 가능성이 높은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP32로 되돌아온다.
이와 같이 하여 중앙 처리 유닛(10)은, 하드 디스크 드라이브(13)에 대해 라디오 방송프로그램의 방송프로그램 음성 데이터를 기록하고 있는 동안, 이와 병행하여 상술한 스텝 SP32 내지 스텝 SP39의 처리를 적절히 실행한다. 이로써 중앙 처리 유닛(10)은, 이러한 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 관해 각각 악곡 데이터의 일부인지의 여부를 판별하고, 그 판별 내용이 전환을 나타내는 악곡 판별 정보 및 시각 정보(즉, 타임 코드)를 기록한다. 이 후 스텝 SP37에서 긍정 결과가 얻어지면, 이것은 라디오 방송프로그램의 녹음이 종료되고, 방송프로그램 음성 데이터 전체의 처리 단위 데이터에 관해 악곡 데이터의 일부인지의 여부의 판별도 종료한 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP40으로 이동하고, 이러한 악곡 판별 처리 순서(RT3)를 종료한다.
그리고 도 9에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 라디오 방송프로그램의 녹음이 종료된 때, 예를 들면 라디오 방송프로그램의 테마곡(TM)으로 시작하고, 디스크 자키의 토크(악곡의 소개 등도 포함한다)(TK1 및 TK2)나 악곡(M1 내지 Mm), 광고방송(CM1 및 CM2) 등을 소망하는 순번으로 방송하도록 편성된 라디오 방송프로그램의 방송프로그램 음성 데이터(D1)를 하드 디스크 드라이브(13)에 기록하고 있다. 그와 관련하여 이러한 방송프로그램 음성 데이터(D1)는, 방송프로그램 음성 파일 내에서 라디오 방송프로그램의 방송의 경과 시간에 따라(즉, 편성 내용에 따라) 테마곡(TM)의 악곡 데이터나, 디스크 자키의 토크(TK1 및 TK2)의 음성 데이터, 악곡(M1 내지 Mm)의 악곡 데이터 및 광고방송(CM1 및 CM2)의 음성 데이터가 병렬되어 구성되어 있다.
또한 도 10의 (A)에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 상술한 악곡 판별 처리의 실행에 의해 기록한 악곡 판별 정보 및 시각 정보에 의거하여, 방송프로그램 음성 데이터(D1)에서 악곡 데이터의 후보라고 상정되는 구간(이하, 이것을 곡 후보 구간이라고 부른다)(MC1 내지 MCm)을 특정한다. 이 경우, 중앙 처리 유닛(10)은, 「Music」으로 설정한 악곡 판별 정보와 함께 기록하고 있는 시각 정보를 곡 후보 구간(MC1 내지 MCm)의 시작 시각(이하, 이것을 구간 시작 시각이라고 부른다)으로 하고 있다. 또한 중앙 처리 유닛(10)은, 「Not Music」으로 설정한 악곡 판별 정보와 함께 기록하고 있는 시각 정보를 곡 후보 구간(MC1 내지 MCm)의 종료 시각(이하, 이것을 구간 종료 시각이라고 부른다)으로 하고 있다.
그런데 중앙 처리 유닛(10)은, 곡다움 검출기(37)에 의한 상술한 한쪽 또는 다른쪽의 곡다움 검출 수법에 따른 곡다움의 검출 결과에 응하여 악곡 데이터인지의 여부를 판별하고 있다. 따라서 중앙 처리 유닛(10)은, 라디오 방송프로그램중에서 방송된 테마곡(TM)이나 백그라운드 뮤직과 함께 흐른 광고방송(CM1)의 부분도 곡 후보 구간(MC1 및 MC3)으로서 특정하는 경우가 있다. 또한 도 10의 (B)에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 라디오 방송프로그램중에서 예를 들면 랩 뮤직과 같이, 곡중에 악기의 소리를 억제하여 대사를 삽입하고 있는 악곡(M2)이 방송된 경우, 방송프로그램 음성 데이터(D1)중에서 해당 악곡(M2)의 악곡 데이터 부분을 적어도 2개의 곡 후보 구간(MC41 및 MC42)오로 나누어 특정하는 일도 있다. 즉 중앙 처리 유닛(10)은, 이러한 악곡(M2)의 악곡 데이터 부분을, 악곡 데이터의 후보가 아니라고 상정되는 적어도 하나의 개재 구간(NC1)을 개재시킨 적어도 2개의 곡 후보 구간(MC41 및 MC42)으로서 특정하는 경우도 있다.
그리고 도 11의 (A)에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 예를 들면 도 10의 (A)에 관해 상술한 바와 같이, 곡 후보 구간(MC1 내지 MCm)를 특정한 경우, 해당 특정한 곡 후보 구간(MC1 내지 MCm)를 나타내는 데이터 테이블(이하, 이것을 곡 후보 구간 테이블이라고 부른다)(MCT1)을 생성한다. 그와 관련하여 중앙 처리 유닛(10)은, 예를 들면 도 10의 (B)에 관해 상술한 바와 같이 곡 후보 구간(MC1 내지 MCm)를 특정한 경우, 도 11의 (B)에 도시하는 바와 같은 곡 후보 구간 테이블(MCT2)을 생성한다. 이들의 곡 후보 구간 테이블(MCT1 및 MCT2)은, 라디오 방송프로그램을 방송한 라디오국(3)의 방송국명을 나타내는 방송국명 정보(RN)와, 곡 후보 구간(MC1 내지 MCm)를 나타내는 곡 후보 구간 정보(MC)와, 이들 곡 후보 구간(MC1 내지 MCm)에 대해 임의로 붙인 구간명을 나타내는 구간명 정보(AN)을 격납하여 구성되어 있다.
여기서 중앙 처리 유닛(10)은, 예를 들면 복수의 라디오국(3)의 방송국명(RN)과, 각 라디오국(3)에 각각 할당된 라디오 방송파의 방송 주파수를 대응시켜서 하드 디스크 드라이브(13)에 기억하고 있다. 따라서 중앙 처리 유닛(10)은, 라디오 방송프로그램의 녹음용에 튜너(19)에 대해 설정한 추출 대상의 방송 주파수에 응하여, 그 녹음한 라디오 방송프로그램을 방송하고 있는 라디오국(3)의 방송국명을 특정한다. 그리고 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2)에 대해, 그 특정한 방송국명을 방송국명 정보(RN)로서 곡 후보 구간(MC1 내지 MCm)마다 대응시켜서 격납하고 있다. 또한 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2)에 대해, 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)이 나타내는 부분 데이터(즉, 곡 후보 구간 데이터)의 방송일과, 이들 곡 후보 구간(MC1 내지 MCm)의 구간 시작 시각 및 구간 종료 시각(즉, 곡 후보 구간(MC1 내지 MCm)를 특정한 때의 시각 정보이고, 시, 분, 초의 단위로 기술하고 있다)을 곡 후보 구간 정보(MC)로서 격납하고 있다. 또한 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2)에 대해, 곡 후보 구간(MC1 내지 MCm)을 각각 개별적으로 식별 가능한 ID(IDentification)나 연번(連番) 등으로 이루어지는 구간명을 구간명 정보(AN)로서 격납하고 있다.
중앙 처리 유닛(10)은, 이와 같이 곡 후보 구간 테이블(MCT1 및 MCT2)을 생성하면, 해당 생성한 곡 후보 구간 테이블(MCT1 및 MCT2)을 이용하여 방송프로그램 음성 데이터(D1)중에서 악곡 데이터를 추출한다. 그 때, 중앙 처리 유닛(10)은, 2종류의 악곡 추출 수법중 예를 들면 유저에 의해 선택된 어느 한쪽에 따라, 이러한 악곡 추출 처리를 실행하고 있다. 여기서 2종류의 악곡 추출 수법중 한쪽의 악곡 추출 수법은, 곡 후보 구간 테이블(MCT1 및 MCT2)과 함께, 도 2 및 도 3에 관해 상술한 라디오 방송 정보 배신 서버(4)가 배신하는 방송 악곡 테이블(OAT)를 이용하는 것이다. 또한 다른쪽의 악곡 추출 수법은, 곡 후보 구간 테이블(MCT1 및 MCT2)과 함께, 도 2에 관해 상술한 악곡 정보 검색 서버(5)가 제공하는 제공 악곡 정보를 이용하는 것이다. 이때문에 이하에는, 이들 2종류의 악곡 추출 수법에 의한 악곡 추출 처리를 순번대로 설명한다.
우선 중앙 처리 유닛(10)은, 한쪽의 악곡 추출 수법이 선택되어 있는 경우, 곡 후보 구간 테이블(MCT1 및 MCT2)을 생성하면, 녹음한 라디오 방송프로그램을 방송하고 있던 라디오국(3)이 관리하는 라디오 방송 정보 배신 서버(4)에 대해, 통신 처리부(16)을 통하여, 그 라디오 방송프로그램에 대응하는 방송 악곡 테이블(OAT)을 요구한다. 그 결과, 중앙 처리 유닛(10)은, 이러한 라디오 방송 정보 배신 서버(4)로부터 방송 악곡 테이블(OAT)이 송신되면, 이것을 통신 처리부(16)을 통하여 수신한다. 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT) 내의 방송 일시 정보(OTI1)와, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 곡 후보 구간 정보(MC)를 비교하도록 하여, 방송프로그램 음성 데이터(D1)중의 복수의 곡 후보 구간(MC1 내지 MCm)중, 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터에 대응하는 곡 후보 구간(MC2, MC4 및 MCm)을 판별한다. 이로써 중앙 처리 유닛(10)은, 그 판별한 곡 후보 구간(MC2, MC4 및 MCm)을 방송프로그램 음성 데이터(D1)중에서의 악곡 데이터의 구간(이하, 이것을 특히 곡 구간이라고 부른다)으로 결정한다. 그와 관련하여 중앙 처리 유닛(10)은, 도 10의 (B) 및 도 11의 (B)에 관해 상술한 바와 같이, 방송프로그램 음성 데이터(D1)중에서 본래는 하나의 악곡 데이터의 구간인데, 그 구간을 적어도 2개의 곡 후보 구간(MC41 및 MC42)으로 나누어 특정하고 있던 경우에도, 방송 악곡 테이블(OAT)의 방송 일시 정보(OTI1)와, 곡 후보 구간 테이블(MCT2)의 곡 후보 구간 정보(MC)를 비교함으로써, 이들 적어도 2개의 곡 후보 구간(MC41 및 MC42)을 개재 구간(NC1)과 통합하여(즉, 1개로 정리하여) 하나의 곡 구간(즉, 곡 후보 구간(MC4)에 상당)으로 결정할 수 있도록 되어 있다.
그리고 도 12에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 곡 구간을 나타내는 곡 후보 구간 정보(MC) 내의 구간 시작 시각 및 구간 종료 시각을 새로운 방송 시작 시각 및 방송 종료 시각으로 하여, 방송 악곡 테이블(OAT)의 각 방송 일시 정보(OTI1) 내에 대입한다. 즉 중앙 처리 유닛(10)은, 이들 각 방송 일시 정보(OTI1) 내의 원래의 방송 시작 시각 및 방송 종료 시각을 이것보다도 단위가 미세한 새로운 방송 시작 시각(즉, 구간 시작 시각) 및 방송 종료 시각(즉, 구간 종료 시각)으로 변경한다. 이와 같이 하여 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT)을 기초로 하여, 악곡의 방송 시작 시각 및 방송 종료 시각만을 보정한 방송 일시 정보(OTI2)를 갖는 시각 보정 방송 악곡 테이블(ROAT)을 생성한다.
이로써 중앙 처리 유닛(10)은, 이러한 시각 보정 방송 악곡 테이블(ROAT) 내의 방송 일시 정보(OTI2)에 의거하여, 하드 디스크 드라이브(13)에 기록하여 있는 방송프로그램 음성 데이터(D1)중에서 곡 구간을 악곡 데이터로서 잘라내어 추출하고, 해당 추출한 악곡 데이터를 하드 디스크 드라이브(13)에 기록한다. 또한 중앙 처리 유닛(10)은, 시각 보정 방송 악곡 테이블(ROAT) 내의 악곡 타이틀(MT), 아티스트명(ARN) 및 장르명(JN)을 대응시킨 악곡 정보(즉, 이 경우는 방송 악곡 정보(OAM1 내지 OAMn)의 일부이다)로서, 그 추출한 악곡 데이터(즉, 잘라낸 곡 구간)에 대응시켜서 하드 디스크 드라이브(13)에 기록한다. 그와 관련하여 중앙 처리 유닛(10)은, 이때, 원래의 방송프로그램 음성 데이터(D1)에 관해서는, 예를 들면 유저에게 소거할지의 여부를 문의하고, 소거가 요구된 때에는, 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터(D1)를 소거하고, 소거하지 않도록 요구된 때에는 하드 디스크 드라이브(13)에 대해 방송프로그램 음성 데이터(D1)를 기록한 채로 한다. 이로써 중앙 처리 유닛(10)은, 하드 디스크 드라이브(13)에 대해 방송프로그램 음성 데이터(D1)중의 악곡 데이터를 다시 기록함으로써, 방송프로그램 음성 데이터(D1)를 소거한 때에는 하드 디스크 드라이브(13)의 기록용의 빈(空) 영역이 필요 없게 소비되는 것을 회피할 수 있다. 또한 중앙 처리 유닛(10)은, 방송프로그램 음성 데이터(D1)를 소거하지 않는 때에는, 그 중의 악곡 데이터와는 별도로 방송프로그램 음성 데이터(D1)를 재생하여 유저에게 라디오 방송프로그램을 청취시킬 수 있다.
실제상, 중앙 처리 유닛(10)은, 한쪽의 악곡 추출 수법에 의한 악곡 추출 처리를 악곡 추출 프로그램에 따라 실행하고 있다. 즉 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2)을 생성하면, 악곡 추출 프로그램에 따라 도 13 및 도 14에 도시하는 악곡 추출 처리 순서(RT4)를 시작한다. 중앙 처리 유닛(10)은, 이러한 악곡 추출 처리 순서(RT4)를 시작하면, 스텝 SP51에서 라디오 방송 정보 배신 서버(4)로부터 방송 악곡 테이블(OAT)를 취득한다. 그리고 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT) 내의 방송 시작 시각 및 방송 종료 시각의 단위(즉, 분 단위)를, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 구간 시작 시각 및 구간 종료 시각의 단위(즉, 초 단위)에 맞추어서 변경한다. 또한 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내에서 곡 후보 구간 정보(MC)의 참조 위치를, 시간적으로 가장 과거의(즉, 방송프로그램 음성 데이터(D1)에서 가장 선두측에 위치한다) 곡 후보 구간 정보(MC)에 맞추어서 초기화한다. 또한 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT) 내에서의 방송 일시 정보(OTI1)의 참조 위치도 시간적으로 가장 과거의(즉, 라디오 방송프로그램 내에서 가장 빠른 시점에 방송된 악곡에 대응한다) 방송 일시 정보(OTI1)에 맞추어서 초기화하고, 다음의 스텝 SP52로 이동한다.
스텝 SP52에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치에, 참조하여야 할 곡 후보 구간 정보(MC)가 존재하는지의 여부를 판별한다. 이 스텝 SP52에서 긍정 결과가 얻어지면, 이것은 아직 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 모든 곡 후보 구간 정보(MC)를 참조하여 마치지 않은 것이어서, 해당 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치에 곡 후보 구간 정보(MC)가 존재하는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP53으로 이동한다. 스텝 SP53에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이 블(MCT1 및 MCT2)중에서 참조 위치의 곡 후보 구간 정보(MC)를 취득하고, 다음의 스텝 SP54로 이동한다.
스텝 SP54에서 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT) 내의 참조 위치에, 참조하여야 할 방송 일시 정보(OTI1)가 존재하는지의 여부를 판별한다. 이 스텝 SP54에서 긍정 결과가 얻어지면, 이것은 아직 방송 악곡 테이블(OAT) 내의 모든 방송 일시 정보(OTI1)을 참조하여 마치지 않은 것이어서, 해당 방송 악곡 테이블(OAT) 내의 참조 위치에 방송 일시 정보(OTI1)이 존재하는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP55로 이동한다. 스텝 SP55에서 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT)중에서 참조 위치의 방송 일시 정보(OTI1)을 취득하고, 다음의 스텝 SP56으로 이동한다.
스텝 SP56에서 중앙 처리 유닛(10)은, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 종료 시각이, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 시작 시각보다도 시간적으로 뒤인지의 여부를 판별한다. 이 스텝 SP56에서 긍정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2 내지 MCm)의 일부 또는 전부가, 방송 일시 정보(OTI1) 내의 방송 시작 시각으로부터 방송 종료 시각까지의 구간(이하, 이것을 곡 방송 추정 구간이라고 부른다)의 일부 또는 전부와 시간적으로 겹쳐져 있을 가능성이 있는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP57로 이동한다. 스텝 SP57에서 중앙 처리 유닛(10)은, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 시작 시각이, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 종료 시각보다도 시간적으로 전인지의 여부를 판별한다. 이 스텝 SP57에서 긍정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2, MC4, MC41, MC42, MCm)의 일부 또는 전부와, 방송 일시 정보(OTI1)이 나타내는 곡 방송 추정 구간의 일부 또는 전부가 시간적으로 겹쳐져 있는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP58로 이동한다.
스텝 SP58에서 중앙 처리 유닛(10)은, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 시작 시각이, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 시작 시각을 중심으로 한 예를 들면 전후로 각각 수분(예를 들면, 전후로 각각 1분)의 시작 시각 보정 판별 범위 내인지의 여부를 판별한다. 이 스텝 SP58에서 긍정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2, MC4, MC41, MCm)의 적어도 선두 부분과, 방송 일시 정보(OTI1)이 나타내는 곡 방송 추정 구간의 선두 부분이 시간적으로 거의 겹쳐져 있는(또는 완전하게 겹쳐져 있는) 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP59로 이동한다. 이로써 스텝 SP59에서 중앙 처리 유닛(10)은, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 시작 시각을, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 시작 정보가 되는 새로운 방송 시작 시각으로 변경하고, 다음의 스텝 SP60으로 이동한다.
스텝 SP60에서 중앙 처리 유닛(10)은, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 종료 시각이, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 종료 시각을 중심으로 한 예를 들면 전후로 각각 수분(예를 들면, 전후로 각각 1분)의 종료 시각 보정 판별 범위 내인지의 여부를 판별한다. 이 스텝 SP60에서 긍정 결과가 얻 어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2, MC4, MC42, MCm)의 적어도 후미 부분과, 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간의 후미 부분이 시간적으로 거의 겹쳐져 있는(또는 완전하게 겹쳐져 있다)것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP61로 이동한다. 이로써 스텝 SP61에서 중앙 처리 유닛(10)은, 현재 참조중인 방송 일시 정보(OTI1) 내의 방송 종료 시각을, 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 종료 정보가 되는 새로운 방송 종료 시각으로 변경하고, 다음의 스텝 SP62로 이동한다.
여기서 상술한 스텝 SP58에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC42)이, 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간에 대응하는 복수의 곡 후보 구간(MC41 및 MC42)중의 하나인 것을 나타내고 있다. 즉 이러한 부정 결과는, 곡 후보 구간(MC42)의 일부 또는 전부와, 곡 방송 추정 구간이 시간적으로 겹쳐져 있지만, 해당 곡 후보 구간(MC42)의 선두 부분에 관해서는 곡 방송 추정 구간의 선두 부분으로부터 시간적으로 떨어져 있고, 겹쳐져 있다고는 판단하기 어려운 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP59의 처리를 건너뛰어 스텝 SP60으로 이동한다. 또한 상술한 스텝 SP60에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC41)이, 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간에 대응하는 복수의 곡 후보 구간(MC41 및 MC42)중의 하나인 것을 나타내고 있다. 즉 이러한 부정 결과는, 곡 후보 구간(MC41)의 일부 또는 전부와, 곡 방송 추정 구간이 시간적으로 겹쳐져 있지만, 해당 곡 후보 구간(MC41)의 후미 부분에 관해서는 곡 방송 추 정 구간의 후미 부분으로부터 시간적으로 떨어저 있고, 겹쳐져 있는다고는 판단하기 어려운 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP61 및 스텝 SP62의 처리를 건너뛰어 스텝 SP63으로 이동한다.
따라서 스텝 SP62에서 중앙 처리 유닛(10)은, 방송 일시 정보(OTI1) 내의 방송 시작 시각 및 방송 종료 시각의 변경에 이용한 하나 또는 2개의 곡 후보 구간 정보(MC) 내의 구간 시작 시각으로부터 구간 종료 시각까지를 곡 구간으로 결정하고, 다음의 스텝 SP63으로 이동한다. 즉 중앙 처리 유닛(10)은, 방송 일시 정보(OTI1) 내의 방송 시작 시각 및 방송 종료 시각의 변경에, 하나의 곡 후보 구간 정보(MC) 내의 구간 시작 시각 및 구간 종료 시각을 이용한 경우, 해당 하나의 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2, MC4, MCm)을 그대로 곡 구간으로 결정한다. 또한 중앙 처리 유닛(10)은, 방송 일시 정보(OTI1) 내의 방송 시작 시각 및 방송 종료 시각의 변경에, 2개의 곡 후보 구간 정보(MC) 내의 구간 시작 시각 및 구간 종료 시각을 이용한 경우, 하나의 곡 방송 추정 구간에 대응하는 적어도 2개의 곡 후보 구간(MC41 및 MC42)을 그 사이에 개재하는 개재 구간(NC1)과 통합하도록 하여, 이들 구간 시작 시각으로부터 구간 종료 시각까지를 곡 구간으로 결정한다.
그리고 스텝 SP63에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치를, 이 시점에 참조 대상의 곡 후보 구간 정보(MC)로부터 시간적으로 다음의 곡 후보 구간 정보(MC)측으로 진행하고, 스텝 SP52로 되돌아온다. 그런데 상술한 스텝 SP56에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 정 보(MC)가 나타내는 곡 후보 구간(MC1 및 MC3)이, 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간보다도 시간적으로 전에 위치하여 완전히 겹쳐지지 않은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP63으로 이동한다. 또한 상술한 스텝 SP57에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC2 내지 MCm)이, 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간보다도 시간적으로 뒤에 위치하여 완전히 겹쳐지지 않은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP64로 이동한다. 그리고 스텝 SP64에서 중앙 처리 유닛(10)은, 방송 악곡 테이블(OAT) 내의 참조 위치를, 이 시점의 방송 일시 정보(OTI1)로부터 시간적으로 다음의 방송 일시 정보(OTI1)측으로 진행하고, 스텝 SP54로 되돌아온다. 이와 같이 하여 중앙 처리 유닛(10)은, 이 후, 스텝 SP52 또는 스텝 SP54에서 부정 결과가 얻어질때까지의 동안, 스텝 SP52 내지 스텝 SP64의 처리를 순환적으로 반복하여 실행한다. 이로써 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 복수의 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1 내지 MCm)중 방송 악곡 테이블(OAT) 내의 방송 일시 정보(OTI1)가 나타내는 곡 방송 추정 구간에 대응하는 곡 후보 구간(MC2, MC4, MCm)을 곡 구간으로 결정한다.
이 후, 상술한 스텝 SP52에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 모든 곡 후보 구간 정보(MC)를 참조하여 마친 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP65로 이동한다. 또한 상술한 스텝 SP54에서 부정 결과가 얻어지면, 이것은 방송 악곡 테이블(OAT) 내의 모 든 방송 일시 정보(OTI1)을 참조하여 마친 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때도 스텝 SP65로 이동한다. 스텝 SP65에서 중앙 처리 유닛(10)은, 곡 구간의 결정에 맞추어서 생성한 시각 보정 방송 악곡 테이블(ROAT) 내의 방송 일시 정보(OTI2)에 의거하여, 하드 디스크 드라이브(13) 내의 방송프로그램 음성 데이터(D1)중에서 곡 구간을 악곡 데이터로서 추출함과 함께, 해당 시각 보정 방송 악곡 테이블(ROAT) 내의 악곡 타이틀(MT), 아티스트명(ARN) 및 장르명(JN)을 대응시킨 악곡 정보로서, 그 추출한 악곡 데이터에 대응시켜서 하드 디스크 드라이브(13)에 기록하고, 다음의 스텝 SP66으로 이동한다. 이로써 스텝 SP66에서 중앙 처리 유닛(10)은, 한쪽의 악곡 추출 수법에 따른 악곡 추출 처리 순서(RT4)를 종료한다.
또한 중앙 처리 유닛(10)은, 다른쪽의 악곡 추출 수법이 선택되어 있는 경우, 곡 후보 구간 테이블(MCT1 및 MCT2)을 생성하면, 데이터 처리부(17)의 데이터 해석 회로(35)를 제어한다. 이로써 데이터 해석 회로(35)는, 입력 전환기(36) 및 출력 전환기(39)에 의해, 곡다움 검출기(37)와 곡 지문 생성기(38)중 곡 지문 생성기(38)의 입력단 및 출력단을 각각 버스(11)에 접속한다. 그리고 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 곡 후보 구간 정보(MC)에 따라 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터(D1)중의 곡 후보 구간 데이터를 판독하고, 이것을 데이터 해석 회로(35)에 송출하다. 따라서 데이터 해석 회로(35)는, 중앙 처리 유닛(10)으로부터 주어진 곡 후보 구간 데이터를, 입력 전환기(36)을 통하여 곡 지문 생성기(38)에 받아들인다. 그리고 곡 지문 생성기(38) 는, 예를 들면 곡 후보 구간 데이터의 아날로그 음성 파형을 분석하고, 그 분석 결과에 의거하여 해당 곡 후보 구간 데이터를 개별적으로 식별하기 위한 장치 제시 곡 지문 정보를 생성한다. 이로써 곡 지문 생성기(38)는, 이러한 장치 제시 곡 지문 정보를, 출력 전환기(39)를 통하여 중앙 처리 유닛(10)에 송출한다.
중앙 처리 유닛(10)은, 곡 지문 생성기(38)로부터 장치 제시 곡 지문 정보가 주어지면, 그 장치 제시 곡 지문 정보와 함께 제공 악곡 정보의 검색 요구를, 통신 처리부(16)을 통하여 악곡 정보 검색 서버(5)에 송신한다. 그 결과, 중앙 처리 유닛(10)은, 악곡 정보 검색 서버(5)로부터 장치 제시 곡 지문 정보에 의해 검색된 제공 악곡 정보가 송신되면, 이것을 통신 처리부(16)을 통하여 수신한다. 그리고 도 15의 (A) 및 (B)에 도시하는 바와 같이, 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1)에 대해 제공 악곡 정보를 곡 후보 구간 정보(MC)에 대응시켜서 등록함으로써, 그 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1, MC2, MC4, MCm)을 곡 구간으로 결정한다. 그와 관련하여 중앙 처리 유닛(10)은, 예를 들면 라디오 방송프로그램 내의 테마곡(TM)에 대응하는 곡 후보 구간(MC1) 등이라도, 제공 악곡 정보를 취득하여 대응시킬 수 있으면, 이러한 곡 후보 구간(MC1)을 곡 구간으로 결정한다. 그러나 중앙 처리 유닛(10)은, 예를 들면 라디오 방송프로그램중에서 백 그라운드 뮤직과 함께, 나레이터 등의 음성이 동시에 흐르는 광고방송에 대응하는 곡 후보 구간(MC3)의 곡 후보 구간 데이터로부터 장치 제시 곡 지문 정보를 생성함으로써, 악곡 정보 검색 서버(5)에 대해 검색을 요구하여도 제공 악곡 정보를 취득할 수 없는 때에는, 곡 후보 구간 정보(MC)에 대한 제공 악곡 정보의 대응시킴 을 미루고, 해당 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC3)을 곡 구간으로 결정하지 않도록 한다.
이와 같이 하여 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1)을 기초로, 이것에 제공 악곡 정보를 더한 악곡 추출 테이블(MET)을 생성한다. 그와 관련하여 중앙 처리 유닛(10)은, 시간적으로 인접하는 곡 후보 구간 정보(MC)끼리에 다른 제공 악곡 정보를 대응시킨 때에는, 제공 악곡 정보를 더한 곡 후보 구간 테이블(MCT1)을 그대로 악곡 추출 테이블(MET)로 한다(도 15의 (A)). 이에 대해 중앙 처리 유닛(10)은, 도 10의 (B) 및 도 11의 (B)에 관해 상술한 바와 같이, 방송프로그램 음성 데이터(D1)중에서 본래는 하나의 악곡 데이터의 구간인데, 그 구간을 적어도 2개의 곡 후보 구간(MC41 및 MC42)으로 나누어 특정하고 있어서, 시간적으로 인접하는 곡 후보 구간 정보(MC)끼리에 동일한 제공 악곡 정보를 대응시킨 때에는(도 15의 (B)), 이들 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC41 및 MC42)을 사이의 개재 구간(NC1)과 함께 통합하여 하나의 곡 구간(즉, 곡 후보 구간(MC4)에 상당)으로 결정하고, 악곡 추출 테이블(MET)을 생성한다(도 15의 (A)).
이로써 중앙 처리 유닛(10)은, 이러한 악곡 추출 테이블(MET) 내의 곡 후보 구간 정보(MC)에 의거하여, 하드 디스크 드라이브(13)에 기록하고 있는 방송프로그램 음성 데이터(D1)중에서 곡 구간(MC1, MC2, MC4 및 MCm)을 악곡 데이터로서 잘라내어 추출하고, 해당 추출한 악곡 데이터를 하드 디스크 드라이브(13)에 기록한다. 또한 중앙 처리 유닛(10)은, 악곡 추출 테이블(MET) 내의 악곡 타이틀(MT), 아티스트명(ARN) 및 장르명(JN)을 대응시킨 악곡 정보(즉, 이 경우는 제공 악곡 정보이 다)로서, 그 추출한 악곡 데이터(즉, 잘라낸 곡 구간(MC1, MC2, MC4 및 MCm))에 대응시켜서 하드 디스크 드라이브(13)에 기록한다. 그와 관련하여 중앙 처리 유닛(10)은, 이때에도, 원래의 방송프로그램 음성 데이터(D1)에 관해서는, 예를 들면 유저에게 소거할지의 여부를 문의하고, 그 문의 결과에 응하여, 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터(D1)를 소거하고, 또는 소거하지 않도록 한다.
실제상, 중앙 처리 유닛(10)은, 다른쪽의 악곡 추출 수법에 의한 악곡 추출 처리를 악곡 추출 프로그램에 따라 실행하고 있다. 즉 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2)을 생성하면, 악곡 추출 프로그램에 따라 도 16에 도시하는 악곡 추출 처리 순서(RT5)를 시작한다. 중앙 처리 유닛(10)은, 이러한 악곡 추출 처리 순서(RT5)를 시작하면, 스텝 SP71에서 곡 후보 구간 테이블(MCT1 및 MCT2) 내에서 곡 후보 구간 정보(MC)의 참조 위치를 상술한 바와 마찬가지로 초기화하고, 다음의 스텝 SP72로 이동한다.
스텝 SP72에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치에, 참조하여야 할 곡 후보 구간 정보(MC)가 존재하는지의 여부를 판별한다. 이 스텝 SP72에서 긍정 결과가 얻어지면, 이것은 아직 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 모든 곡 후보 구간 정보(MC)를 참조하여 마치지 않은 것이어서, 해당 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치에 곡 후보 구간 정보(MC)가 존재하는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP73으로 이동한다. 스텝 SP73에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이 블(MCT1 및 MCT2)중에서 참조 위치의 곡 후보 구간 정보(MC)를 취득하고, 다음의 스텝 SP74로 이동한다.
스텝 SP74에서 중앙 처리 유닛(10)은, 곡 후보 구간 정보(MC)에 의거하여 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터(D1)중의 곡 후보 구간 데이터를 판독하고, 곡 후보 구간의 적어도 일부를 곡 지문 생성기(38)에 송출함에 의해, 장치 제시 곡 지문 정보를 생성한다. 그리고 중앙 처리 유닛(10)은, 이러한 장치 제시 곡 지문 정보를 이용하여 악곡 정보 검색 서버(5)에 대해 제공 악곡 정보를 요구하고, 다음의 스텝 SP75로 이동한다. 스텝 SP75에서 중앙 처리 유닛(10)은, 악곡 정보 검색 서버(5)로부터 제공 악곡 정보를 취득하였는지의 여부를 판별한다. 이 스텝 SP75에서 긍정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1, MC2, MC4, MCm)이 방송프로그램 음성 데이터(D1)중의 악곡 데이터에 대응하고 있고, 제공 악곡 정보를 취득하여 해당 곡 후보 구간 정보(MC)에 대응시킨 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP76으로 이동한다.
스텝 SP76에서 중앙 처리 유닛(10)은, 현재 참조중인 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1, MC2, MC4, MC41, MC42, MCm)보다도 시간적으로 하나 전의 곡 후보 구간(MC1, MC2, MC4, MC41, MC42, MCm)을 나타내는 곡 후보 구간 정보(MC)에, 이 시점에 취득한 제공 악곡 정보와 동일한 제공 악곡 정보를 대응시켰는지의 여부를 판별한다. 이 스텝 SP76에서 긍정 결과가 얻어지면, 이것은 현재 참조중인 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC42)이, 방송프로그램 음성 데이터(D1)중의 하나의 악곡 데이터에 대응하는 복수의 곡 후보 구간(MC41 및 MC42)중의 하나이고, 시간적으로 하나 전의 곡 후보 구간(MC41)을 나타내는 곡 후보 구간 정보(MC)에 대응시킨 것과 동일한 제공 악곡 정보를 대응시킨 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP77로 이동한다.
스텝 SP77에서 중앙 처리 유닛(10)은, 시간적으로 하나 전의 곡 후보 구간(MC41)을 나타내는 곡 후보 구간 정보(MC) 내의 구간 시작 시각, 및 현재 참조중인 곡 후보 구간 정보(MC) 내의 구간 종료 시각만을 이용하여, 이들 곡 후보 구간(MC41 및 MC42)을 통합한 새로운 곡 후보 구간(MC4)을 나타내는 곡 후보 구간 정보(MC)를 생성함과 함께, 해당 새로운 곡 후보 구간 정보(MC)에, 이 시점에 취득한 제공 악곡 정보를 다시 대응시키고, 다음의 스텝 SP78로 이동한다. 이로써 스텝 SP78에서 중앙 처리 유닛(10)은, 제공 악곡 정보를 대응시킨 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1, MC2, MC4, MCm)을 곡 구간으로 결정하고, 다음의 스텝 SP79로 이동한다. 스텝 SP79에서 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 참조 위치를, 이 시점에 참조 대상의 곡 후보 구간 정보(MC)로부터 시간적으로 다음의 곡 후보 구간 정보(MC)측으로 진행하고, 스텝 SP72로 되돌아온다. 그런데 상술한 스텝 SP75에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC3)이 방송프로그램 음성 데이터(D1)중의 악곡 데이터에 대응하지 않기 때문에, 제공 악곡 정보를 취득할 수 없는 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP79로 이동한다. 또한 상술한 스텝 SP76에서 부정 결과가 얻어지면, 이것은 현재 참조중인 곡 후보 구간 정보(MC)가 나타내는 곡 후보 구간(MC1, MC2, MC4, MCm)이, 방송프로그램 음성 데이터(D1)중의 1개의 악곡 데이터에 대응하는 유일한 곡 후보 구간(MC1, MC2, MC4, MCm)을 나타내는 것인 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP78로 이동한다.
이와 같이 하여 중앙 처리 유닛(10)은, 이 후, 스텝 SP72에서 부정 결과가 얻어질 때까지의 동안, 스텝 SP72 내지 스텝 SP79의 처리를 순환적으로 반복하여 실행한다. 이로써 중앙 처리 유닛(10)은, 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 복수의 곡 후보 구간 정보(MC)에 대해 각각 곡 후보 구간(MC1, MC2, MC4, MCm)이 악곡 데이터인 것을 나타내는 제공 악곡 정보를 대응시키고, 이러한 곡 후보 구간(MC1, MC2, MC4, MCm)을 곡 구간으로 결정한다. 그리고 이 후, 상술한 스텝 SP72에서 부정 결과가 얻어지면, 이것은 곡 후보 구간 테이블(MCT1 및 MCT2) 내의 모든 곡 후보 구간 정보(MC)를 참조하여 마친 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP80으로 이동한다. 스텝 SP80에서 중앙 처리 유닛(10)은, 곡 구간의 결정에 맞추어서 생성한 악곡 추출 테이블(MET) 내의 곡 후보 구간 정보(MC)에 의거하여, 하드 디스크 드라이브(13) 내의 방송프로그램 음성 데이터(D1)중에서 곡 구간을 악곡 데이터로서 추출함과 함께, 해당 악곡 추출 테이블(MET) 내의 악곡 타이틀(MT), 아티스트명(ARN) 및 장르명(JN)을 대응시킨 악곡 정보로서, 그 추출한 악곡 데이터에 대응시켜서 하드 디스크 드라이브(13)에 기록한 후, 다음의 스텝 SP81로 이동한다. 이로써 스텝 SP81에서 중앙 처리 유닛(10)은, 다른쪽의 악곡 추출 수법에 따른 악곡 추출 처리 순서(RT5)를 종료한다.
그와 관련하여 중앙 처리 유닛(10)은, 유저에 의해 한쪽의 악곡 추출 수법이 선택되어 있지만, 라디오 방송 정보 배신 서버(4)에 액세스한 때, 예를 들면 라디오 방송 정보 배신 서버(4)가 메인티넌스 중이고, 방송 악곡 테이블(OAT)를 취득할 수 없는 경우에는, 자동적으로 다른쪽의 악곡 추출 수법으로 전환하여 악곡 추출 처리를 실행한다. 또한 중앙 처리 유닛(10)은, 유저에 의해 다른쪽의 악곡 추출 수법이 선택되어 있지만, 악곡 정보 검색 서버(5)에 액세스한 때, 예를 들면 악곡 정보 검색 서버(5)가 메인티넌스 중이고, 제공 악곡 정보를 취득할 수 없는 경우에는, 자동적으로 한쪽의 악곡 추출 수법으로 전환하여 악곡 추출 처리를 실행한다. 이로써 중앙 처리 유닛(10)은, 유저의 요구에 응하여 악곡을 거의 확실하게 추출할 수 있다.
중앙 처리 유닛(10)은, 악곡 추출 처리의 실행에 의해 시각 보정 방송 악곡 테이블(ROAT)이나 악곡 추출 테이블(MET)을 생성한 경우, 그 시각 보정 방송 악곡 테이블(ROAT)이나 악곡 추출 테이블(MET)에 의거하여, 하드 디스크 드라이브(13)에 있어서의, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터의 기록 위치를 나타내는 기록 위치 정보와, 악곡 타이틀(MT), 아티스트명(ARN) 및 장르명(JN)으로 이루어지는 대응시킨 악곡 정보를 대응시키고, 그 악곡 데이터의 재생 순서를 규정한 재생 리스트(도시 생략)를 생성할 수 있다. 그리고 중앙 처리 유닛(10)은, 유저에 의해 조작 키(15)를 통해 그 재생 리스트에 따른 악곡 데이터의 재생이 요구되면, 해당 재생 리스트에 따라 하드 디스크 드라이브(13)로부터, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를 순차로 판독하여 데이터 처리부(17)에서 재생 처리함에 의해, 유저에게 라디오 방송프로그램중에서 방송된 악곡 부분만을 연속적으로 청취시킬 수 있도록 되어 있다.
그런데 라디오 방송프로그램중에서 방송되는 악곡은, 그 선두 부분이나 후미 부분에 디스크 자키에 의한 악곡 소개의 음성이 덮여지고, 또는 곡의 도중에 강제적으로 음량을 내려서 페이드 아웃되어, 1곡 전체가 완전한 상태로는 방송되지 않는 경우가 있다. 또한 라디오 방송프로그램중에서 방송되는 악곡은, 라디오국(3)에 의한 라디오 방송파의 방송 방식(즉, 주파수 변조나 진폭 변조)에 의해서는, 음질이 열화되어 있는 경우도 있다. 이때문에 중앙 처리 유닛(10)은, 이러한 악곡 데이터의 재생중에 유저에 의해 구입이 요구되면, 이에 응하여 악곡 배신 서버(6)로부터, 해당 재생중의 악곡 데이터와 동일한 악곡 데이터를 구입 형식으로 취득(즉, 다운로드)할 수 있도록 되어 있다. 그리고 중앙 처리 유닛(10)은, 악곡 배신 서버(6)로부터 악곡 데이터를 취득하면, 이것을 하드 디스크 드라이브(13)에 기록함과 함께, 방송프로그램 음성 데이터(D1)로부터 추출한 동일한 악곡 데이터를 예를 들면 소거하여 재생할 수 없도록 한다. 이와 같이 하여 중앙 처리 유닛(10)은, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를, 1곡 전체가 완전한 상태이며 또한 음질이 열화되지 않은 악곡 데이터로 대치할 수 있도록 되어 있다.
실제상, 중앙 처리 유닛(10)은, 이러한 악곡 구입 처리를 악곡 추출 프로그램에 따라 실행하고 있다. 즉 중앙 처리 유닛(10)은, 유저에 의해, 재생 리스트에 따른 악곡 데이터의 재생이 요구되면, 악곡 추출 프로그램에 따라 도 17에 도시하는 악곡 구입 처리 순서(RT6)를 시작한다. 중앙 처리 유닛(10)은, 이러한 악곡 구 입 처리 순서(RT6)를 시작하면, 스텝 SP91에서 재생 리스트의 참조 위치를, 재생 순서에 따라 최초에 재생한 악곡 데이터의 기록 위치 정보 및 대응시킨 악곡 정보(이하, 이들을 정리하여 항목이라고 부른다)에 맞추어서 초기화하고, 다음의 스텝 SP92로 이동한다. 스텝 SP92에서 중앙 처리 유닛(10)은, 재생 리스트에 따라 아직 재생하지 않은 악곡 데이터가 존재하는지의 여부를 판별한다. 이 스텝 SP92에서 긍정 결과가 얻어지면, 이것은 재생 리스트에 따라 아직 모든 악곡 데이터를 재생하여 마치지 않은, 또는 유저에 의해 강제적으로 재생의 종료가 요구되지는 않은 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP93으로 이동한다. 스텝 SP93에서 중앙 처리 유닛(10)은, 재생 리스트 내에서 현재 참조중인 항목에 따라 하드 디스크 드라이브(13)로부터 악곡 데이터를 판독하여 데이터 처리부(17)에서 재생 처리하고, 다음의 스텝 SP94로 이동한다.
스텝 SP94에서 중앙 처리 유닛(10)은, 유저에 대해 재생 처리중의 악곡 데이터에 의거한 악곡이 마음에 드는지의 여부를 문의한다. 그 결과, 중앙 처리유닛(10)은, 유저에 의해 조작 키(15)를 통하여 악곡이 마음에 든 것이 통지되면, 다음의 스텝 SP95로 이동한다. 스텝 SP95에서 중앙 처리 유닛(10)은, 현재 참조중인 항목에 포함되는 대응시킨 악곡 정보를 악곡 배신 서버(6)에 제시하고, 다음의 스텝 SP96으로 이동한다. 스텝 SP96에서 중앙 처리 유닛(10)은, 악곡 배신 서버(6)로부터 대응시킨 악곡 정보에 대응하는 시청 데이터가 스토리밍 형식으로 송신되면, 이것을 수신하여 데이터 처리부(17)에서 재생 처리함에 의해, 유저에 대해 대응시킨 악곡 정보에 대응한 악곡을 시청시키고, 다음의 스텝 SP97로 이동한다. 그와 관 련하여 중앙 처리 유닛(10)은, 하드 디스크 드라이브(13)로부터 악곡 데이터를 판독하여 재생 처리하고 있는 도중에, 악곡 배신 서버(6)로부터 송신된 시청 데이터를 수신한 때에는, 예를 들면, 이러한 악곡 데이터의 재생 처리를 정지하고 시청 데이터를 우선적으로 재생 처리한다.
스텝 SP97에서 중앙 처리 유닛(10)은, 유저에 대해 시청중의 악곡의 악곡 데이터를 구입할지의 여부를 문의한다. 그 결과, 중앙 처리 유닛(10)은, 유저에 의해 조작 키(15)를 통하여 악곡 데이터의 구입이 요구되면, 다음의 스텝 SP98로 이동한다. 스텝 SP98에서 중앙 처리 유닛(10)은, 악곡 배신 서버(6)에 대응시킨 악곡 정보에 대응하는 악곡 데이터의 구입을 요구한다. 그 결과, 중앙 처리 유닛(10)은, 악곡 배신 서버(6)로부터 악곡 데이터에 대한 구입 처리가 실행되고, 이러한 악곡 데이터가 송신되면, 이것을 수신하고, 다음의 스텝 SP99로 이동한다. 스텝 SP99에서 중앙 처리 유닛(10)은, 수신한 악곡 데이터를 하드 디스크 드라이브(13)에 기록함과 함께 그 악곡 데이터에 대응시킨 악곡 정보를 대응시킨다. 또한 중앙 처리 유닛(10)은, 이때 재생 처리하고 있던 악곡 데이터(즉, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터)를 삭제하고, 다음의 스텝 SP100으로 이동한다. 스텝 SP100에서 중앙 처리 유닛(10)은, 재생 리스트 내의 참조 위치를 재생 순서에 따라 다음의 항목측으로 진행하고, 스텝 SP92로 되돌아온다.
그런데 상술한 스텝 SP94에서 중앙 처리 유닛(10)은, 악곡이 마음에 들지 않아서, 유저에 의해 조작 키(15)를 통하여 다음의 악곡 데이터를 재생하도록 요구되면, 스텝 SP100으로 이동한다. 또한 상술한 스텝 SP97에서 중앙 처리 유닛(10)은, 유저에 의해 악곡 데이터의 구입이 단념되어, 조작 키(15)를 통하여 다음의 악곡 데이터를 재생하도록 요구되면, 이때도 스텝 SP100으로 이동한다.
이와 같이 하여 중앙 처리 유닛(10)은, 이 후, 스텝 SP92에서 부정 결과가 얻어질 때까지의 동안, 스텝 SP92 내지 스텝 SP100의 처리를 순환적으로 반복하여 실행한다. 이로써 중앙 처리 유닛(10)은, 재생 리스트에 따라 악곡 데이터를 순차로 재생 처리하면서, 유저의 요구에 응하여 악곡 데이터를 구입하고, 해당 구입한 악곡 데이터를, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터로부터 치환하도록 기록한다. 그리고 이 후, 상술한 스텝 SP92에서 부정 결과가 얻어지면, 이것은 재생 리스트에 따라 모든 악곡 데이터를 재생하여 마친, 또는 유저에 의해 강제적으로 재생의 종료가 요구된 것을 나타내고 있다. 따라서 중앙 처리 유닛(10)은, 이때 스텝 SP101로 이동하고, 이러한 악곡 구입 처리 순서(RT6)를 종료한다.
이상의 구성에서, 데이터 기록 장치(2)의 중앙 처리 유닛(10)은, 라디오국(3)에 의해 방송되고 있는 라디오 방송프로그램을 녹음하는 경우, 하드 디스크 드라이브(13)에 해당 라디오 방송프로그램의 방송프로그램 음성 데이터(D1)를 기록하면서, 그 방송프로그램 음성 데이터(D1)의 순차로 처리 단위에 대해 곡다움을 검출한다. 또한 중앙 처리 유닛(10)은, 곡다움의 검출 결과에 응하여 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)을 특정한다. 또한 중앙 처리 유닛(10)은, 외부의 라디오 방송 정보 배신 서버(4)로부터 취득한 방송 악곡 테이블(OAT)에 포함되는 방송 악곡 정보(OAM1 내지 OAMn), 또는 외부의 악곡 정보 검색 서버(5)로부터 취득한 제공 악곡 정보와, 곡 후보 구간(MC1 내지 MCm)에 의거하여, 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정한다. 그리고 중앙 처리 유닛(10)은, 방송프로그램 음성 데이터(D1)중에서 곡 구간을 악곡 데이터로서 추출함과 함께, 대응시킨 악곡 정보를 그 악곡 데이터에 대응시켜서 하드 디스크 드라이브(13)에 기록한다.
즉 데이터 기록 장치(2)는, 단지 방송 악곡 테이블(OAT)를 이용하여 라디오 방송프로그램의 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정하는 것이 아니라, 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)을 특정한 다음, 이러한 곡 후보 구간(MC1 내지 MCm)과, 방송 악곡 정보(OAM1 내지 OAMn) 또는 제공 악곡 정보에 의거하여 해당 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정하고 있다. 따라서 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서 악곡 데이터의 전후의 악곡 소개의 음성 데이터나 광고방송의 음성 데이터 등을 제거하여 곡 구간을 결정할 수 있다.
이상의 구성에 의하면, 하드 디스크 드라이브(13)에 대해 방송프로그램 음성 데이터(D1)를 기록하는 한편, 해당 방송프로그램 음성 데이터(D1)의 처리 단위마다 곡다움을 검출하고, 그 곡다움의 검출 결과에 응하여, 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)을 특정하고, 그 곡 후보 구간(MC1 내지 MCm)과, 방송 악곡 정보(OAM1 내지 OAMn) 또는 제공 악곡 정보에 의거하여, 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정하고, 하드 디스크 드라이브(13)에 대해 대응시킨 악곡 정보를 해당 곡 구간에 대응시켜서 기록하도록 하였다. 이로써 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서 악곡 데이터의 전후 의 악곡 소개의 음성 데이터나 광고방송의 음성 데이터 등의 여분의 부분을 제거하여 곡 구간을 결정할 수 있다. 따라서 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서의 악곡 데이터의 추출 정밀도를 향상할 수 있다.
그런데 데이터 기록 장치(2)는, 곡 구간을 결정하는 경우, 라디오 방송 정보 배신 서버(4)가 배신하는 방송 악곡 테이블(OAT) 내의 방송 악곡 정보(OAM1 내지 OAMn)를 이용하고 있다. 이때문에 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서, 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터의 부분만을 정확하게 곡 구간으로서 결정할 수 있다. 또한 데이터 기록 장치(2)는, 곡 구간을 결정하는 경우, 방송프로그램 음성 데이터(D1)중에서 특정한 모든 곡 후보 구간(MC1 내지 MCm)의 곡 후보 구간 데이터에 관해 장치 제시 곡 지문 정보를 생성하고, 그 장치 제시 곡 지문 정보의 제시에 응하여 악곡 정보 검색 서버(5)가 제공하는 제공 악곡 정보도 이용하고 있다. 이때문에 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서, 라디오 방송프로그램중에서 방송된 악곡의 악곡 데이터의 부분에 더하여, 라디오 방송프로그램의 테마곡(TM) 등의 부분도 곡 구간으로서 결정할 수 있다. 따라서 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를 재생 처리한 경우, 유저에 대해 라디오 방송프로그램중에서 방송된 악곡뿐만 아니라, 라디오 방송프로그램의 테마곡(TM) 등도 청취시킬 수 있다.
또한 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를 재생 처리하여 청취시킨 경우, 유저에 의해 해당 재생 처리하여 청 취시킨 악곡의 구입이 요구되면, 이에 응하여 악곡 배신 서버(6)에 액세스하도록 하였다. 따라서 데이터 기록 장치(2)는, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터에 의거한 악곡의 일부가 흠결되거나, 음질이 열화되어 있는 경우에, 1곡 전체가 완전한 상태이며 도한 음질이 열화되지 않은 악곡 데이터를 구입할 수 있다. 그리고 데이터 기록 장치(2)는, 이와 같이 악곡 데이터를 구입한 경우, 방송프로그램 음성 데이터(D1)중에서 추출하고 있던 기초의 악곡 데이터를 소거함으로써, 하드 디스크 드라이브(13)의 빈 영역이 불필요하게 소비되는 것을 회피할 수 있다.
(3) 다른 실시의 형태
또한 상술한 실시의 형태에서는, 중앙 처리 유닛(10)이 방송프로그램 음성 데이터(D1)중에서 곡 구간을 잘라내어 추출하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 중앙 처리 유닛(10)이 하드 디스크 드라이브(13) 내의 FAT(File Allocation Table)라고 불리는 관리 정보의 내용을 변경함으로써, 해당 방송프로그램 음성 데이터(D1)중에서 곡 구간만을 재생 가능한 상태로 하여 해당 방송프로그램 음성 데이터(D1)중에서 곡 구간을 추출하도록 하여도 좋다.
또한 상술한 실시의 형태에서는, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를 악곡 배신 서버(6)으로부터 구입한 때, 원래의 악곡 데이터를 소거하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 중앙 처리 유닛(10)이 하드 디스크 드라이브(13) 내의 FAT(File Allocation Table)라고 불리는 관리 정보의 내용을 변경하고, 방송프로그램 음성 데이터(D1)중에서 추출한 악곡 데이터를 단지 재생 불가능한 상태에 하도록 하여도 좋다.
또한 상술한 실시의 형태에서는, 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정할 때에, 이른바 온 에어 리스트 정보라고 불리는 방송 악곡 테이블(OAT)을 이용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 라디오 방송프로그램의 방송중에 방송프로그램 음성 데이터(D1)를 기록하면서 곡 후보 구간(MC1 내지 MCm)을 특정하면서, 해당 라디오 방송프로그램중에서 악곡이 방송될 때마다 제공되는, 이른바 나우 온 에어 정보라고 불리는 지금 현재 방송중인 악곡의 악곡 정보를 이용하여 방송프로그램 음성 데이터(D1)중에서 곡 구간을 결정하도록 하여도 좋다.
또한 상술한 실시의 형태에서는, 방송프로그램 음성 데이터(D1)를 기록하면서 곡다움을 검출하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 방송프로그램 음성 데이터(D1)를 일단 하드 디스크 드라이브(13)에 기록한 후, 예를 들면 유저의 요구에 응하여 해당 하드 디스크 드라이브(13)로부터 방송프로그램 음성 데이터(D1)를 판독하여 곡다움을 검출하도록 하여도 좋다. 이와 같이 하여도 상술한 실시의 형태와 같은 효과를 얻을 수 있다.
또한 상술한 실시의 형태에서는, 악곡 판별 처리 순서(RT3)를 실행한 때에 악곡 판별 정보와 시각 정보를 기록하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 악곡 판별 처리 순서(RT3)를 실행한 때에 방송프로그램 음성 데이터(D1)에 대해 악곡 판별 정보를 포인터로서 부가하도록 하여도 좋다. 이와 같이 하면 악곡 판별 처리 순서(RT3)를 실행한 때에 악곡 판별 정보와 시각 정보를 기록하는 일 없이, 방송프로그램 음성 데이터(D1)를 주사(走査)함으로써 곡 후보 구간(MC1 내지 MCm)을 특정할 수 있다.
또한 상술한 실시의 형태에서는, 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)을 초 단위로 특정하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한하지 않고, 방송 일시 정보(OTI1) 내의 시각 단위보다도 미세하면, 처리 단위 데이터의 사이즈를 작게 하여 곡다움을 검출함으로써, 방송프로그램 음성 데이터(D1)중에서 곡 후보 구간(MC1 내지 MCm)을 밀리초 단위로 특정하도록 하여도 좋다. 이와 같이 하면, 상술한 실시의 형태에 비하여, 방송 정보로부터의 악곡의 추출 정밀도를 더욱 향상시킬 수 있다.
또한 상술한 실시의 형태에서는, 라디오 방송프로그램의 방송프로그램 음성 데이터(D1)중에서 악곡 데이터를 추출하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한하지 않고, 아날로그 또는 디지털 텔레비전 방송프로그램, 인터넷 프로토콜의 텔레비전 방송(IPTV), 인터넷 라디오 등의 음성 데이터중에서 악곡 데이터를 추출하도록 하여도 좋다. 또한, 음성 데이터는, 방송 정보로 한정되지 않고, 음악(music)과 음성(대화(토크))가 혼재한 음성 데이터라면 무엇이든 상관없다.
또한 상술한 실시의 형태에서는, 방송프로그램 음성 데이터(D1) 전체에 걸처서, 곡다움을 검출하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 본 발명을 종래의 인용 문헌 2에 나타내는 발명과 조합하여, 나우 온 에어 정보의 수신에 응하여 방송프로그램 음성 데이터를 보존용으로서 하드 디스크 드라이브(13)에 기록한 때에, 해당 방송프로그램 음성 데이터의 선두 부분 및 후미 부분에 관해서만 곡다움을 검출하도록 하여도 좋다. 이와 같이 하면, 곡다움 검출기(37)의 처리 부하를 대폭적으로 저감시킬 수 있다.
또한 상술한 실시의 형태에서는, 본 발명에 의한 데이터 기록 장치를, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100) 및 데이터 기록 장치(2)에 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 라디오 방송프로그램이나 텔레비전 방송프로그램의 수신 기능을 갖는 컴퓨터나 휴대 전화기, PDA(Personal Digital Assistance) 등의 정보 처리 장치, DVD(Digital Versatile Disc) 레코더, HDDVD 레코더, 블루레이 디스크 레코더나 하드 디스크 레코더 등의 기록 재생 장치 등과 같이, 이 밖에 여러가지 구성의 악곡 추출 장치에 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 본 발명에 의한 악곡 추출 프로그램을, 도 1 내지 도 17에 관해 악곡 추출 프로그램에 적용하고, 중앙 처리 유닛(10)이 그 악곡 추출 프로그램에 따라 도 8, 도 13, 도 14, 도 16, 도 17에 관해 상술한 악곡 판별 처리 순서(RT3), 악곡 추출 처리 순서(RT4 및 RT5), 악곡 구입 처리 순서(RT6)를 실행하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 이 밖에 여러가지의 구성의 악곡 추출 프로그램을 적용하고, 그 악곡 추출 프로그램이 격납된 프로그램 격납 매체를 데이터 기록 장치(2)에 인스톨함에 의해 악곡 판별 처리 순서(RT3), 악곡 추출 처리 순서(RT4 및 RT5), 악곡 구입 처리 순 서(RT6)을 실행하도록 하여도 좋다. 그런데 악곡 추출 프로그램에 관해서는, 예를 들면 상술한 곡다움 검출기(37)가 실행하는 곡다움 검출 처리나 곡 지문 생성기(38)가 실행하는 곡 지문 생성 처리도, 중앙 처리 유닛(10)에 대해, 악곡 판별 처리나 악곡 추출 처리의 일환으로서 실행시키도록 구성할 수다.
또한 상술한 실시의 형태에서는, 방송 정보를 기록하는 기록 매체로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 기록 매체(102)나, 데이터 기록 장치(2)의 하드 디스크 드라이브(13)를 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 데이터 기록 장치(2)에 착탈 가능하게 마련되는 반도체 메모리, 자기 메모리, 광 메모리, 광디스크, 광자기 디스크나 자기 디스크 등의 기록 매체, 또한 데이터 기록 장치(2)에 내장된 반도체 메모리, 자기 메모리, 광 메모리, 광디스크, 광자기 디스크, 자기 디스크 등과 같이, 이 밖에 여러가지의 기록 매체를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 기록 매체에 기록하는 방송 정보로서, 도 1 내지 도 17에 관해 상술한 라디오 방송프로그램의 방송프로그램 음성 데이터(D1)를 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 텔레비전 방송프로그램의 방송프로그램 음성 데이터와 같이, 이 밖에 여러가지의 방송 정보를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 기록 매체에 방송 정보를 기록하는 방송 정보 기록부로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 방송 정보 기록부(101)나, 데이터 기록 장치(2)의 중앙 처리 유닛(10)을 적용하도록 한 경우 에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 기록 매체에 방송 정보를 기록하는 하드웨어 구성의 방송 정보 기록 회로 등과 같이, 이 밖에 여러가지의 방송 정보 기록부를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 곡다움 검출부에 의한 곡다움의 검출 결과에 응하여, 기록 매체에 기록된 방송 정보중에서 곡 후보 구간을 특정하는 곡 후보 구간 특정부로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 곡 후보 구간 특정부(104)나, 데이터 기록 장치(2)의 중앙 처리 유닛(10)을 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 곡다움 검출부에 의한 곡다움의 검출 결과에 응하여, 기록 매체에 기록된 방송 정보중에서 곡 후보 구간을 특정하는 하드웨어 구성의 곡 후보 구간 특정 회로 등과 같이, 이 밖에 여러가지의 곡 후보 구간 특정부를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 외부 서버로서, 도 1 내지 도 17에 관해 상술한 외부 서버(106), 라디오 방송 정보 배신 서버(4), 악곡 정보 검색 서버(5)를 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 텔레비전 방송 정보 배신 서버 등과 같이, 이 밖에 여러가지의 외부 서버를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 외부 서버로부터 악곡 정보를 취득하는 악곡 정보 취득부로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 악곡 정보 취득부(105)나, 데이터 기록 장치(2)의 중앙 처리 유닛(10) 및 통신 처리부(16)를 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 외부 서버로부터 악곡 정보를 취득하는 하드웨어 구성의 악곡 정보 취득 회로 등과 같이, 이 밖에 여러가지의 악곡 정보 취득부를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 곡 후보 구간 특정부에 의해 특정된 곡 후보 구간과, 악곡 정보 취득부에 의해 취득된 악곡 정보에 의거하여, 기록 매체에 기록된 방송 정보중에서 곡 구간을 결정하는 곡 구간 결정부로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 곡 구간 결정부(107)나, 데이터 기록 장치(2)의 중앙 처리 유닛(10)을 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 곡 후보 구간 특정부에 의해 특정된 곡 후보 구간과, 악곡 정보 취득부에 의해 취득된 악곡 정보에 의거하여, 기록 매체에 기록된 방송 정보중에서 곡 구간을 결정하는 하드웨어 구성의 곡 구간 결정 회로 등과 같이, 이 밖에 여러가지의 곡 구간 결정부를 널리 적용할 수 있다.
또한 상술한 실시의 형태에서는, 기록 매체에 악곡 정보를 곡 구간에 대응시켜서 기록하는 악곡 정보 기록부로서, 도 1 내지 도 17에 관해 상술한 악곡 추출 장치(100)의 악곡 정보 기록부(108)나, 데이터 기록 장치(2)의 중앙 처리 유닛(10)을 적용하도록 한 경우에 관해 기술하였지만, 본 발명은 이것으로 한정되지 않고, 기록 매체에 악곡 정보를 곡 구간에 대응시켜서 기록하는 하드웨어 구성의 악곡 정보 기록 회로 등과 같이, 이 밖에 여러가지의 악곡 정보 기록부를 널리 적용할 수 있다.
산업상의 이용 가능성
본 발명은, 라디오 방송이나 텔레비전 방송을 수신하여 녹음할 수 있는 퍼스 널 컴퓨터나 휴대 전화기, 뮤직 플레이어 등의 악곡 추출 장치에 이용할 수 있다.
본 발명에 의하면, 기록 매체에 방송 정보를 기록하는 한편, 해당 방송 정보의 처리 단위마다 곡다움을 검출하고, 해당 곡다움의 검출 결과에 응하여, 기록 매체에 기록한 방송 정보중에서 곡 후보 구간을 특정하고, 그 곡 후보 구간과, 외부 서버로부터 취득한 악곡 정보에 의거하여, 기록 매체에 기록한 방송 정보중에서 곡 구간을 결정하고, 기록 매체에 악곡 정보를 해당 곡 구간에 대응시켜서 기록하도록 함에 의해, 방송 정보중에서 악곡의 전후에 흐른 악곡 소개의 음성이나 광고방송의 음성 등의 부분을 제거하여 곡 구간을 결정할 수 있고, 이렇게 하여 방송 정보중에서의 악곡의 추출 정밀도를 향상할 수 있는 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법을 실현할 수 있다.

Claims (8)

  1. 컴퓨터에 대해,
    입력된 오디오 데이터의 처리 단위마다 곡다움을 검출하는 곡다움 검출 스텝과,
    상기 곡다움의 검출 결과에 응하여, 상기 오디오 데이터에서의 곡 후보 구간을 특정하는 곡 후보 구간 특정 스텝과,
    상기 곡 후보 구간과, 외부 서버로부터 취득한 악곡 정보에 의거하여, 상기 오디오 데이터에서의 곡 구간을 결정하는 곡 구간 결정 스텝과,
    기록 매체에 상기 악곡 정보를 상기 곡 구간에 대응시켜서 기록하는 악곡 정보 기록 스텝을 실행시키기 위한 컴퓨터 판독 가능한 기록 매체에 기록된 악곡 추출 프로그램.
  2. 제 1항에 있어서,
    상기 외부 서버로부터, 상기 오디오 데이터에 대응하는 곡 타이틀 및 해당 곡 타이틀에 대응하는 방송 일시 정보를 갖는 상기 악곡 정보를 취득하는 악곡 정보 취득 스텝을 상기 컴퓨터에 실행시키고,
    상기 곡 구간 결정 스텝은,
    상기 곡 후보 구간과, 상기 악곡 정보 내의 상기 방송 일시 정보에 의거하여 상기 오디오 데이터에서의 상기 곡 구간을 결정하는 것을 상기 컴퓨터에 실행시키 기 위한 악곡 추출 프로그램.
  3. 제 1항에 있어서,
    상기 곡 후보 구간마다 해당 곡 후보 구간이 나타내는 상기 오디오 데이터의 일부인 부분 오디오 데이터의 적어도 일부에 의거하여 식별 정보를 생성하고, 해당 생성한 식별 정보를 상기 외부 서버에 송신하는 식별 정보 송신 스텝과,
    상기 식별 정보에 응하여 상기 외부 서버로부터 송신된, 악곡 타이틀을 포함하는 상기 악곡 정보를 취득하는 악곡 정보 취득 스텝을 상기 컴퓨터에 실행시키고,
    상기 곡 구간 결정 스텝은,
    상기 곡 후보 구간과, 상기 악곡 정보 내의 상기 악곡 타이틀에 의거하여, 동일한 상기 악곡 타이틀의 상기 곡 후보 구간을 정리하여 하나의 상기 곡 구간으로 하도록 하여 상기 오디오 데이터에서의 상기 곡 구간을 결정하는 것을 상기 컴퓨터에 실행시키기 위한 악곡 추출 프로그램.
  4. 제 1항에 있어서,
    상기 기록 매체로부터, 상기 오디오 데이터중에서 상기 악곡 정보를 대응시킨 상기 곡 구간이 나타내는 상기 오디오 데이터의 일부인 부분 오디오 데이터를 재생하는 재생 스텝과,
    상기 곡 구간이 나타내는 상기 부분 오디오 데이터를 재생하고 있는 도중에, 악곡의 구입이 지시되면, 악곡 제공 서버에 대해, 해당 곡 구간과 대응시킨 상기 악곡 정보가 나타내는 악곡 데이터를 구입 요구하는 구입 요구 스텝을 상기 컴퓨터에 실행시키기 위한 악곡 추출 프로그램.
  5. 제 4항에 있어서,
    상기 악곡 제공 서버로부터 상기 악곡 데이터의 다운로드가 완료되면, 상기 기록 매체로부터, 해당 악곡 데이터의 상기 악곡 정보와 대응시킨 상기 곡 구간이 나타내는 상기 부분 오디오 데이터를 재생할 수 없도록 하는 것을 상기 컴퓨터에 실행시키기 위한 악곡 추출 프로그램.
  6. 제 5항에 있어서,
    상기 악곡 제공 서버로부터 상기 악곡 데이터의 다운로드가 완료되면, 상기 기록 매체로부터, 상기 곡 구간이 나타내는 상기 부분 오디오 데이터를 소거하는 것을 상기 컴퓨터에 실행시키기 위한 악곡 추출 프로그램.
  7. 입력되는 오디오 데이터의 처리 단위마다 곡다움을 검출하는 곡다움 검출부와,
    상기곡다움 검출부에 의한 상기 곡다움의 검출 결과에 응하여, 상기 오디오 데이터에서의 곡 후보 구간을 특정하는 곡 후보 구간 특정부와,
    외부 서버로부터 악곡 정보를 취득하는 악곡 정보 취득부와,
    상기 곡 후보 구간 특정부에 의해 특정된 상기 곡 후보 구간과, 상기 악곡 정보 취득부에 의해 취득된 상기 악곡 정보에 의거하여, 상기 오디오 데이터에서의 곡 구간을 결정하는 곡 구간 결정부와,
    기록 매체에 상기 악곡 정보를 상기 곡 구간에 대응시켜서 기록하는 악곡 정보 기록부를 갖추는 것을 특징으로 하는 악곡 추출 장치.
  8. 입력되는 오디오 데이터의 처리 단위마다 곡다움을 검출한 곡다움 검출 스텝과,
    상기 곡다움의 검출 결과에 응하여, 상기 오디오 데이터에서의 곡 후보 구간을 특정하는 곡 후보 구간 특정 스텝과,
    상기 곡 후보 구간과, 외부 서버로부터 취득한 악곡 정보에 의거하여, 상기 오디오 데이터에서의 곡 구간을 결정하는 곡 구간 결정 스텝과,
    기록 매체에 상기 악곡 정보를 상기 곡 구간에 대응시켜서 기록하는 악곡 정보 기록 스텝을 구비하는 것을 특징으로 하는 악곡 추출 방법.
KR1020070015195A 2006-02-16 2007-02-14 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법 KR20070082529A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00039985 2006-02-16
JP2006039985A JP2007219178A (ja) 2006-02-16 2006-02-16 楽曲抽出プログラム、楽曲抽出装置及び楽曲抽出方法

Publications (1)

Publication Number Publication Date
KR20070082529A true KR20070082529A (ko) 2007-08-21

Family

ID=37995878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070015195A KR20070082529A (ko) 2006-02-16 2007-02-14 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법

Country Status (5)

Country Link
US (2) US7453038B2 (ko)
EP (1) EP1821225A1 (ko)
JP (1) JP2007219178A (ko)
KR (1) KR20070082529A (ko)
CN (1) CN101025985A (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8458754B2 (en) 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
GB0904113D0 (en) * 2009-03-10 2009-04-22 Intrasonics Ltd Video and audio bookmarking
US20100293072A1 (en) * 2009-05-13 2010-11-18 David Murrant Preserving the Integrity of Segments of Audio Streams
JP5428764B2 (ja) * 2009-11-02 2014-02-26 オンキヨー株式会社 コンテンツ特定装置およびそのプログラム
CN102340598A (zh) * 2011-09-28 2012-02-01 上海摩软通讯技术有限公司 具有广播音乐捕捉功能的移动终端及其音乐捕捉方法
US9384272B2 (en) 2011-10-05 2016-07-05 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for identifying similar songs using jumpcodes
JP2013117688A (ja) * 2011-12-05 2013-06-13 Sony Corp 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム
US20130226957A1 (en) * 2012-02-27 2013-08-29 The Trustees Of Columbia University In The City Of New York Methods, Systems, and Media for Identifying Similar Songs Using Two-Dimensional Fourier Transform Magnitudes
WO2013183078A1 (ja) * 2012-06-04 2013-12-12 三菱電機株式会社 自動記録装置
CN102982819A (zh) * 2012-11-21 2013-03-20 广东欧珀移动通信有限公司 一种蓝光播放机及播放多媒体文件的方法
WO2014155526A1 (ja) * 2013-03-26 2014-10-02 株式会社 東芝 情報処理装置及び情報処理方法
JP6179188B2 (ja) * 2013-05-23 2017-08-16 ヤマハ株式会社 楽曲解析装置
CN103440330A (zh) * 2013-09-03 2013-12-11 网易(杭州)网络有限公司 一种音乐节目信息获取方法和设备
US9565245B1 (en) 2013-11-25 2017-02-07 Twitter, Inc. Promoting time-based content through social networking systems
JP2016200779A (ja) * 2015-04-14 2016-12-01 カシオ計算機株式会社 コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法及びプログラム
US9715870B2 (en) 2015-10-12 2017-07-25 International Business Machines Corporation Cognitive music engine using unsupervised learning
JP6701776B2 (ja) * 2016-02-15 2020-05-27 船井電機株式会社 録画装置、録画方法
CN105893460B (zh) * 2016-03-22 2019-11-29 无锡五楼信息技术有限公司 一种基于人工智能技术的音乐自动创作方法及装置
CN107797893A (zh) * 2016-09-07 2018-03-13 华为数字技术(成都)有限公司 一种计算硬盘处理读写命令的时长的方法及设备
CN113782059B (zh) * 2021-09-24 2024-03-22 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5712953A (en) * 1995-06-28 1998-01-27 Electronic Data Systems Corporation System and method for classification of audio or audio/video signals based on musical content
US6469239B1 (en) * 1998-02-19 2002-10-22 Sony Corporation Data storage apparatus and data storage method with quality degrading features
US7174293B2 (en) 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
US6941275B1 (en) * 1999-10-07 2005-09-06 Remi Swierczek Music identification system
JP2002091451A (ja) * 2000-09-13 2002-03-27 Yamaha Corp 楽曲評価システムに用いられるサーバ
US7087829B2 (en) * 2000-09-13 2006-08-08 Yamaha Corporation Method, system and recording medium for viewing/listening evaluation of musical performance
EP1381026A4 (en) * 2001-04-17 2007-09-19 Kenwood Corp SYSTEM FOR TRANSFERRING INFORMATION ABOUT ATTRIBUTE TO THE EXAMPLE OF A CD
JP4035993B2 (ja) 2002-01-08 2008-01-23 ソニー株式会社 データ処理装置及び方法
JP4313563B2 (ja) * 2002-12-04 2009-08-12 パイオニア株式会社 楽曲検索装置及び方法
EP1489765A3 (en) * 2003-06-17 2005-12-14 Matsuhita Electric Industrial Co., Ltd. Music selection apparatus and music delivery system
US7592534B2 (en) * 2004-04-19 2009-09-22 Sony Computer Entertainment Inc. Music composition reproduction device and composite device including the same
JP4171987B2 (ja) 2004-05-19 2008-10-29 ソニー株式会社 記録装置、記録方法及び記録プログラム
US7120576B2 (en) * 2004-07-16 2006-10-10 Mindspeed Technologies, Inc. Low-complexity music detection algorithm and system
KR20060046263A (ko) * 2004-08-04 2006-05-17 도쿄파츠고교 가부시키가이샤 편평형 진동모터를 내장시킨 전자음향변환기
JP2006106818A (ja) * 2004-09-30 2006-04-20 Toshiba Corp 音楽検索装置、音楽検索方法及び音楽検索プログラム

Also Published As

Publication number Publication date
US20080236367A1 (en) 2008-10-02
US7453038B2 (en) 2008-11-18
CN101025985A (zh) 2007-08-29
EP1821225A1 (en) 2007-08-22
US7531735B2 (en) 2009-05-12
US20070186751A1 (en) 2007-08-16
JP2007219178A (ja) 2007-08-30

Similar Documents

Publication Publication Date Title
KR20070082529A (ko) 악곡 추출 프로그램, 악곡 추출 장치 및 악곡 추출 방법
US6748360B2 (en) System for selling a product utilizing audio content identification
US7580325B2 (en) Utilizing metadata to improve the access of entertainment content
US20040143349A1 (en) Personal audio recording system
US9398390B2 (en) DJ stem systems and methods
KR100962803B1 (ko) 악곡 구간 검출 방법 및 그 장치, 및 데이터 기록 방법 및그 장치
US7953504B2 (en) Method and apparatus for selecting an audio track based upon audio excerpts
JP5029113B2 (ja) バックアップシステム、バックアップ装置、バックアップ要求装置及びバックアップ方法
JP2007533274A (ja) コンテントのサンプリングおよび識別のための方法およびシステム
CN101166033B (zh) 数据记录设备、数据记录方法、以及数据记录程序
US8069177B2 (en) Information selecting method, information selecting device and so on
JP4053399B2 (ja) 音楽情報記録再生装置
KR102431737B1 (ko) 멀티미디어 데이터에서 하이라이트를 찾는 방법 및 그를 이용한 장치
JP2008079047A (ja) データ再生装置、データ再生方法及びデータ再生プログラム
KR100798524B1 (ko) 매체 신호 검색 및 레코딩 방법 및 장치
WO2005059915A1 (en) Recording songs from radio
JP2010093546A (ja) 車載オーディオ装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid