WO2020059008A1 - 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム - Google Patents

楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム Download PDF

Info

Publication number
WO2020059008A1
WO2020059008A1 PCT/JP2018/034402 JP2018034402W WO2020059008A1 WO 2020059008 A1 WO2020059008 A1 WO 2020059008A1 JP 2018034402 W JP2018034402 W JP 2018034402W WO 2020059008 A1 WO2020059008 A1 WO 2020059008A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
parameter
data
analysis data
unit
Prior art date
Application number
PCT/JP2018/034402
Other languages
English (en)
French (fr)
Inventor
勘太 大江
Original Assignee
Pioneer DJ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer DJ株式会社 filed Critical Pioneer DJ株式会社
Priority to EP18934405.4A priority Critical patent/EP3855427A4/en
Priority to PCT/JP2018/034402 priority patent/WO2020059008A1/ja
Priority to JP2020547490A priority patent/JP7235765B2/ja
Priority to US17/276,377 priority patent/US20220076650A1/en
Publication of WO2020059008A1 publication Critical patent/WO2020059008A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Definitions

  • the present invention relates to a music data collation device, a music analysis data distribution server, a music data collation program, and a music analysis data distribution program.
  • the preparatory work includes analysis of music data (detection of BPM and KEY, detection and adjustment of beat positions, setting of CUE points, etc.). Conventionally, music data has been analyzed by each performer using a music data analysis program, but this has been a heavy burden on the performers.
  • music analysis data obtained by various musicians analyzing music data is stored in advance on a server via the Internet or the like, and the music for the music required by the player is stored. It is conceivable to download and use the analysis data as appropriate. In this case, it is necessary to check whether the downloaded music analysis data correctly matches the music analysis data of the music data requested by the player.
  • Patent Literature 1 discloses a technique in which music data is subjected to power spectrum conversion, a plurality of index information is extracted from the power spectrum data, and the index information is transmitted to collate with content stored in a server.
  • Patent Document 2 discloses a technique of generating a fingerprint value from music data using a fingerprint technique, transmitting the fingerprint value, and collating the fingerprint value with content stored in a server.
  • Patent Literature 3 discloses a technique in which metadata such as a title and an artist name attached to music data is acquired, and the metadata is transmitted to collate with content stored in a server.
  • Patent Document 1 it is necessary to perform power spectrum analysis of music data when extracting index information, so that it takes time to generate the index information, thereby reducing the burden on the player. There is a problem that can not be. Further, the technique described in Patent Document 2 has a problem that the generation of the fingerprint value takes a long time because the generation of the fingerprint value requires complicated arithmetic processing. Furthermore, if a part of the music data is different music, or if the music data is a combination of a plurality of music data, if the generation of the fingerprint is limited to a part of the music data, the music analysis data There is a problem that cannot be matched correctly.
  • An object of the present invention is to provide a music data collation device capable of surely and quickly downloading music analysis data of arbitrary music data stored in a server and reducing a burden on a performer in advance.
  • a music analysis data distribution server, a music data collation program, and a music analysis data distribution program are provided.
  • a music data collation device of the present invention includes a music data selection unit for an operator to select arbitrary music data, and a first parameter generation unit for generating a first parameter from the entire music data selected by the music data selection unit.
  • the server compares the second parameter with the first parameter, A music analysis data receiving unit that receives the matched music analysis data.
  • the music analysis data distribution server of the present invention is communicably connected to the music data collation device described above, and receives a first parameter generated and transmitted from the entire music data by the music data collation device.
  • a music analysis data storage unit that stores music analysis data generated according to the arbitrary music data, and a second parameter generated from the entirety of the arbitrary music data, and a music analysis data storage unit that receives the first parameter reception unit.
  • a parameter matching unit that matches a first parameter with a second parameter stored in the music analysis data storage unit; and music analysis data corresponding to the second parameter that has been matched by the parameter matching unit.
  • a music analysis data transmission unit that transmits the music analysis data to the data collation device.
  • the music data collation program of the present invention causes a computer to function as the music data collation device described above.
  • the music analysis data distribution program of the present invention causes a computer to function as the music analysis data distribution server described above.
  • the block diagram which shows the music data collation apparatus and music analysis data distribution server which concern on embodiment of this invention. 4 is a flowchart for explaining the operation in the embodiment.
  • FIG. 1 shows a music analysis data distribution system according to the present embodiment.
  • the music analysis data distribution system includes a computer 1, a server 2 serving as a music analysis data distribution server, and a network 3 that connects the two so as to enable two-way communication.
  • the computer 1 as a music data collation device is configured as a general-purpose computer including an arithmetic processing device and a storage device such as a hard disk.
  • the computer 1 is executed on an arithmetic processing unit, and stores a song data storage unit 11, a song data analysis unit 12, and a song analysis data storage as a computer-readable song data collation program secured as a predetermined storage area of the storage device. It includes a unit 13, a music data selection unit 14, a first parameter generation unit 15, a first parameter transmission unit 16, a music analysis data reception unit 17, and a music analysis data transmission unit 18.
  • the music data storage unit 11 is formed by securing a part of the storage area of the storage device, and stores a plurality of music data in a predetermined file format.
  • the file formats that can be handled by the computer 1 of the present embodiment include, for example, video format (container format) files with the extensions mpg, mp4, m4v, mov, avi, qtz, and video format (video codec). Files with the extensions h.264, mpeg-4, and mpeg-2.
  • the extension is wav or aiff, which is an uncompressed format
  • the file is flac
  • alac which is a lossless compression format
  • the file is aac
  • mp3 which is an irreversible compression format.
  • the music data analysis unit 12 selects arbitrary music data stored in the music data storage unit 11, analyzes the music data by FFT (Fast Fourier Transform) or the like, and performs BPM (Beat Per Minute) or KEY of the music data. , Beat positions, and characteristic sections such as A melody, B melody, and rust.
  • the detected music analysis data is stored in the music analysis data storage unit 13.
  • the music data selection unit 14 displays a plurality of music data stored in the music data storage unit 11 and prompts the operator to select music data.
  • the first parameter generator 15 generates a first parameter from the entire music data selected by the music data selector 14. Specifically, the first parameter generation unit 15 adds 0/1 data for 32 bits from the 32-bit 0/1 data of the music data to the end of the music, and adds all the music data. Check sum data (Check Sum Data), which is 0/1 data of the lower 32 bits after adding the data, is generated as a first parameter. Note that the metadata of the music data is not added.
  • the first parameter generation unit 15 obtains the reproduction time of the music data from the sampling frequency, bit rate, and data length of the music data, and sets it as a first parameter.
  • the checksum data is generated as the first parameter.
  • the present invention is not limited to this, and another method is used as long as the first parameter can be generated from the entire music data in a short time.
  • a hash value generated using a hash function may be used as the first parameter.
  • the first parameter transmitting unit 16 transmits the first parameter including the checksum data generated by the first parameter generating unit 15 and the reproduction time of the music data to the server 2 via the network 3.
  • the network 3 may be wired or wireless as long as the first parameter can be uploaded.
  • the music analysis data receiving unit 17 receives the music analysis data transmitted from the server 2.
  • the received music analysis data is stored in the music analysis data storage unit 13.
  • the music analysis data transmission unit 18 transmits music analysis data analyzed by the music player by the music data analysis unit 12 to the server 2 via the network 3.
  • the first parameter generation unit 15 generates the first parameter corresponding to the music analysis data analyzed at the same time, and transmits the first parameter from the first parameter transmission unit 16.
  • the server 2 is configured as a computer including an arithmetic processing unit and a storage device. Although the server 2 is connected to only one computer 1 via the network 3 in FIG. 1, actually, the server 2 is communicably connected to a plurality of computers 1 such as the Internet. I have.
  • the server 2 is a computer-readable music analysis data distribution program executed on the arithmetic processing device and secured as a predetermined storage area of the storage device, a music analysis data storage unit 21, a first parameter receiving unit 22, a parameter A collation unit 23, a music analysis data transmission unit 24, and a music analysis data reception unit 25 are provided.
  • the music analysis data storage unit 21 is configured as a part of a storage area in a storage device of a computer, and arbitrary music analysis data is stored in the music analysis data storage unit 21 in association with the second parameter.
  • the first parameter receiving unit 22 receives the first parameter transmitted from the computer 1 via the network 3.
  • the parameter matching unit 23 compares the first parameter received by the first parameter receiving unit 22 with the second parameter stored in the music analysis data storage unit 21. When the parameter matching unit 23 matches the second parameter that matches the first parameter, the parameter matching unit 23 outputs the matched second parameter to the music analysis data transmission unit 24.
  • the music analysis data transmission unit 24 calls up music analysis data corresponding to the second parameter in the music analysis data storage unit 21 based on the matched second parameter output from the parameter matching unit 23, and transmits it to the computer 1. .
  • the music analysis data receiving unit 25 receives the music analysis data transmitted from the computer 1 and stores it in the music analysis data storage unit 21. At this time, the music analysis data receiving unit 25 associates the first parameter transmitted from the computer 1 with the music analysis data, and stores the first parameter in the music analysis data storage unit 21 as the second parameter and the music analysis data.
  • the plurality of performers select music analysis data created by the music data analysis unit 12 (step S1).
  • the first parameter generation unit 15 generates a first parameter from music data corresponding to the selected music analysis data (step S2).
  • the music analysis data transmission unit 18 transmits the selected music analysis data to the server 2 via the network 3.
  • the first parameter transmitting section 16 transmits the first parameter generated by the first parameter generating section 15 to the server 2 via the network 3 (procedure S3).
  • the music analysis data receiving unit 25 of the server 2 receives the music analysis data transmitted from the computer 1.
  • the first parameter receiving unit 22 receives the first parameter transmitted from the computer 1 (Step S4).
  • the music analysis data receiving unit 25 uses the received music analysis data as the first parameter received by the first parameter receiving unit 22 as a second parameter, associates the second parameter with the music analysis data, and stores the music analysis data in the music analysis data storage unit 21. (Step S5).
  • the steps S1 to S5 are performed by a plurality of computers 1 connected to the network 3, and the music analysis data storage unit 21 of the server 2 stores a large number of music analysis data.
  • the music data selection unit 14 selects music data (step S6).
  • the first parameter generator 15 generates a first parameter based on the selected music data (step S7).
  • the first parameter transmitting unit 16 transmits the generated first parameter to the server 2 (procedure S8).
  • the first parameter receiving unit 22 of the server 2 Upon receiving the first parameter (step S9), the first parameter receiving unit 22 of the server 2 outputs the received first parameter to the parameter matching unit 23.
  • the parameter matching unit 23 compares the received first parameter with the second parameter stored in the music analysis data storage unit 21 (step S10).
  • the music analysis data transmission unit 24 calls the music analysis data associated with the matched second parameter based on the collation by the parameter collation unit 23, and transmits the data to the computer 1 (step S11).
  • the music analysis data receiving unit 17 of the computer 1 receives the music analysis data (step S12).
  • the music analysis data receiving unit 17 stores the received music analysis data in the music analysis data storage unit 13 (step S13).
  • the first parameter generator 15 generates the first parameter from the entire music data. Therefore, since the first parameter generated from the entire music data and the second parameter similarly generated from the entire music data are collated, the requested music analysis data can be acquired with high accuracy. Therefore, it is possible to acquire music analysis data in a shorter time and with less load than when the music player himself analyzes music and acquires music analysis data.
  • the calculation processing time can be reduced, and the music analysis data can be acquired in a shorter time. Since the playback time of the music data is also used as the first parameter, the matching can be performed with higher accuracy by comparing the checksum data and the playback time, and the required music analysis data can be reliably obtained. be able to.
  • the present invention is not limited to the above-described embodiment, but includes the following modifications.
  • the received music analysis data is stored in the music analysis data storage unit 13, but the present invention is not limited to this.
  • the received music analysis data is temporarily stored in a temporary memory, and is discarded after the music data has been played. If music analysis data is separately required, the music analysis data is downloaded from the server each time. You may.
  • the music analysis data is exclusively downloaded from the server 2 to the computer 1 and used, but the present invention is not limited to this.
  • the downloaded music analysis data may be corrected in advance such as the beat position, and the corrected version may be uploaded to the server 2.
  • the computer 1 is used as the music data collation device, but the present invention is not limited to this.
  • a portable information terminal may be used as long as bidirectional communication with the server 2 is possible, and further, a reproduction control device such as a DJ controller may be used.
  • the configuration, procedure, and the like at the time of carrying out the present invention may be other configurations and the like as long as the object of the present invention can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

楽曲データ照合装置(1)は、操作者が任意の楽曲データを選択する楽曲データ選択部(14)と、楽曲データ選択部(14)により選択された楽曲データ全体から第1パラメータを生成する第1パラメータ生成部(15)と、第1パラメータ生成部(15)により生成された第1パラメータを、通信可能に接続されたサーバ(2)に送信する第1パラメータ送信部(16)と、任意の楽曲データに応じて生成された楽曲解析データ、および前記任意の楽曲データ全体から生成された第2パラメータが保存されたサーバ(2)において、第2パラメータと、第1パラメータとを照合させ、合致した楽曲解析データを受信する楽曲解析データ受信部(17)と、を備える。

Description

楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム
 本発明は、楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラムに関する。
 演奏者がDJコントローラ等の再生制御装置や、コンピュータを操作して行うDJパフォーマンスでは、DJパフォーマンスを行う前に演奏者が仕込み作業と呼ばれる事前作業を行う。
 事前作業には、楽曲データの解析(BPMやKEYの検出、拍位置の検出、調整、CUEポイントの設定等)が含まれている。従来、楽曲データの解析は、各演奏者がそれぞれ楽曲データを、楽曲データ解析プログラムを用いて解析していたが、演奏者にとって大きな負担となっていた。
 演奏者の負担を軽減する方法として、種々の演奏者が楽曲データの解析を行って得た楽曲解析データを、インターネット等を介して予めサーバに蓄積しておき、演奏者が必要な楽曲の楽曲解析データを適宜ダウンロードして使用することが考えられる。この場合、ダウンロードする楽曲解析データが、演奏者が要求する楽曲データの楽曲解析データと正しく合致するか、照合を行う必要がある。
 このため、特許文献1には、楽曲データをパワースペクトル変換し、パワースペクトルデータから複数のインデックス情報を抽出して、インデックス情報を送信することにより、サーバに蓄積されたコンテンツと照合する技術が開示されている。
 また、特許文献2には、フィンガープリント技術を利用して、楽曲データからフィンガープリント値を生成し、フィンガープリント値を送信することにより、サーバに蓄積されたコンテンツと照合する技術が開示されている。
 さらに、特許文献3には、楽曲データに付されたタイトルやアーティスト名等のメタデータを取得し、メタデータを送信することにより、サーバに蓄積されたコンテンツと照合する技術が開示されている。
特開平10-134549号公報 特開2014-519660号公報 特開2012-34043号公報
 しかしながら、前記特許文献1に記載の技術では、インデックス情報を抽出する際に、楽曲データのパワースペクトル解析を行う必要があるため、インデックス情報の生成に時間がかかり、演奏者の負担を軽減することができないという課題がある。
 また、前記特許文献2に記載の技術では、フィンガープリント値の生成は複雑な演算処理を必要とするため、フィンガープリント値の生成には時間がかかってしまうという課題がある。さらに、楽曲データの一部が異なる楽曲である場合、または複数の楽曲データをつなぎ合わせた楽曲データの場合には、フィンガープリントの生成を楽曲データの一部に限定してしまうと、楽曲解析データを正しく照合することができないという課題がある。
 さらに、前記特許文献3に記載の技術では、メタデータは演奏者により編集可能であるので、正しい照合を行うことができない可能性がある。また、楽曲データの収録アルバムが異なっていること、あるいは楽曲データの一部しか楽曲解析データが記録されていないことがあり、メタデータが一致しているにも関わらず、楽曲解析データとして用いることができない場合がある。
 本発明の目的は、サーバに蓄積された任意の楽曲データの楽曲解析データを間違いなく、かつ迅速にダウンロードすることができ、演奏者の事前作業の負担を軽減することのできる楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラムを提供することにある。
 本発明の楽曲データ照合装置は、操作者が任意の楽曲データを選択する楽曲データ選択部と、前記楽曲データ選択部により選択された楽曲データ全体から第1パラメータを生成する第1パラメータ生成部と、前記任意の楽曲データに応じて生成された楽曲解析データ、および任意の楽曲データ全体から生成された第2パラメータが保存されたサーバにおいて、前記第2パラメータと前記第1パラメータとを照合させ、合致した楽曲解析データを受信する楽曲解析データ受信部と、を備える。
 本発明の楽曲解析データ配信サーバは、前述した楽曲データ照合装置と通信可能に接続され、前記楽曲データ照合装置により、楽曲データ全体から生成され、送信された第1パラメータを受信する第1パラメータ受信部と、任意の楽曲データに応じて生成された楽曲解析データ、および任意の楽曲データ全体から生成された第2パラメータを記憶する楽曲解析データ記憶部と、前記第1パラメータ受信部により受信された第1パラメータと、前記楽曲解析データ記憶部に記憶された第2パラメータとを照合するパラメータ照合部と、前記パラメータ照合部により合致すると照合された第2パラメータに対応する楽曲解析データを、前記楽曲データ照合装置に送信する楽曲解析データ送信部と、を備える。
 本発明の楽曲データ照合プログラムは、コンピュータを、前述した楽曲データ照合装置として機能させる。
 本発明の楽曲解析データ配信プログラムは、コンピュータを、前述した楽曲解析データ配信サーバとして機能させる。
本発明の実施の形態に係る楽曲データ照合装置および楽曲解析データ配信サーバを示すブロック図。 前記実施の形態における作用を説明するためのフローチャート。
 以下、本発明の実施の一形態を図面に基づいて説明する。図1には、本実施の形態に係る楽曲解析データ配信システムが示されている。楽曲解析データ配信システムは、コンピュータ1、楽曲解析データ配信サーバとなるサーバ2、およびこれらを双方向通信可能に接続するネットワーク3を備える。
 楽曲データ照合装置としてのコンピュータ1は、演算処理装置およびハードディスク等の記憶装置を備えた汎用のコンピュータとして構成される。
 コンピュータ1は、演算処理装置上で実行され、記憶装置の所定の記憶領域として確保されるコンピュータ読取可能な楽曲データ照合プログラムとしての、楽曲データ記憶部11、楽曲データ解析部12、楽曲解析データ記憶部13、楽曲データ選択部14、第1パラメータ生成部15、第1パラメータ送信部16、楽曲解析データ受信部17、および楽曲解析データ送信部18を備える。
 楽曲データ記憶部11は、記憶装置の記憶領域の一部を確保して形成され、所定のファイル形式の楽曲データを複数記憶する。本実施の形態のコンピュータ1で取り扱うことのできるファイル形式としては、例えば、ビデオ形式(コンテナフォーマット)である拡張子がmpg、mp4、m4v、mov、avi、qtzのファイル、動画形式(動画コーデック)である拡張子がh.264、mpeg-4、mpeg-2のファイルが挙げられる。また、オーディオ形式(音声コーデック)では、非圧縮形式である拡張子がwav、aiffのファイル、可逆圧縮方式である拡張子がflac、alacのファイル、不可逆圧縮方式であるaac、mp3のファイルが挙げられる。
 楽曲データ解析部12は、楽曲データ記憶部11に記憶された任意の楽曲データを選択し、楽曲データのFFT(Fast Fourier Transform)等による解析を行い、楽曲データのBPM(Beat Per Minute)やKEYの検出、拍位置の検出、Aメロ、Bメロ、サビ等の特徴区間の検出を行う。検出された楽曲解析データは、楽曲解析データ記憶部13に記憶される。
 楽曲データ選択部14は、楽曲データ記憶部11に記憶された複数の楽曲データを表示し、操作者に楽曲データの選択を促す。
 第1パラメータ生成部15は、楽曲データ選択部14で選択された楽曲データ全体から第1パラメータを生成する。具体的には、第1パラメータ生成部15は、楽曲データの曲頭の32ビット分の0/1データから曲の最後までの32ビット分の0/1データを足し込んでいき、すべての楽曲データを足し込んだ後の下位32ビット分の0/1データであるチェックサムデータ(Check Sum Data)を第1パラメータとして生成する。なお、楽曲データのメタデータは足し込みの対象とはしない。
 また、第1パラメータ生成部15は、楽曲データのサンプリング周波数、ビットレート、データ長からその楽曲データの再生時間を取得して、第1パラメータとする。
 本実施の形態では、チェックサムデータを第1パラメータとして生成しているが、これに限らず、楽曲データ全体から第1パラメータを短時間で生成することができるのであれば、他の方法を用いることができ、たとえば、ハッシュ関数を用いて生成されるハッシュ値を第1パラメータとしてもよい。
 第1パラメータ送信部16は、第1パラメータ生成部15により生成されたチェックサムデータおよび楽曲データの再生時間を含む第1パラメータを、ネットワーク3を介してサーバ2に送信する。なお、ネットワーク3は、第1パラメータをアップロードすることができるのであれば、有線、無線を問わない。
 楽曲解析データ受信部17は、サーバ2から送信された楽曲解析データを受信する。受信された楽曲解析データは、楽曲解析データ記憶部13に記憶される。
 楽曲解析データ送信部18は、演奏者が楽曲データ解析部12により解析した楽曲解析データを、ネットワーク3を介してサーバ2に送信する。その際、第1パラメータ生成部15は、同時に解析した楽曲解析データに対応する第1パラメータを生成し、第1パラメータ送信部16から第1パラメータを送信する。
 サーバ2は、演算処理装置および記憶装置を備えたコンピュータとして構成される。なお、図1には、サーバ2は、ネットワーク3を介して1台のコンピュータ1としか接続されていないが、実際には、インターネットなどのように、複数のコンピュータ1と通信可能に接続されている。
 サーバ2は、演算処理装置上で実行され、記憶装置の所定の記憶領域として確保されるコンピュータ読取可能な楽曲解析データ配信プログラムとしての、楽曲解析データ記憶部21、第1パラメータ受信部22、パラメータ照合部23、楽曲解析データ送信部24、および楽曲解析データ受信部25を備える。
 楽曲解析データ記憶部21は、コンピュータの記憶装置内の記憶領域の一部として構成され、楽曲解析データ記憶部21には、任意の楽曲解析データが第2パラメータと関連付けて記憶される。
 第1パラメータ受信部22は、コンピュータ1から送信された第1パラメータを、ネットワーク3を介して受信する。
 パラメータ照合部23は、第1パラメータ受信部22により受信された第1パラメータと、楽曲解析データ記憶部21に記憶された第2パラメータとを照合する。パラメータ照合部23は、第1パラメータに合致した第2パラメータを照合したら、楽曲解析データ送信部24に合致した第2パラメータを出力する。
 楽曲解析データ送信部24は、パラメータ照合部23から出力された合致した第2パラメータに基づいて、楽曲解析データ記憶部21の第2パラメータに応じた楽曲解析データを呼び出して、コンピュータ1に送信する。
 楽曲解析データ受信部25は、コンピュータ1から送信された楽曲解析データを受信し、楽曲解析データ記憶部21に記憶する。この際、楽曲解析データ受信部25は、コンピュータ1から送信された第1パラメータを楽曲解析データと関連付け、第2パラメータおよび楽曲解析データとして、楽曲解析データ記憶部21に記憶する。
 次に、本実施の形態の作用を図2に示すフローチャートに基づいて説明する
 [楽曲解析データの蓄積]
 複数の演奏者は、楽曲データ解析部12により作成した楽曲解析データを選択する(手順S1)。
 第1パラメータ生成部15は、選択された楽曲解析データに対応する楽曲データから第1パラメータを生成する(手順S2)。
 楽曲解析データ送信部18は、選択された楽曲解析データを、ネットワーク3を介してサーバ2に送信する。同時に第1パラメータ送信部16は、第1パラメータ生成部15により生成された第1パラメータを、ネットワーク3を介してサーバ2に送信する(手順S3)。
 サーバ2の楽曲解析データ受信部25は、コンピュータ1から送信された楽曲解析データを受信する。同時に第1パラメータ受信部22は、コンピュータ1から送信された第1パラメータを受信する(手順S4)。
 楽曲解析データ受信部25は、受信した楽曲解析データを、第1パラメータ受信部22で受信した第1パラメータを第2パラメータとし、第2パラメータと楽曲解析データとを関連付けて楽曲解析データ記憶部21に記憶する(手順S5)。
 このような手順S1から手順S5までは、ネットワーク3に接続された複数のコンピュータ1から実施され、サーバ2の楽曲解析データ記憶部21には、多数の楽曲解析データが蓄積される。
 [データ照合による楽曲解析データの取得]
 DJ等の演奏者が、演奏する楽曲データの楽曲解析データが必要な場合、楽曲データ選択部14により楽曲データを選択する(手順S6)。
 第1パラメータ生成部15は、選択された楽曲データに基づいて、第1パラメータを生成する(手順S7)。
 第1パラメータ送信部16は、生成された第1パラメータをサーバ2に送信する(手順S8)。
 サーバ2の第1パラメータ受信部22は、第1パラメータを受信したら(手順S9)、受信した第1パラメータをパラメータ照合部23に出力する。
 パラメータ照合部23は、受信した第1パラメータと楽曲解析データ記憶部21に記憶された第2パラメータとを照合する(手順S10)。
 楽曲解析データ送信部24は、パラメータ照合部23の照合により、合致した第2パラメータと関連付けられた楽曲解析データを呼び出し、コンピュータ1に送信する(手順S11)。
 コンピュータ1の楽曲解析データ受信部17は、楽曲解析データを受信する(手順S12)。
 楽曲解析データ受信部17は、受信した楽曲解析データを、楽曲解析データ記憶部13に記憶する(手順S13)。
 このような本実施の形態によれば、以下のような効果がある。
 本実施の形態では、第1パラメータ生成部15が楽曲データの全体から第1パラメータを生成している。したがって、楽曲データ全体から生成される第1パラメータと、同様に楽曲データ全体から生成される第2パラメータを照合しているため、要求した楽曲解析データを高精度に取得することができる。よって、演奏者自らが楽曲解析を行って楽曲解析データ取得するよりも、短時間で負担も少なく楽曲解析データを取得することができる。
 第1パラメータとして、チェックサムデータを利用しているため、演算処理時間を短縮することができ、一層短時間で楽曲解析データを取得することができる。
 第1パラメータとして楽曲データの再生時間も利用しているため、チェックサムデータおよび再生時間で照合を行うことにより、より高精度な照合を行うことができ、要求する楽曲解析データを確実に取得することができる。
 なお、本発明は、前述した実施の形態に限定されるものではなく、以下に示すような変形をも含むものである。
 前述の実施の形態では、受信した楽曲解析データを楽曲解析データ記憶部13に記憶するように構成していたが、本発明はこれに限られない。たとえば、受信した楽曲解析データを一時的なメモリにテンポラリーに保存しておき、楽曲データの演奏が終了したら、廃棄してしまい、別途楽曲解析データを必要とする場合、都度サーバからダウンロードするようにしてもよい。
 前述の実施の形態では、専らサーバ2からコンピュータ1に楽曲解析データをダウンロードして利用していたが、本発明はこれに限られない。たとえば、ダウンロードした楽曲解析データを事前に拍位置等の修正を行い、修正したバージョンをサーバ2にアップロードしてもよい。
 前述した実施の形態では、楽曲データ照合装置としてコンピュータ1を用いていたが、本発明はこれに限られない。たとえば、サーバ2と双方向通信可能であれば、携帯情報端末であってもよく、さらには、DJコントローラ等の再生制御装置であってもよい。
 その他、本発明の実施の際の構成および手順等は、本発明の目的を達成できる範囲で他の構成等としてもよい。
 1…コンピュータ、2…サーバ、3…ネットワーク、11…楽曲データ記憶部、12…楽曲データ解析部、13…楽曲解析データ記憶部、14…楽曲データ選択部、15…第1パラメータ生成部、16…第1パラメータ送信部、17…楽曲解析データ受信部、18…楽曲解析データ送信部、21…楽曲解析データ記憶部、22…第1パラメータ受信部、23…パラメータ照合部、24…楽曲解析データ送信部、25…楽曲解析データ受信部。
 

Claims (6)

  1.  操作者が任意の楽曲データを選択する楽曲データ選択部と、
     前記楽曲データ選択部により選択された楽曲データ全体から第1パラメータを生成する第1パラメータ生成部と、
     前記第1パラメータ生成部により生成された第1パラメータを、通信可能に接続されたサーバに送信する第1パラメータ送信部と、
     前記任意の楽曲データに応じて生成された楽曲解析データ、および前記任意の楽曲データ全体から生成された第2パラメータが保存されたサーバにおいて、前記第2パラメータと、前記第1パラメータとを照合させ、合致した楽曲解析データを受信する楽曲解析データ受信部と、
    を備える楽曲データ照合装置。
  2.  請求項1に記載の楽曲データ照合装置において、
     前記第1パラメータおよび前記第2パラメータは、対応する楽曲データ全体のチェックサムデータ(Check Sum Data)を含む楽曲データ照合装置。
  3.  請求項2に記載の楽曲データ照合装置において、
     前記第1パラメータおよび前記第2パラメータは、対応する楽曲データの再生時間を含む楽曲データ照合装置。
  4.  請求項1から請求項3のいずれか一項に記載の楽曲データ照合装置と通信可能に接続され、
     前記楽曲データ照合装置により、楽曲データ全体から生成され、送信された第1パラメータを受信する第1パラメータ受信部と、
     任意の楽曲データに応じて生成された楽曲解析データ、および任意の楽曲データ全体から生成された第2パラメータを記憶する楽曲解析データ記憶部と、
     前記第1パラメータ受信部により受信された第1パラメータと、前記楽曲解析データ記憶部に記憶された第2パラメータとを照合するパラメータ照合部と、
     前記パラメータ照合部により合致すると照合された第2パラメータに対応する楽曲解析データを、前記楽曲データ照合装置に送信する楽曲解析データ送信部と、
    を備える楽曲解析データ配信サーバ。
  5.  コンピュータを、請求項1から請求項3のいずれか一項に記載の楽曲データ照合装置として機能させるコンピュータ読取可能な楽曲データ照合プログラム。
  6.  コンピュータを、請求項4に記載の楽曲解析データ配信サーバとして機能させるコンピュータ読取可能な楽曲解析データ配信プログラム。
     
PCT/JP2018/034402 2018-09-18 2018-09-18 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム WO2020059008A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18934405.4A EP3855427A4 (en) 2018-09-18 2018-09-18 MUSIC SONG DATA COMPARISON DEVICE, MUSIC SONG ANALYSIS DATA DISTRIBUTION SERVER, MUSIC SONG DATA COMPARISON PROGRAM AND MUSIC SONG ANALYSIS DATA DISTRIBUTION PROGRAM
PCT/JP2018/034402 WO2020059008A1 (ja) 2018-09-18 2018-09-18 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム
JP2020547490A JP7235765B2 (ja) 2018-09-18 2018-09-18 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム
US17/276,377 US20220076650A1 (en) 2018-09-18 2018-09-18 Musical piece data comparison device, musical piece analysis data distribution server, musical piece data comparison program, and musical piece analysis data distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/034402 WO2020059008A1 (ja) 2018-09-18 2018-09-18 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム

Publications (1)

Publication Number Publication Date
WO2020059008A1 true WO2020059008A1 (ja) 2020-03-26

Family

ID=69887048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/034402 WO2020059008A1 (ja) 2018-09-18 2018-09-18 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム

Country Status (4)

Country Link
US (1) US20220076650A1 (ja)
EP (1) EP3855427A4 (ja)
JP (1) JP7235765B2 (ja)
WO (1) WO2020059008A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134549A (ja) 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
JP2012034043A (ja) 2010-07-28 2012-02-16 Toshiba Corp メタ情報処理装置、サーバ、及びメタ情報処理方法
JP2014519660A (ja) 2011-06-10 2014-08-14 シャザム エンターテインメント リミテッド データストリームのコンテンツを識別する方法及びシステム
JP2017208098A (ja) * 2013-03-13 2017-11-24 ビートポート,リミティド ライアビリティ カンパニー Djステムシステム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8069177B2 (en) * 2005-02-18 2011-11-29 Pioneer Corporation Information selecting method, information selecting device and so on
JP5279842B2 (ja) * 2008-01-11 2013-09-04 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ストリーム化メディアセッションを確立するための方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134549A (ja) 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
JP2012034043A (ja) 2010-07-28 2012-02-16 Toshiba Corp メタ情報処理装置、サーバ、及びメタ情報処理方法
JP2014519660A (ja) 2011-06-10 2014-08-14 シャザム エンターテインメント リミテッド データストリームのコンテンツを識別する方法及びシステム
JP2017208098A (ja) * 2013-03-13 2017-11-24 ビートポート,リミティド ライアビリティ カンパニー Djステムシステム及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3855427A4

Also Published As

Publication number Publication date
EP3855427A4 (en) 2022-05-04
US20220076650A1 (en) 2022-03-10
JP7235765B2 (ja) 2023-03-08
EP3855427A1 (en) 2021-07-28
JPWO2020059008A1 (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
US7240207B2 (en) Fingerprinting media entities employing fingerprint algorithms and bit-to-bit comparisons
KR102043609B1 (ko) 다수의 미디어 처리 노드들을 갖는 적응적 처리
WO2017035471A1 (en) Looping audio-visual file generation based on audio and video analysis
US8892565B2 (en) Method and apparatus for accessing an audio file from a collection of audio files using tonal matching
WO2015017428A1 (en) Associating audio tracks with video content by matching audio content of the video with audio tracks
US9558272B2 (en) Method of and a system for matching audio tracks using chromaprints with a fast candidate selection routine
US8609969B2 (en) Automatically acquiring feature segments in a music file
WO2016189307A1 (en) Audio identification method
US20110231426A1 (en) Song transition metadata
US9881083B2 (en) Method of and a system for indexing audio tracks using chromaprints
KR101713988B1 (ko) 메타데이터를 추출하여 전송하는 콘텐츠 제공 방법 및 장치
JP5034599B2 (ja) 楽曲紹介文生成装置、ナレーション付加装置およびプログラム
WO2020059008A1 (ja) 楽曲データ照合装置、楽曲解析データ配信サーバ、楽曲データ照合プログラム、および楽曲解析データ配信プログラム
EP3575989B1 (en) Method and device for processing multimedia data
US20100138458A1 (en) Media data compilation method and system
KR101002732B1 (ko) 온라인을 통한 디지털 컨텐츠 관리 시스템
JP5552968B2 (ja) 楽曲検索装置および楽曲検索方法
KR101376478B1 (ko) 허밍 기반 음원 검색환경 구성방법과 이를 위한 음원 검색장치 및 음원 자동 재생을 위한 음원 검색시스템
US11740862B1 (en) Method and system for accelerated decomposing of audio data using intermediate data
EP4375984A1 (en) Method and system for accelerated decomposing of audio data using intermediate data
KR100967125B1 (ko) 네트워크 휴대용 장치에서의 특징 추출
WO2024079625A1 (en) A computer assisted method for classifying digital audio files
JP6115480B2 (ja) カラオケ装置、プログラム
KR20230091455A (ko) 사운드 이펙트 효과 설정 방법
Son et al. An Analysis Method for Degree of Similarity between the Music based on Signal Analysis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18934405

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020547490

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018934405

Country of ref document: EP

Effective date: 20210419