WO2019239538A1 - 音響装置およびプログラム - Google Patents

音響装置およびプログラム Download PDF

Info

Publication number
WO2019239538A1
WO2019239538A1 PCT/JP2018/022691 JP2018022691W WO2019239538A1 WO 2019239538 A1 WO2019239538 A1 WO 2019239538A1 JP 2018022691 W JP2018022691 W JP 2018022691W WO 2019239538 A1 WO2019239538 A1 WO 2019239538A1
Authority
WO
WIPO (PCT)
Prior art keywords
music data
unit
music
song data
data
Prior art date
Application number
PCT/JP2018/022691
Other languages
English (en)
French (fr)
Inventor
孝尚 大熊
Original Assignee
Pioneer DJ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer DJ株式会社 filed Critical Pioneer DJ株式会社
Priority to PCT/JP2018/022691 priority Critical patent/WO2019239538A1/ja
Publication of WO2019239538A1 publication Critical patent/WO2019239538A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Definitions

  • the present invention relates to an audio device and a program.
  • DJ performance it is important to select the music data to be played next to the music data currently being played.
  • a well-developed DJ performance can be realized by successfully connecting the music data being reproduced and the next music data.
  • the DJ performance has a preference according to the operator, and when the next playback determines the song data for the song data being played, the tempo, key, etc. of the songs to be connected are determined in addition to the artist, period, and preference. The next song is selected on the basis of.
  • Patent Document 1 in a karaoke song selection apparatus, for a song for which a performance reservation has been made, search for related song data from a database storing song data, and select a song.
  • Techniques to be presented on the device screen have been proposed. According to this technique, there is an effect that a music set related to a user's desired music can be presented.
  • Patent Document 1 merely searches for related music data and displays it on the screen for the music for which the performance reservation has been made. With respect to the data, there is a problem that the subsequent music data is searched from the music group owned by the DJ and the operator cannot freely select it.
  • An object of the present invention is to provide an audio device and a program that an operator can freely select as music data to be subsequently reproduced during a DJ performance.
  • the acoustic device includes a music data storage unit storing a plurality of music data, and a feature amount of the first music data stored in the music data storage unit during reproduction of the first music data. Based on the feature quantity detection unit to be detected and the feature quantity of the first song data detected by the feature quantity detection unit, from the song data stored in the song data storage unit, the first song data A music data search unit that searches for a plurality of music data having a characteristic amount related to the characteristic amount, a ranking display unit that rank-displays the plurality of music data searched by the music data search unit, and the ranking display unit Based on the displayed ranking, the music data selection unit that prompts the operator to select music data, and the music data selected by the music data selection unit are used as the first music. Comprising a subsequent reproducing music setting unit that sets a second music data to be reproduced subsequent chromatography data, the.
  • the computer-readable program of the present invention causes a computer to function as the above-described acoustic device.
  • FIG. 1 is a block diagram illustrating an audio device according to an embodiment of the present invention.
  • FIG. 1 shows a computer 1 as an acoustic device according to an embodiment of the present invention.
  • the computer 1 is a general-purpose computer and includes a storage device 2 such as a USB memory and a hard disk, an arithmetic processing device 3, a speaker 4, a display 5, and a keyboard 6.
  • the computer 1 may be a laptop type or a PDA (Personal Digital Assistant) capable of wireless communication.
  • PDA Personal Digital Assistant
  • the storage device 2 stores various software and data including a music analysis software storage unit 21, a ranking display software storage unit 22, and a music data storage unit 23.
  • the music analysis software storage unit 21 stores software as a computer-readable program that reproduces the music data stored in the music data storage unit 23 and analyzes the music data.
  • the music analysis software stored in the music analysis software storage unit 21 is loaded by the arithmetic processing device 3, and the music data reproduction unit 31, the music data output unit 32, and the music data analysis unit 33 are executed.
  • the ranking display software storage unit 22 stores software as a computer-readable program for performing ranking display of song data stored in the song data storage unit 23.
  • the ranking display software stored in the ranking display software storage unit 22 is loaded by the arithmetic processing device 3, and the music analysis information detection unit 34, the metadata detection unit 35, the music data search unit 36, the weight setting unit 37, and the ranking display unit. 38, the music data selection unit 39, and the subsequent playback music setting unit 40 are executed.
  • the music data storage unit 23 stores a plurality of music data compressed in a predetermined format such as MPEG format.
  • the music data storage unit 23 may be a hard disk or an external connection memory such as a USB. Further, as long as the computer 1 can perform two-way communication by wire or wireless, it may be a cloud disk that can call music data via the Internet.
  • the music data playback unit 31 decompresses the music data stored in the music data storage unit 23 into a format that can be processed in the arithmetic processing unit 3, for example, by decompressing music data in a compressed MPEG format or the like.
  • the music data output unit 32 converts the reproduced music data into an audio signal and outputs the audio from the speaker 4.
  • the music data analysis unit 33 performs analysis processing of the music data being played back, and music such as BPM (Beats Per Minute) of the music data being played, beat position, bar position of the music data, key information, A melody, rust, etc.
  • the analysis result of the characteristic section etc. which characterizes is acquired.
  • the analysis process is performed by acquiring the number of peaks of sounds having different frequencies using FFT (Fast Fourier Transform).
  • FFT Fast Fourier Transform
  • the result of the analysis processing is output to the display 5, and the waveform data is displayed on the display 5 as the music data is played back, the beat position is displayed superimposed on the waveform data, and numerical values are displayed.
  • BPM is displayed as information.
  • the music analysis information detection unit 34 detects the analysis information of the music data analyzed by the music data analysis unit 33. Specifically, the music analysis information detection unit 34 characterizes music such as the BPM (Beats Per Minute) of the music data being played, the beat position of the music data, the rhythm, key information, A melody, rust, and the like. Etc. are detected.
  • BPM Beats Per Minute
  • the metadata detection unit 35 detects metadata attached to the music data being reproduced. Specifically, the metadata detection unit 35 detects information such as the label of the production company, the artist name, the song genre, and the issue date of the song data from the metadata acquired by the song data analysis unit 33. Although not shown in FIG. 1, the metadata detection unit 35 also detects current time information from an internal clock, current position information from a GPS receiver, and the like.
  • the music analysis information detection unit 34 and the metadata detection unit 35 function as a feature amount detection unit according to the present invention as a whole.
  • the music data search unit 36 stores the first music data and the first music data from the plurality of music data in the music data storage unit 23 based on the feature amount of the music data detected by the music analysis information detection unit 34 and the metadata detection unit 35. A plurality of pieces of music data having a characteristic amount related to the characteristic amount of the music data being reproduced are searched.
  • the search is performed based on the weight set by the weight setting unit 37 to be described later. For example, the search is performed by increasing the weight on key information, BPM, genre, and the like.
  • the music data search unit 36 searches for music data with a close BPM, music data with a close rhythm, music data with a close key, and the like based on the music analysis information of the music data being played back.
  • the music data search unit 36 searches for music data of the same label, music data of the same artist, music data of the same genre, etc. based on the metadata of the music data being reproduced. Further, the music data search unit 36 searches for music data based on the current position information measured by the GPS detected by the metadata detection unit 35 and the current time information measured by the internal clock. For example, when it is detected that the current position is India, Europe, US, etc., the music data search unit 36 searches for music data according to the music trend of each country. In addition, when the current time is from evening to night, the music data searching unit 36 searches for music data in accordance with the time zone.
  • the weight setting unit 37 sets weights for various feature amounts detected by the feature amount detection unit described above. Specifically, the weighting setting unit 37 performs weighting based on the time information of the feature amount, the geographical condition, and the viewer's preference condition in addition to the music data analysis information and metadata. For example, when giving priority to the genre and tempo of the music data, the weight setting unit 37 weights the genre and tempo of the music data being played back, and weights other feature values such as BPM and key information. Lower. By setting the weighting by the weighting setting unit 37, it is possible to perform a search based on various conditions such as a search mainly based on a genre such as an animation song or a search mainly based on an artist name and a publication date of music data. .
  • the ranking display unit 38 creates an order for the music data searched by the music data search unit 36 based on the weighting set by the weighting setting unit 37 and displays it on the display 5 in a list format.
  • the music data selection unit 39 is a part that prompts the operator to select music data to be reproduced as the subsequent music from the ranking display of the music data displayed by the ranking display unit 38. Specifically, the operator is prompted to operate the keyboard 6 of the computer 1, and the operator is made to select music data to be reproduced as a subsequent music.
  • the subsequent playback music setting unit 40 sets the music data selected by the music data selection unit 39 as second music data to be played back subsequently.
  • the second music data set by the subsequent reproduction music setting unit 40 is called from the music data storage unit 23 to the music data reproduction unit 31 and prepared as the next music reproduction music.
  • the arithmetic processing unit 3 of the computer 1 loads the ranking display software stored in the storage device 2 and activates the ranking display software (step S1).
  • the music data reproduction unit 31 calls the music data to be reproduced as the first music data from the music data storage unit 23 and starts reproduction (step S2).
  • the music data analysis unit 33 analyzes the music data being reproduced, and obtains analysis results such as BPM, beat position of the music data, key information, and metadata attached to the music data (step S3).
  • the music analysis information detection unit 34 detects the analysis information analyzed by the music data analysis unit 33 (step S4).
  • the metadata detection unit 35 detects the metadata acquired by the music data analysis unit 33 (step S5).
  • the weighting setting unit 37 sets weighting in the search for the feature amount including the analysis information and metadata detected by the music analysis information detection unit 34 and the metadata detection unit 35 (step S6).
  • the music data search unit 36 weights the detected feature amount, weights the plurality of music data stored in the music data storage unit 23, and searches for music data having a highly relevant feature amount. (Procedure S7).
  • the ranking display unit 38 displays the ranking of the music data searched by the music data searching unit 36 on the display 5 (step S8).
  • the music data selection unit 39 prompts the user to select subsequent music data to be set as the second music data from the plurality of music data displayed in the ranking (step S9).
  • the subsequent music composition setting unit 40 sets the selected music data as second music data (step S10), and the second music to be reproduced by the music data reproduction unit 31. Prepare as data.
  • the ranking of music data is displayed on the display 5 of the computer 1 to prompt the operator to select music data. Accordingly, in the DJ performance, since the operator can select the second music data having the feature value related to the feature value of the first music data currently being reproduced, the DJ performance can be selected according to the atmosphere and preference of the DJ performance. Can be set as second music data to be reproduced subsequently.
  • ranking display is performed in consideration of not only metadata attached to music data but also music analysis information. Therefore, since the subsequent playback music can be selected in consideration of BPM, key information, and the like, it is possible to connect the playback music without a sense of incongruity without losing the tempo, key, etc. in the DJ performance.
  • current position information by GPS, current time information by an internal clock, and the like are also taken into account as feature quantities. Therefore, music data suitable for the atmosphere can be brought up in the ranking according to the place and time zone where the DJ performance is performed.
  • the weighting setting unit 37 sets weighting for the search by the music data searching unit 36. Therefore, since the operator can search for music data according to his / her preference, DJ performance according to the operator's preference can be easily realized.
  • the weight setting unit 37 is configured to set the weight by the operation of the operator, but the present invention is not limited to this. For example, a response from a PDA held by a viewer who participates in the DJ performance may be acquired, and the result may be weighted to display the ranking.
  • the music data is ranked and displayed, but the present invention is not limited to this. Metadata describing the content of the music data may be attached and displayed, or explanation of moving image data and VR content data may be attached and displayed on the display 5.
  • the specific structure and shape in carrying out the present invention may be other structures or the like as long as the object of the present invention can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

音響装置(1)は、複数の楽曲データが記憶された楽曲データ記憶部(23)と、楽曲データ記憶部(23)に記憶された第1の楽曲データの特徴量を、第1の楽曲データの再生中に検出する特徴量検出部(34、35)と、特徴量検出部(34、35)により検出された第1の楽曲データの特徴量に基づいて、楽曲データ記憶部(23)に記憶された楽曲データから、第1の楽曲データの特徴量と関連する特徴量を有する複数の楽曲データを探索する楽曲データ探索部(36)と、探索された複数の楽曲データを、ランキング表示するランキング表示部(38)と、表示されたランキングに基づいて、操作者に楽曲データの選択を促す楽曲データ選択部(39)と、選択された楽曲データを、第1の楽曲データの後続に再生する第2の楽曲データとして設定する後続再生曲設定部(40)と、を備える。

Description

音響装置およびプログラム
 本発明は、音響装置およびプログラムに関する。
 DJパフォーマンスでは、現在再生中の楽曲データの次に再生する楽曲データを選択することは重要である。再生中の楽曲データと次の楽曲データとをうまく繋ぐことにより、ノリのよいDJパフォーマンスを実現することができる。また、DJパフォーマンスは、操作者に応じて好みがあり、再生中の楽曲データに対して次の再生が曲データを決める際も、アーティスト、時代、嗜好の他、繋ぐ楽曲同士のテンポ、キー等に基づいて、次曲が選択される。
 ところで、このような次曲選択の方法については、特許文献1には、カラオケ選曲装置において、演奏予約を行った楽曲に対して、楽曲データを記憶したデータベースから関連する楽曲データを探索し、選曲装置の画面上に提示する技術が提案されている。この技術によれば、利用者の希望曲に関連した楽曲集合を提示することができるという効果がある。
特開2008-139439号公報
 しかしながら、前記特許文献1に記載の技術は、演奏予約を行った楽曲に対して、関連する楽曲データを探索して画面上に表示しているに過ぎず、DJパフォーマンスのように再生中の楽曲データに対して、DJが所有する楽曲群の中から後続の楽曲データを探索し、操作者が自由に選択することはできないという課題がある。
 本発明の目的は、DJパフォーマンス中に操作者が後続に再生する楽曲データとして自由に選択することのできる音響装置およびプログラムを提供することにある。
 本発明の音響装置は、複数の楽曲データが記憶された楽曲データ記憶部と、前記楽曲データ記憶部に記憶された第1の楽曲データの特徴量を、前記第1の楽曲データの再生中に検出する特徴量検出部と、前記特徴量検出部により検出された前記第1の楽曲データの特徴量に基づいて、前記楽曲データ記憶部に記憶された楽曲データから、前記第1の楽曲データの特徴量と関連する特徴量を有する複数の楽曲データを探索する楽曲データ探索部と、前記楽曲データ探索部により探索された複数の楽曲データを、ランキング表示するランキング表示部と、前記ランキング表示部により表示されたランキングに基づいて、操作者に楽曲データの選択を促す楽曲データ選択部と、前記楽曲データ選択部により選択された楽曲データを、前記第1の楽曲データの後続に再生する第2の楽曲データとして設定する後続再生曲設定部と、を備える。
 本発明のコンピュータ読み取り可能なプログラムは、コンピュータを、前述した音響装置として機能させる。
本発明の実施の一形態に係る音響装置を示すブロック図。 前記実施の形態の作用を説明するためのフローチャート。
 以下、本発明の実施の一形態を図面に基づいて説明する。図1には、本発明の実施の形態に係る音響装置としてのコンピュータ1が示されている。
 コンピュータ1は、汎用のコンピュータであり、USBメモリ、ハードディスク等の記憶装置2、演算処理装置3、スピーカー4、ディスプレイ5、およびキーボード6を備える。なお、コンピュータ1は、ラップトップ型のものでもよく、無線通信可能なPDA(Personal Digital Assistant)であってもよい。
 記憶装置2には、楽曲解析ソフトウェア記憶部21、ランキング表示ソフトウェア記憶部22、楽曲データ記憶部23を含む種々のソフトウェア、データが記憶されている。
 楽曲解析ソフトウェア記憶部21には、楽曲データ記憶部23に記憶された楽曲データを再生するとともに、楽曲データの解析を行うコンピュータ読み取り可能なプログラムとしてのソフトウェアが記憶されている。
 楽曲解析ソフトウェア記憶部21に記憶された楽曲解析ソフトウェアは、演算処理装置3によりロードされ、楽曲データ再生部31、楽曲データ出力部32、楽曲データ解析部33が実行される。
 ランキング表示ソフトウェア記憶部22には、楽曲データ記憶部23に記憶された楽曲データのランキング表示を行うコンピュータ読み取り可能なプログラムとしてのソフトウェアが記憶されている。
 ランキング表示ソフトウェア記憶部22に記憶されたランキング表示ソフトウェアは、演算処理装置3によりロードされ、楽曲解析情報検出部34、メタデータ検出部35、楽曲データ探索部36、重み付け設定部37、ランキング表示部38、楽曲データ選択部39、および後続再生曲設定部40が実行される。
 楽曲データ記憶部23には、MPEG形式等の所定の形式で圧縮された複数の楽曲データが記憶されている。なお、楽曲データ記憶部23は、ハードディスクであってもよいが、USB等の外部接続メモリであってもよい。また、コンピュータ1が、有線または無線により双方向通信可能であれば、インターネットを経由して楽曲データを呼び出せるクラウドディスクのようなものであってもよい。
 楽曲データ再生部31は、楽曲データ記憶部23に記憶された楽曲データを、たとえば、圧縮されたMPEG形式等の楽曲データを解凍し、演算処理装置3内で処理できる形式に変換する。
 楽曲データ出力部32は、再生された楽曲データを音声信号に変換し、スピーカー4から音声出力する。
 楽曲データ解析部33は、再生中の楽曲データの解析処理を行い、再生中の楽曲データのBPM(Beats Per Minute)、楽曲データの拍位置、小節位置、キー情報、Aメロ、サビ等の楽曲を特徴付ける特徴区間等の解析結果を取得する。解析処理は、FFT(Fast Fourier Transform)を用いて、周波数の異なる音のピーク本数を取得することにより行われる。
 解析処理の結果は、ディスプレイ5に出力され、ディスプレイ5には、楽曲データの再生の進行とともに、ディスプレイ5上に波形データが表示されたり、波形データに重畳して拍位置が表示されたり、数値情報としてBPMが表示される。
 楽曲解析情報検出部34は、楽曲データ解析部33により解析された楽曲データの解析情報を検出する。具体的には、楽曲解析情報検出部34は、前述した再生中の楽曲データのBPM(Beats Per Minute)、楽曲データの拍位置、リズム、キー情報、Aメロ、サビ等の楽曲を特徴付ける特徴区間等を検出する。
 メタデータ検出部35は、再生中の楽曲データに付帯されたメタデータを検出する。具体的には、メタデータ検出部35は、楽曲データ解析部33で取得されたメタデータの中から、製作会社のレーベル、アーティスト名、楽曲ジャンル、楽曲データの発行年等の情報を検出する。また、メタデータ検出部35は、図1では図示を略したが、内部時計から現在時刻情報、GPS受信機から現在位置情報等も検出する。
 楽曲解析情報検出部34およびメタデータ検出部35は、全体で本発明にいう特徴量検出部として機能する。
 楽曲データ探索部36は、楽曲解析情報検出部34およびメタデータ検出部35により検出された楽曲データの特徴量に基づいて、楽曲データ記憶部23に複数の楽曲データから、第1の楽曲データとなる再生中の楽曲データの特徴量と関連する特徴量を有する複数の楽曲データを探索する。探索は、後述する重み付け設定部37により設定された重み付けに基づいて行われ、たとえば、キー情報、BPM、ジャンル等に重み付けを多くして探索が行われる。
 具体的には、楽曲データ探索部36は、再生中の楽曲データの楽曲解析情報に基づいて、BPMの近い楽曲データ、リズムの近い楽曲データ、キーの近い楽曲データ等を探索する。
 また、楽曲データ探索部36は、再生中の楽曲データのメタデータに基づいて、同じレーベルの楽曲データ、同じアーティストの楽曲データ、同じジャンルの楽曲データ等を探索する。
 さらに、楽曲データ探索部36は、メタデータ検出部35により検出されたGPSにより計測された現在位置情報、内部時計により計測された現在時間情報に基づいて、楽曲データの探索を行う。たとえば、楽曲データ探索部36は、現在位置がインド、ヨーロッパ、US等であると検出された場合、各国のミュージックトレンドに応じて楽曲データの探索を行う。また、楽曲データ探索部36は、現在時間が夕方から夜である場合、その時間帯に合わせた楽曲データの探索を行う。
 重み付け設定部37は、前述した特徴量検出部により検出された様々な特徴量に重み付けを設定する。具体的には、重み付け設定部37は、楽曲データの解析情報、メタデータの他、特徴量の時間的条件、地理的条件、および視聴者の嗜好条件に基づいて、重み付けを行う。たとえば、楽曲データのジャンルおよびテンポを優先する場合、重み付け設定部37は、再生中の楽曲データのジャンルおよびテンポに重み付けを付け、BPM、キー情報等の他の特徴量については、これよりも重み付けを低くする。
 重み付け設定部37により重み付けを設定することで、アニメーションソング等のジャンルを主体とした探索や、アーティスト名、楽曲データの発行年等を主体とした探索など、さまざまな条件による探索を行うことができる。
 ランキング表示部38は、楽曲データ探索部36により探索された楽曲データを、重み付け設定部37により設定された重み付けに基づいて、序列を作り、リスト形式でディスプレイ5に表示する。
 楽曲データ選択部39は、ランキング表示部38により表示された楽曲データのランキング表示の中から、操作者が後続の楽曲として再生する楽曲データの選択を促す部分である。具体的には、コンピュータ1のキーボード6の操作を操作者に促し、操作者に後続の楽曲として再生する楽曲データを選択させる。
 後続再生曲設定部40は、楽曲データ選択部39により選択された楽曲データを、後続に再生する第2の楽曲データとして設定する。後続再生曲設定部40により設定された第2の楽曲データは、楽曲データ記憶部23から楽曲データ再生部31に呼び出され、次曲再生楽曲として準備される。
 次に、本発明の作用を図2に示すフローチャートに基づいて説明する。
 コンピュータ1の演算処理装置3は、記憶装置2に記憶されたランキング表示ソフトウェアをロードし、ランキング表示ソフトウェアを起動する(手順S1)。
 楽曲データ再生部31は、楽曲データ記憶部23から第1の楽曲データとなる再生する楽曲データを呼び出し、再生を開始する(手順S2)。
 楽曲データ解析部33は、再生中の楽曲データを解析し、BPM、楽曲データの拍位置、キー情報等の解析結果、楽曲データに付帯するメタデータを取得する(手順S3)。
 楽曲解析情報検出部34は、楽曲データ解析部33により解析された解析情報を検出する(手順S4)。
 メタデータ検出部35は、楽曲データ解析部33により取得されたメタデータを検出する(手順S5)。
 重み付け設定部37は、楽曲解析情報検出部34およびメタデータ検出部35により検出された解析情報およびメタデータを含む特徴量の探索における重み付けを設定する(手順S6)。
 楽曲データ探索部36は、検出された特徴量に重み付けを付け、楽曲データ記憶部23に記憶された複数の楽曲データの中から重み付けをつけて、関連性の高い特徴量を有する楽曲データを探索する(手順S7)。
 ランキング表示部38は、楽曲データ探索部36により探索された楽曲データをディスプレイ5上にランキング表示する(手順S8)。
 楽曲データ選択部39は、ランキング表示された複数の楽曲データの中から、第2の楽曲データとして設定する後続楽曲データの選択を促す(手順S9)。
 操作者が後続楽曲データの選択を行ったら、後続再生曲設定部40は選択された楽曲データを第2の楽曲データとして設定し(手順S10)、楽曲データ再生部31による再生する第2の楽曲データとして準備する。
 このような本実施の形態によれば、以下の効果がある。
 本実施の形態では、コンピュータ1のディスプレイ5上に楽曲データのランキングを表示して、操作者に楽曲データの選択を促している。これにより、DJパフォーマンスにおいて、操作者が現在再生中の第1の楽曲データの特徴量と関連する特徴量を有する第2の楽曲データを選択できるので、操作者のDJパフォーマンスの雰囲気、嗜好に応じた楽曲データを、後続に再生される第2の楽曲データとして設定できる。
 本実施の形態では、楽曲データに付帯するメタデータのみならず、楽曲解析情報を加味してランキング表示を行っている。したがって、BPM、キー情報等を考慮しながら、後続再生曲を選択することができるため、DJパフォーマンスにおいて、テンポ、キー等を崩さず、違和感のない再生曲のつなぎを行うことができる。
 本実施の形態では、GPSによる現在位置情報、内部時計による現在時間情報等も特徴量として加味している。したがって、DJパフォーマンスが行われる場所、時間帯に応じて雰囲気に適した楽曲データをランキングの上位に持ってくることができる。
 本実施の形態では、重み付け設定部37により楽曲データ探索部36による探索に重み付けを設定している。したがって、操作者は、自分の嗜好に応じた楽曲データの探索を行うことができるため、操作者の嗜好に応じたDJパフォーマンスを容易に実現できる。
 なお、本発明は、前述した実施の形態に限定されるものではなく、以下に示す変形をも含むものである。
 前述の実施の形態では、重み付け設定部37は、操作者の操作により重み付けを設定するように構成されていたが、本発明はこれに限られない。たとえば、DJパフォーマンスに参加する視聴者が保有するPDAからの反応を取得して、その結果を加味して重み付けを行って、ランキング表示するようにしてもよい。
 前記実施の形態では、楽曲データをランキング表示していたが、本発明はこれに限られない。楽曲データの内容を説明するメタデータを付帯して表示してもよく、動画像データ、VRコンテンツデータの説明を付帯して、ディスプレイ5上に表示してもよい。
 その他、本発明の実施の際の具体的な構造および形状は、本発明の目的を達成できる範囲で他の構造等としてもよい。
 1…コンピュータ、2…記憶装置、3…演算処理装置、4…スピーカー、5…ディスプレイ、6…キーボード、21…楽曲解析ソフトウェア記憶部、22…ランキング表示ソフトウェア記憶部、23…楽曲データ記憶部、31…楽曲データ再生部、32…楽曲データ出力部、33…楽曲データ解析部、34…楽曲解析情報検出部、35…メタデータ検出部、36…楽曲データ探索部、37…重み付け設定部、38…ランキング表示部、39…楽曲データ選択部、40…後続再生曲設定部。
 

Claims (4)

  1.  複数の楽曲データが記憶された楽曲データ記憶部と、
     前記楽曲データ記憶部に記憶された第1の楽曲データの特徴量を、前記第1の楽曲データの再生中に検出する特徴量検出部と、
     前記特徴量検出部により検出された前記第1の楽曲データの特徴量に基づいて、前記楽曲データ記憶部に記憶された複数の楽曲データから、前記第1の楽曲データの特徴量と関連する特徴量を有する複数の楽曲データを探索する楽曲データ探索部と、
     前記楽曲データ探索部により探索された複数の楽曲データを、ランキング表示するランキング表示部と、
     前記ランキング表示部により表示されたランキングに基づいて、操作者に楽曲データの選択を促す楽曲データ選択部と、
     前記楽曲データ選択部により選択された楽曲データを、前記第1の楽曲データの後続に再生する第2の楽曲データとして設定する後続再生曲設定部と、
    を備える音響装置。
  2.  請求項1に記載の音響装置において、
     前記特徴量検出部は、
     前記第1の楽曲データの楽曲解析情報を検出する楽曲解析情報検出部と、
     前記第1の楽曲データのメタデータを検出するメタデータ検出部と、を備え、
     前記楽曲解析情報検出部により検出された前記第1の楽曲データの楽曲解析情報、および前記メタデータ検出部により検出された前記第1の楽曲データのメタデータ、およびこれら少なくともいずれかに基づいて、前記楽曲データ探索部による探索に重み付けを設定する重み付け設定部を備える音響装置。
  3.  請求項2に記載の音響装置において、
     前記重み付け設定部は、前記第1の楽曲データが再生される時間的条件、地理的条件、および視聴者の嗜好条件の少なくともいずれかの条件に基づいて、重み付けを設定する音響装置。
  4.  コンピュータを、請求項1から請求項3のいずれか一項に記載の音響装置として機能させるコンピュータ読み取り可能なプログラム。
     
PCT/JP2018/022691 2018-06-14 2018-06-14 音響装置およびプログラム WO2019239538A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/022691 WO2019239538A1 (ja) 2018-06-14 2018-06-14 音響装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/022691 WO2019239538A1 (ja) 2018-06-14 2018-06-14 音響装置およびプログラム

Publications (1)

Publication Number Publication Date
WO2019239538A1 true WO2019239538A1 (ja) 2019-12-19

Family

ID=68842058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022691 WO2019239538A1 (ja) 2018-06-14 2018-06-14 音響装置およびプログラム

Country Status (1)

Country Link
WO (1) WO2019239538A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049761A1 (ja) 2020-09-07 2022-03-10 AlphaTheta株式会社 音声信号処理装置、音声信号処理方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114107A (ja) * 2000-10-10 2002-04-16 Nissan Motor Co Ltd オーディオ装置及び音楽提供方法
JP2005175779A (ja) * 2003-12-10 2005-06-30 Sony Corp プログラム、情報処理方法、および情報処理装置
JP2007249740A (ja) * 2006-03-17 2007-09-27 Kenwood Corp コンテンツ選択装置及びプログラム
JP2008268507A (ja) * 2007-04-19 2008-11-06 Taito Corp 楽曲情報付与サーバ、端末、及び楽曲情報付与システム
WO2013144993A1 (ja) * 2012-03-26 2013-10-03 パイオニア株式会社 表示方法、選曲方法、表示装置、音響装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002114107A (ja) * 2000-10-10 2002-04-16 Nissan Motor Co Ltd オーディオ装置及び音楽提供方法
JP2005175779A (ja) * 2003-12-10 2005-06-30 Sony Corp プログラム、情報処理方法、および情報処理装置
JP2007249740A (ja) * 2006-03-17 2007-09-27 Kenwood Corp コンテンツ選択装置及びプログラム
JP2008268507A (ja) * 2007-04-19 2008-11-06 Taito Corp 楽曲情報付与サーバ、端末、及び楽曲情報付与システム
WO2013144993A1 (ja) * 2012-03-26 2013-10-03 パイオニア株式会社 表示方法、選曲方法、表示装置、音響装置およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049761A1 (ja) 2020-09-07 2022-03-10 AlphaTheta株式会社 音声信号処理装置、音声信号処理方法およびプログラム

Similar Documents

Publication Publication Date Title
US20200401619A1 (en) Transitions between media content items
US7613736B2 (en) Sharing music essence in a recommendation system
US20060224260A1 (en) Scan shuffle for building playlists
US20160267177A1 (en) Music steering with automatically detected musical attributes
JP4695853B2 (ja) 音楽検索装置
US20080022846A1 (en) Method of and system for browsing of music
JP5594532B2 (ja) 情報処理装置および方法、情報処理システム、並びに、プログラム
JP3797547B2 (ja) プレイリスト生成装置、オーディオ情報提供装置、オーディオ情報提供システムおよびその方法、プログラム、記録媒体
CN1937462A (zh) 内容偏好得分确定方法、内容重放装置及内容重放方法
US20160070702A1 (en) Method and system to enable user related content preferences intelligently on a headphone
JP2011043710A (ja) 音声処理装置、音声処理方法及びプログラム
US20100287071A1 (en) Computer based media access method and system
CN110010159B (zh) 声音相似度确定方法及装置
JPWO2006137271A1 (ja) 楽曲検索装置、楽曲検索方法および楽曲検索プログラム
JP5344756B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019239538A1 (ja) 音響装置およびプログラム
JP6288197B2 (ja) 評価装置及びプログラム
CN106775567B (zh) 一种音效匹配方法及系统
JP6102076B2 (ja) 評価装置
KR101713242B1 (ko) 악보 기반 검색 서비스 제공 장치 및 이를 이용한 방법
JP5585144B2 (ja) カラオケ装置およびプログラム
KR20140129443A (ko) 적응형 음원 추천 시스템 및 방법
JP6630628B2 (ja) カラオケシステム、推奨楽曲提示プログラム
JP2008299631A (ja) コンテンツ検索装置、コンテンツ検索方法およびコンテンツ検索プログラム
JP5552968B2 (ja) 楽曲検索装置および楽曲検索方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18922523

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18922523

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP