WO2022249402A1 - 音響機器、楽曲の再生方法およびプログラム - Google Patents

音響機器、楽曲の再生方法およびプログラム Download PDF

Info

Publication number
WO2022249402A1
WO2022249402A1 PCT/JP2021/020239 JP2021020239W WO2022249402A1 WO 2022249402 A1 WO2022249402 A1 WO 2022249402A1 JP 2021020239 W JP2021020239 W JP 2021020239W WO 2022249402 A1 WO2022249402 A1 WO 2022249402A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
music
reproduction
section
sounds
Prior art date
Application number
PCT/JP2021/020239
Other languages
English (en)
French (fr)
Inventor
達也 中越
久 粉川
Original Assignee
AlphaTheta株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AlphaTheta株式会社 filed Critical AlphaTheta株式会社
Priority to PCT/JP2021/020239 priority Critical patent/WO2022249402A1/ja
Priority to JP2023523868A priority patent/JPWO2022249402A1/ja
Publication of WO2022249402A1 publication Critical patent/WO2022249402A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing

Definitions

  • the present invention relates to audio equipment, music reproduction methods, and programs.
  • a technology is known that divides a song into multiple parts vocally and uses the separated audio data of each part to provide a service.
  • predetermined part data out of a plurality of part data separated by music separation means is arranged to create arranged part data, and predetermined part data is created from the arranged part data and the plurality of part data.
  • a technique for transmitting original song part data excepted is described.
  • a sound device that reproduces music including first and second parts that are separable vocally comprising: a first reproduction processing unit that reproduces the first part; and at least part of the music. a second reproduction processing unit that reproduces at least one sound that constitutes the second part at a position different from the planned reproduction position in parallel with the reproduction of the first part in the section of .
  • the second reproduction processing unit reproduces the second part in a first temporal pattern in the first segment of the music, and reproduces the second part in the second segment of the music. at a position different from the expected reproduction position based on the first temporal pattern.
  • the second reproduction processing unit reproduces the at least one sound with a second temporal pattern different from the first temporal pattern in the second interval.
  • Acoustic equipment as described.
  • the second reproduction processing unit reproduces the at least one piece of music in the first temporal pattern in a third section of the song between the first section and the second section.
  • the audio equipment according to [4] which cross-fades one sound and the at least one sound reproduced in the second temporal pattern.
  • a progress ratio setting unit for setting the progress ratio of the crossfade according to the operation amount of the operator, wherein the length of the third section is dynamically set according to the time change of the progress ratio.
  • the audio equipment according to [5] which is determined.
  • the at least one sound includes first and second sounds, and in the third interval, the first sound starts to crossfade at the first point in time, and from the first point in time
  • the audio device according to [5] or [6], wherein the crossfading of the second sound is started at a later second time point.
  • the at least one sound includes a first sound and a second sound, and in the third section, the crossfade of the first sound ends at the third time point, and from the third time point
  • the audio equipment according to any one of [5] to [7], wherein the crossfading of the second sound ends at a later fourth time point.
  • the acoustic device according to [7] or [8], further comprising a selection unit that individually selects the first sound and the second sound from the sounds that constitute the second part.
  • a selection unit that individually selects the first sound and the second sound from the sounds that constitute the second part.
  • the audio equipment according to item 1.
  • a method of reproducing a piece of music including vocally separable first and second parts comprising: a first reproduction step of reproducing the first part; and a second reproducing step of reproducing at least one sound constituting the second part at a position different from the planned reproduction position in parallel with the reproduction of the first part.
  • a sound device for reproducing a piece of music including first and second parts that are separable vocally comprising: a first reproduction processing unit for reproducing the first part; and at least part of the piece of music.
  • a second reproduction processing unit that reproduces at least one sound that constitutes the second part at a position different from the planned reproduction position in parallel with the reproduction of the first part in the section of A program that allows a computer to function as a
  • At least part of the second part of the music is played at a position different from the planned reproduction position in at least a part of the section of the music. is played.
  • FIG. 1 is a diagram showing the overall configuration of an acoustic device according to one embodiment of the present invention
  • FIG. 2 is a block diagram showing a configuration of functions included in the audio equipment shown in FIG. 1
  • FIG. FIG. 4 is a diagram for explaining separation of music and extraction of unit sounds in one embodiment of the present invention
  • FIG. 10 is a diagram for explaining an example of temporal patterns in parts of music
  • FIG. 4 is a diagram showing a first example of changing the playback positions of sounds that form parts of a song in one embodiment of the present invention.
  • FIG. 10 is a diagram showing a second example of changing the playback positions of sounds that form parts of music in one embodiment of the present invention.
  • FIG. 10 is a diagram showing a third example of changing the playback positions of sounds that form parts of a song in one embodiment of the present invention.
  • FIG. 1 is a diagram showing the overall configuration of an acoustic device according to one embodiment of the present invention.
  • the audio equipment according to this embodiment is the DJ controller 100 .
  • the DJ controller 100 reproduces music using audio data obtained from the outside.
  • the user uses operation elements such as channel faders 101A and 101B, cross fader 102, effect control knob 103, effect activation button 104, performance pads 105A and 105B, and jog dials 106A and 106B arranged on the DJ controller 100.
  • the DJ controller 100 is configured in the same manner as a normal DJ controller for parts other than the functions described below, detailed description of these parts will be omitted.
  • FIG. 2 is a block diagram showing the configuration of functions included in the audio equipment shown in FIG.
  • the DJ controller 100 includes input interfaces 110A and 110B, music separation units 120A and 120B, unit sound extraction units 130A and 130B, first reproduction processing units 141A and 141B, and a second reproduction unit. It includes processing units 142A and 142B, a selection unit 150, a progress ratio setting unit 160, and an output interface 170. These units are implemented by, for example, an interface device for audio signals and a CPU (Central Processing Unit) or DSP (Digital Signal Processor) that operates according to a program stored in memory.
  • CPU Central Processing Unit
  • DSP Digital Signal Processor
  • Input interfaces 110A and 110B are connected by a wired or wireless communication means such as USB (Universal Serial Bus), terminal devices such as PCs (Personal Computers) and smartphones, or removable recording media such as USB memories. Audio data of music is input.
  • the music separation units 120A and 120B vocally separate the music into a plurality of parts using, for example, a known music separation engine.
  • the unit sound extraction units 130A and 130B extract unit sounds for sounds that form at least some of the parts of the music separated by the music separation units 120A and 120B.
  • FIG. 3 is a diagram for explaining music separation and unit sound extraction in one embodiment of the present invention.
  • the audio waveform of the entire song shown as (a) is divided into a vocal and instrumental sound part (first part) other than the drums shown as (b), and a drum sound shown as (c). part (second part).
  • the unit sounds of the bass drum (Kick), hi-hat and snare that make up the drum sound part are extracted.
  • the unit sounds may be extracted by, for example, separating the drum sound parts into bass drum, hi-hat and snare parts by the music separation units 120A and 120B, or separating the drum sound parts into vocal characteristics. may be extracted by segmenting by time.
  • the extracted unit sound may be held, for example, as audio data sampled from the separated part, or may be held as temporal position information of the reproduced unit sound in the separated part. good too.
  • the unit sounds may be replaced with sample sounds similar to the extracted sounds. In this case, the unit sound is held as sample sound audio data or a sample sound identifier.
  • the processing of the music separation units 120A and 120B and the unit sound extraction units 130A and 130B as described above may be executed when the audio data of the music is loaded via the input interfaces 110A and 110B before the music is reproduced. Alternatively, it may be executed as a preparation for DJ play before that. If the data of prepared music parts and unit sounds can be acquired via the input interfaces 110A and 110B, the DJ controller 100 can be either music separation units 120A and 120B and unit sound extraction units 130A and 130B, or You don't have to have both.
  • the audio signal processing system including the first reproduction processing unit 141A and the second reproduction processing unit 142A is the deck A, the first reproduction processing unit 141A and the second reproduction processing unit 142A.
  • the audio signal processing system is also called the B deck.
  • a piece of music is played independently on deck A and deck B, and the audio signal of the piece of music played on either deck A or deck B is output from the output interface 170 according to the user's operation.
  • the audio signals of the music played on each of the decks are mixed at a predetermined ratio and output from the output interface 170 .
  • the first reproduction processing units 141A and 141B reproduce the first part of the music, specifically the vocal and instrumental parts other than the drums.
  • the second reproduction processing units 142A and 142B reproduce the second part of the music, specifically the drum sound part, in parallel with the reproduction of the first part by the first reproduction processing units 141A and 141B. Reproduce.
  • the first reproduction processing units 141A and 141B reproduce the first part of the music in the original temporal pattern, that is, while retaining the pronunciation positions originally defined in the audio data of the music.
  • the second reproduction processing units 142A and 142B reproduce the second part of the music in the original temporal pattern in the first section of the music as described below, whereas the second reproduction processing units 142A and 142B reproduce In the second interval of , at least one sound that constitutes the second part is reproduced at a position different from that in the original temporal pattern.
  • FIG. 4 is a diagram for explaining an example of temporal patterns in parts of music.
  • a temporal pattern when parts of a song are reproduced is defined by a set of temporal positional information at which each sound constituting the part is reproduced.
  • a temporal pattern of a drum sound part of a hip-hop song is shown as an original pattern.
  • the playback positions of the bass drum (Kick), snare, and hi-hat sounds that make up the drum sound part are expressed in terms of eighth note lengths as follows.
  • the temporal pattern is in units of two bars, and the playback position of each sound in the first bar is as follows.
  • the playback position of each sound in the second measure is as follows.
  • the second reproduction processing units 142A and 142B convert the drum sound part (second part) in the first section of the music to the temporal pattern (first time period) of hip-hop music.
  • the drum sound part is reproduced in a house tone temporal pattern (second temporal pattern).
  • the snare (3/7) and hi-hat (1/2/3/4/5/6/7/8) playback positions are the first segment and the 2, but the reproduction position of the bass drum changes between the first section (1/4/6) and the second section (1/3/5/7). That is, in the case of this example, the sound of the bass drum, which is one sound forming the drum sound part, is reproduced in the second section of the song at a position different from the temporal pattern in the first section.
  • FIG. 4 exemplifies a rhythm pattern with a length of 1 or 2 bars
  • the temporal pattern in the music part is not limited to the rhythm pattern shown in this example.
  • patterns with a length of less than one bar may be defined, and longer patterns, such as entire pieces of music, may constitute temporal patterns.
  • the temporal pattern is not necessarily called a rhythm pattern.
  • the fact that at least one sound constituting the second part in the second segment of the music is reproduced at a position different from the position in the first temporal pattern means that the sound is not normally reproduced in the music. It means that the playback is performed at a position different from the expected playback position that would have been played in the second interval.
  • the intended playback position is determined based on the first temporal pattern.
  • the second part may be played from the beginning of the song at a position different from the intended playback position. That is, in the present embodiment, the second reproduction processing units 142A and 142B reproduce at least one sound that constitutes the second part at a position different from the planned reproduction position in at least a partial section of the music.
  • FIG. 5 is a diagram showing a first example of changing the playback positions of the sounds that make up the parts of a piece of music in one embodiment of the present invention.
  • the second reproduction processing units 142A and 142B convert the drum sound part (second part) in the first segment of the song to the temporal pattern (first pattern) of a hip-hop song.
  • the drum sound part is reproduced in a house tone temporal pattern (second pattern).
  • the sounds played in their respective temporal patterns are cross-faded.
  • the position of the hip-hop style pattern (1/4/ The volume of the sound reproduced in 6) gradually decreases, and the volume of the sound reproduced at the house pattern positions (1/3/5/7) gradually increases.
  • cross-fading between the sounds of the first pattern and the sounds of the second pattern in the third section is performed in accordance with the rotation of the effect control knob 103 arranged on the DJ controller 100. progresses. Specifically, when the effect adjustment knob 103 starts to rotate from the full left position, the first segment of the music ends, the third segment starts, and cross-fading starts. That is, the volume of the first pattern starts to decrease from normal volume, and the volume of the second pattern starts to increase from zero. This point in time becomes the end point of the first section and the start point of the third section of the song.
  • Cross-fade progresses as the effect control knob 103 is rotated clockwise, and the cross-fade ends when the effect control knob 103 is turned all the way to the right. That is, the volume of the first pattern becomes 0, and the volume of the second pattern reaches normal volume. This point in time becomes the end point of the third section and the start point of the second section of the song.
  • the progress rate setting unit 160 shown in FIG. 2 sets the progress rate of the crossfade according to the amount of rotation of the effect adjustment knob 103, which is an operator.
  • the length of the third segment of the song in which the crossfade progresses is dynamically determined according to the time change of the progression rate. That is, the length of the third section becomes shorter as the effect adjustment knob 103 is rotated faster. Also, the length of the third section becomes longer if the effect adjustment knob 103 is rotated slowly or paused halfway.
  • the progress rate setting unit 160 may decrease the progress rate of the crossfade when the effect adjustment knob 103 is rotated in the opposite direction, that is, counterclockwise in the example of FIG.
  • the point at which the effect control knob 103 is started to rotate becomes the end point of the first section and the start point of the third section, and the point at which the effect control knob 103 is completely rotated is the end point of the third section and the start point of the third section.
  • the start and end points of each section of the song are also set dynamically in the above example, as they are the start points of the second section.
  • FIG. 6 is a diagram showing a second example of changing the playback positions of the sounds that make up the parts of a piece of music in one embodiment of the present invention.
  • the second reproduction processing units 142A and 142B reproduce the drum sound part in the first pattern (original) in the first section of the music, and reproduce the drum sound part in the second section of the music. Play back with the second pattern (New Pattern).
  • the playback positions of all the bass drum (Kick), snare and hi-hat sounds that make up the drum sound part are changed.
  • crossfading of the bass drum sound and the hi-hat sound starts at time t1 when the effect control knob 103 is turned from the full left position.
  • This time point t1 is the end point of the first section and the start point of the third section of the music.
  • the progress rate of the crossfade set with respect to the amount of rotation of the effect control knob 103 is greater for the bass drum than for the hi-hat.
  • Crossfade ends. With respect to the hi-hat sound, the cross-fading ends later at time t4 when the effect control knob 103 is turned all the way to the right.
  • the time t2 at which the crossfade starts is later than the time t1 at which the other two sounds start to crossfade.
  • the progress rate of the crossfade which is set with respect to the amount of rotation of the effect control knob 103, is greater than that of the other two sounds.
  • This time point t4 is the end point of the third segment and the start point of the second segment of the music.
  • the discomfort felt by the listener when the drum sound pattern changes can be reduced.
  • the listener's attention can be directed to the pattern change with a moderate sense of incongruity.
  • FIG. 7 is a diagram showing a third example of changing the playback positions of the sounds that make up the parts of a piece of music in one embodiment of the present invention.
  • the second reproduction processing units 142A and 142B reproduce the drum sound part in the first pattern (original) in the first section of the music, and reproduce the drum sound part in the second section of the music. Play back with the second pattern (New Pattern).
  • the playback positions of all the bass drum (Kick), snare and hi-hat sounds that make up the drum sound part are changed.
  • crossfading of the bass drum sound starts at time t1 when the effect control knob 103 is turned from the full left position.
  • This time point t1 is the end point of the first section and the start point of the third section of the music.
  • the crossfading of the bass drum sound progresses, and at the time t2 after which the crossfading ends, the hihat sound begins to crossfade.
  • the crossfading of the snare sound starts at time t3 when the crossfading of the hi-hat sound ends, and ends at a later time t4.
  • This time point t4 is the end point of the third segment and the start point of the second segment of the music.
  • the cross-fade pattern as described above, since the playback positions of the sounds that make up the drum sound part are sequentially changed from the first pattern to the second pattern, a plurality of sounds can be cross-faded simultaneously.
  • auditory clutter due to In the illustrated example the third segment of the music is divided into three equal parts, and the crossfades of the bass drum, hi-hat and snare sounds progress at the same progress rate in each of the equal parts.
  • the intervals may be divided unevenly, and the crossfading of each sound may proceed at different rates of progression with respect to the rotation of the effect control knob 103, for example, as shown in FIG.
  • the crossfading of the three sounds that make up the drum sound part proceeds by rotating the effect adjustment knob 103, which is a single operator. , a different operator may be assigned to each sound, and the cross-fade may proceed individually by operating each operator. Further, when changing the reproduction positions of two or more sounds from the first pattern to the second pattern, some sounds are cross-faded, while other sounds are cross-faded. Instead, the pattern may be switched immediately, for example, at the start point or end point of the third interval.
  • the selection shown in FIG. The setting may be made by the unit 150 according to the user's operation on the DJ controller 100 .
  • the selection unit 150 selects, for example, the first sound that starts crossfading at the first time point t1 in the third section of the music and the crossfade at the second time point t2 after the first time point t1. Select separately the second sound to start with.
  • the selection unit 150 may select the first sound that ends the crossfade at the third time point t3 in the third section of the music, and the crossfade at the fourth time point t4 after the third time point t3.
  • the ending second note is individually selected.
  • the selection unit 150 selects, for example, a sound to be reproduced at a different temporal position from the first section in the second section of the music from the sounds constituting the drum sound part, according to the user's operation on the DJ controller 100. You may
  • the part other than the drum sound (first part) of the music continues to be reproduced in the first section and the second section of the music, while the drum sound part ( As for the second part), at least some of the sounds in the second segment of the music are reproduced in a rhythm pattern different from that in the first segment.
  • genre bending in which the genre of the music is changed while continuing to reproduce the same music.
  • genre bending from hip-hop to house is performed in the example of FIG.
  • genre bending within the same song it is possible to perform genre bending with less sense of incongruity than, for example, by mixing two songs.
  • genre bending is possible using only one of the A deck and B deck of the DJ controller as shown in FIGS. 1 and 2, the other deck can load the next song or scratch another song. You can perform operations such as
  • DJ controllers were exemplified as audio equipment, but similar functions can be implemented in other DJ equipment such as mixers and all-in-one DJ systems (digital audio players with communication and mixing functions). be.
  • a terminal device such as a PC or a smart phone
  • the first and second reproduction processing units described above do not necessarily have to be mounted inside the terminal device, and the first and second reproduction processing units are provided in a server that transmits audio data to the terminal device via the network.
  • a playback processor may be implemented and the server may function as an audio device. Since it is not necessary to reproduce two pieces of music simultaneously as described above, the audio equipment is not limited to one that reproduces pieces of music on a plurality of decks.
  • the first part of the song is a part other than drum sounds
  • the second part is a drum sound part.
  • the first part may be a vocal sound part
  • the second part may be a non-vocal sound part.
  • the second part has been described as changing from the first temporal pattern to the second temporal pattern. , does not have to follow any particular pattern.
  • the unit sounds extracted by the unit sound extracting units 130A and 130B described above or prepared in advance are assigned to the performance pads 105A and 105B of the DJ controller 100, and the user selects the performance pads 105A and 105B in the second segment of the song.
  • the sound of the second part may be ad-libbed by the operation of .
  • the reproduction position of the sound of the second part in the second section is different from the planned reproduction position determined based on the temporal pattern in the first section.
  • the sound of the second part may be ad-libbed from the beginning of the song.
  • the playback position of the second part is changed by operating the effect adjustment knob 103 of the DJ controller 100, but the operator for changing the playback position is the effect adjustment knob. It is not limited to the knob 103, and may be other operators such as the channel faders 101A and 101B and the effect activation button 104. Also, the change in the playback position of the second part does not necessarily have to be accompanied by a cross-fade in the third segment of the song. You may In this case, the song does not have a third section.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

音声的に分離可能な第1および第2のパートを含む楽曲を再生する音響装置であって、上記第1のパートを再生する第1の再生処理部と、上記第1のパートの再生に並行して、上記楽曲の第1の区間では上記第2のパートを第1の時間的なパターンで再生し、上記楽曲の第2の区間では上記第2のパートを構成する少なくとも1つの音を上記第1の時間的なパターンにおける位置とは異なる位置で再生する第2の再生処理部とを備える音響機器が提供される。

Description

音響機器、楽曲の再生方法およびプログラム
 本発明は、音響機器、楽曲の再生方法およびプログラムに関する。
 楽曲を音声的に複数のパートに分離し、分離された各パートの音声データを利用してサービスを提供する技術が知られている。例えば、特許文献1には、楽曲分離手段によって分離された複数のパートデータのうち所定のパートデータを編曲して編曲パートデータを作成し、編曲パートデータと複数のパートデータから所定のパートデータを除いた原曲パートデータとを送信する技術が記載されている。
特開2009-186729号公報
 上記のように、楽曲を音声的に複数のパートに分離し、特定のパートの音のみを加工したり、特定のパートの音をカットしたりする技術は知られている。本発明は、このような例にはとどまらない、楽曲のパート分離を利用した新たな表現を提供するための音響機器、楽曲の再生方法およびプログラムを提供することを目的とする。
[1]音声的に分離可能な第1および第2のパートを含む楽曲を再生する音響装置であって、上記第1のパートを再生する第1の再生処理部と、上記楽曲の少なくとも一部の区間において、上記第1のパートの再生に並行して、上記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生処理部とを備える音響機器。
[2]上記第2のパートを構成する音から上記少なくとも1つの音を選択する選択部をさらに備える、[1]に記載の音響機器。
[3]上記第2の再生処理部は、上記楽曲の第1の区間では上記第2のパートを第1の時間的なパターンで再生し、上記楽曲の第2の区間では上記第2のパートを構成する少なくとも1つの音を上記第1の時間的なパターンに基づく上記予定再生位置とは異なる位置で再生する、[1]または[2]に記載の音響機器。
[4]上記第2の再生処理部は、上記第2の区間では上記少なくとも1つの音を上記第1の時間的なパターンとは異なる第2の時間的なパターンで再生する、[3]に記載の音響機器。
[5]上記第2の再生処理部は、上記第1の区間と上記第2の区間との間の上記楽曲の第3の区間では上記第1の時間的なパターンで再生される上記少なくとも1つの音と、上記第2の時間的なパターンで再生される上記少なくとも1つの音とをクロスフェードさせる、[4]に記載の音響機器。
[6]操作子の操作量に応じて上記クロスフェードの進行割合を設定する進行割合設定部をさらに備え、上記第3の区間の長さは、上記進行割合の時間変化に応じて動的に決定される、[5]に記載の音響機器。
[7]上記少なくとも1つの音は、第1および第2の音を含み、上記第3の区間では、第1の時点で上記第1の音のクロスフェードが開始され、上記第1の時点よりも後の第2の時点で上記第2の音のクロスフェードが開始される、[5]または[6]に記載の音響機器。
[8]上記少なくとも1つの音は、第1および第2の音を含み、上記第3の区間では、第3の時点で上記第1の音のクロスフェードが終了し、上記第3の時点よりも後の第4の時点で上記第2の音のクロスフェードが終了する、[5]から[7]のいずれか1項に記載の音響機器。
[9]上記第2のパートを構成する音から上記第1の音および上記第2の音を個別に選択する選択部をさらに備える、[7]または[8]に記載の音響機器。
[10]上記第2のパートは、ドラムの楽器音によって構成され、上記少なくとも1つの音は、バスドラム、スネア、ハイハットの少なくともいずれかの音を含む、[1]から[9]のいずれか1項に記載の音響機器。
[11]音声的に分離可能な第1および第2のパートを含む楽曲の再生方法であって、上記第1のパートを再生する第1の再生ステップと、上記楽曲の少なくとも一部の区間において、上記第1のパートの再生に並行して、上記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生ステップとを含む、楽曲の再生方法。
[12]音声的に分離可能な第1および第2のパートを含む楽曲を再生する音響装置であって、上記第1のパートを再生する第1の再生処理部と、上記楽曲の少なくとも一部の区間において、上記第1のパートの再生に並行して、上記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生処理部とを備える音響機器としてコンピュータを機能させるためのプログラム。
 上記の構成によれば、楽曲の第1のパートについては再生を継続する一方で、第2のパートについては楽曲の少なくとも一部の区間で少なくとも一部の音が予定再生位置とは異なる位置で再生される。第2のパートを構成する音自体は変えずに再生位置を変更することによって、同じ楽曲の再生を継続しながら、例えば一部のパートのリズムパターンだけを変化させたり、一部のパートだけをアドリブ演奏にしたりといった新たな表現が可能になる。
本発明の一実施形態に係る音響機器の全体構成を示す図である。 図1に示される音響機器に含まれる機能の構成を示すブロック図である。 本発明の一実施形態における楽曲の分離および単位音の抽出について説明するための図である。 楽曲のパートにおける時間的なパターンの例について説明するための図である。 本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第1の例を示す図である。 本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第2の例を示す図である。 本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第3の例を示す図である。
 以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
 図1は、本発明の一実施形態に係る音響機器の全体構成を示す図である。本実施形態に係る音響機器は、DJコントローラー100である。DJコントローラー100は、外部から取得した音声データを用いて楽曲を再生する。この際、ユーザーは、DJコントローラー100に配置されたチャンネルフェーダー101A,101B、クロスフェーダー102、エフェクト調節ノブ103、エフェクト起動ボタン104、パフォーマンスパッド105A,105B、ジョグダイヤル106A,106Bなどの操作子を用いて、楽曲の再生に対して様々なエフェクトを加えたり、再生を制御したりすることができる。なお、以下で説明される機能以外の部分についてDJコントローラー100は通常のDJコントローラーと同様に構成されるため、これらの部分についての詳細な説明は省略する。
 図2は、図1に示される音響機器に含まれる機能の構成を示すブロック図である。図示された例において、DJコントローラー100は、入力インターフェース110A,110Bと、楽曲分離部120A,120Bと、単位音抽出部130A,130Bと、第1の再生処理部141A,141Bと、第2の再生処理部142A,142Bと、選択部150と、進行割合設定部160と、出力インターフェース170とを含む。これらの各部は、例えば音声信号のためのインターフェース装置、およびメモリに格納されたプログラムに従って動作するCPU(Central Processing Unit)またはDSP(Digital Signal Processor)によって実装される。
 入力インターフェース110A,110Bには、例えばUSB(Universal Serial Bus)のような有線または無線の通信手段によって接続されたPC(Personal Computer)やスマートフォンなどの端末装置、またはUSBメモリのようなリムーバブル記録媒体から楽曲の音声データが入力される。楽曲分離部120A,120Bは、例えば既知の楽曲分離エンジンを用いて楽曲を音声的に複数のパートに分離する。単位音抽出部130A,130Bは、楽曲分離部120A,120Bによって分離された楽曲の複数のパートの少なくとも一部のパートを構成する音について、単位音を抽出する。
 図3は、本発明の一実施形態における楽曲の分離および単位音の抽出について説明するための図である。図3の例では、(a)として示される楽曲全体の音声波形が、(b)として示されるドラム以外のボーカルおよび楽器音のパート(第1のパート)と、(c)として示されるドラム音のパート(第2のパート)とに分離されている。さらに、(d)として示すように、ドラム音のパートを構成するバスドラム(Kick)、ハイハットおよびスネアの単位音が抽出される。
 ここで、単位音は、例えば楽曲分離部120A,120Bがドラム音のパートをさらにバスドラム、ハイハットおよびスネアのパートに分離することによって抽出されてもよいし、ドラム音のパートを音声的な特徴がある時間ごとに区分することによって抽出されてもよい。また、抽出された単位音は、例えば分離されたパートからサンプリングされた音声データとして保持されてもよいし、分離されたパートの中で単位音が再生される時間的な位置情報として保持されてもよい。あるいは、単位音は、抽出された音に類似したサンプル音に置換されてもよい。この場合、単位音は、サンプル音の音声データ、またはサンプル音の識別子として保持される。
 上記のような楽曲分離部120A,120Bおよび単位音抽出部130A,130Bの処理は、例えば楽曲の再生前に入力インターフェース110A,110Bを介して楽曲の音声データがロードされたときに実行されてもよいし、それよりも前にDJプレイの事前準備として実行されてもよい。予め用意された楽曲のパートや単位音のデータが入力インターフェース110A,110Bを介して取得可能である場合、DJコントローラー100は楽曲分離部120A,120Bおよび単位音抽出部130A,130Bのいずれか、または両方を備えなくてもよい。
 なお、以下の説明では、第1の再生処理部141Aおよび第2の再生処理部142Aを含む音声信号の処理系統をAデッキ、第1の再生処理部141Aおよび第2の再生処理部142Aを含む音声信号の処理系統をBデッキともいう。AデッキおよびBデッキではそれぞれ独立して楽曲が再生され、ユーザーの操作に従ってAデッキまたはBデッキのいずれかで再生された楽曲の音声信号が出力インターフェース170から出力されるか、またはAデッキまたはBデッキのそれぞれで再生された楽曲の音声信号が所定の割合で混合されて出力インターフェース170から出力される。
 第1の再生処理部141A,141Bは、楽曲の第1のパート、具体的にはドラム以外のボーカルおよび楽器音のパートを再生する。一方、第2の再生処理部142A,142Bは、第1の再生処理部141A,141Bによる第1のパートの再生に並行して、楽曲の第2のパート、具体的にはドラム音のパートを再生する。本実施形態では、第1の再生処理部141A,141Bが楽曲の第1のパートをオリジナルの時間的なパターンで、すなわち楽曲の音声データに元々定義されている発音位置を保持したまま再生するのに対して、第2の再生処理部142A,142Bは、以下で説明するように楽曲の第2のパートを楽曲の第1の区間ではオリジナルの時間的なパターンで再生するのに対して、楽曲の第2の区間では第2のパートを構成する少なくとも1つの音をオリジナルの時間的なパターンにおける位置とは異なる位置で再生する。
 図4は、楽曲のパートにおける時間的なパターンの例について説明するための図である。本明細書において、楽曲のパートが再生されるときの時間的なパターンは、パートを構成するそれぞれの音が再生される時間的な位置情報の集合によって定義される。具体的には、図4に示された例では、オリジナルのパターンとしてヒップホップ調の楽曲のドラム音のパートにおける時間的なパターンが示されている。このパターンにおいて、ドラム音のパートを構成するバスドラム(Kick)、スネアおよびハイハットの音の再生位置を8分音符の長さを単位として表すと以下のようになる。
バスドラム=1/4/6
スネア  =3/7
ハイハット=1/2/3/4/5/6/7/8
 同様に、図4に示されたハウス調の楽曲のドラム音のパートにおける時間的なパターンでは、それぞれの音の再生位置は以下のようになる。
バスドラム=1/3/5/7
スネア  =3/7
ハイハット=1/2/3/4/5/6/7/8
 また、ブレイクビーツ調の楽曲のドラム音のパートにおける時間的なパターンでは、それぞれの音の再生位置は以下のようになる。
バスドラム=1/2/6
スネア  =3/4.5/5.5/7
ハイハット=1/2/3/4/5/6/7/8
 一方、トラップ調では時間的なパターンが2小節単位になり、1小節目におけるそれぞれの音の再生位置は以下のようになる。
バスドラム=1
スネア  =5
ハイハット=1/2/3/4/5/6/7/8
 また、2小節目におけるそれぞれの音の再生位置は以下のようになる。
バスドラム=1/2.33/3.67
スネア  =5
ハイハット=1/2/3/4/5/6/7/8
 本実施形態において、第2の再生処理部142A,142Bは、例えば楽曲の第1の区間ではドラム音のパート(第2のパート)をヒップホップ調の楽曲の時間的なパターン(第1の時間的なパターン)で再生し、楽曲の第2の区間ではドラム音のパートをハウス調の時間的なパターン(第2の時間的なパターン)で再生する。この場合、上記の再生位置の説明に示したように、スネア(3/7)およびハイハット(1/2/3/4/5/6/7/8)の再生位置は第1の区間と第2の区間とで変化しないが、バスドラムの再生位置は第1の区間(1/4/6)と第2の区間(1/3/5/7)とで変化する。つまり、この例の場合、ドラム音のパートを構成する1つの音であるバスドラムの音が、楽曲の第2の区間では第1の区間における時間的なパターンとは異なる位置で再生される。
 なお、図4では1小節または2小節の長さのリズムパターンが例示されているが、楽曲のパートにおける時間的なパターンはこの例のようなリズムパターンには限られない。例えば、1小節よりも短い長さのパターンが定義されてもよいし、より長い、例えば楽曲全体が時間的なパターンを構成してもよい。この場合、時間的なパターンは必ずしもリズムパターンとは呼ばれない。また、楽曲の第2の区間において第2のパートを構成する少なくとも1つの音が第1の時間的なパターンにおける位置とは異なる位置で再生されることは、その音が、楽曲が通常再生されたならば第2の区間で再生されたであろう予定再生位置とは異なる位置で再生されることを意味する。上記の例において、予定再生位置は第1の時間的なパターンに基づいて決定される。本実施形態の他の例において、第2のパートは、楽曲の最初から予定再生位置とは異なる位置で再生されてもよい。つまり、本実施形態において、第2の再生処理部142A,142Bは、楽曲の少なくとも一部の区間において、第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する。
 図5は、本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第1の例を示す図である。この例では、第2の再生処理部142A,142Bが、楽曲の第1の区間ではドラム音のパート(第2のパート)をヒップホップ調の楽曲の時間的なパターン(第1のパターン)で再生し、楽曲の第2の区間ではドラム音のパートをハウス調の時間的なパターン(第2のパターン)で再生する。第1の区間と第2の区間との間の楽曲の第3の区間では、それぞれの時間的なパターンで再生される音をクロスフェードさせる。具体的には、上述のようにヒップホップ調のパターンとハウス調のパターンとの間で再生位置が変わるバスドラムの音について、第3の区間ではヒップホップ調のパターンの位置(1/4/6)で再生される音の音量が徐々に小さくなり、ハウス調のパターンの位置(1/3/5/7)で再生される音の音量が徐々に大きくなる。
 また、図5に示された例では、DJコントローラー100に配置されたエフェクト調節ノブ103の回転に合わせて、第3の区間における第1のパターンの音と第2のパターンの音とのクロスフェードが進行する。具体的には、エフェクト調節ノブ103を左側いっぱいの位置から回転させ始めた時点で楽曲の第1の区間が終了して第3の区間が開始され、クロスフェードが開始される。つまり、第1のパターンの音量が通常の音量から小さくなり始め、第2のパターンの音量が0から大きくなり始める。この時点が、楽曲の第1の区間の終点および第3の区間の始点になる。エフェクト調節ノブ103を時計回りに回転させるにつれてクロスフェードが進行し、エフェクト調節ノブ103を右側いっぱいの位置まで回転させ終わった時点でクロスフェードは終了する。つまり、第1のパターンの音量が0になり、第2のパターンの音量が通常の音量に達する。この時点が、楽曲の第3の区間の終点および第2の区間の始点になる。
 上記の例では、図2に示した進行割合設定部160が、操作子であるエフェクト調節ノブ103の回転量に応じて、上記のクロスフェードの進行割合を設定する。クロスフェードが進行する楽曲の第3の区間の長さは、進行割合の時間変化に応じて動的に決定される。つまり、第3の区間の長さは、エフェクト調節ノブ103が早く回転させられれば短くなる。また、第3の区間の長さは、エフェクト調節ノブ103がゆっくり回転させられたり、途中で一時停止させられたりすれば長くなる。進行割合設定部160は、エフェクト調節ノブ103が逆方向に、つまり図5の例では反時計回りに回転させられた場合には、クロスフェードの進行割合を減少させてもよい。また、上記の通りエフェクト調節ノブ103を回転させ始めた時点が第1の区間の終点および第3の区間の始点になり、エフェクト調節ノブ103を回転させ終わった時点が第3の区間の終点および第2の区間の始点になるため、上記の例では楽曲のそれぞれの区間の始点および終点も動的に設定される。
 図6は、本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第2の例を示す図である。この例では、第2の再生処理部142A,142Bが、楽曲の第1の区間ではドラム音のパートを第1のパターン(Original)で再生し、楽曲の第2の区間ではドラム音のパートを第2のパターン(New Pattern)で再生する。第1のパターンと第2のパターンとの間では、ドラム音のパートを構成するバスドラム(Kick)、スネアおよびハイハットの音のすべてで再生位置が変更される。図示された例では、エフェクト調節ノブ103を左側いっぱいの位置から回転させ始めた時点t1でバスドラムの音およびハイハットの音のクロスフェードが開始される。この時点t1が、楽曲の第1の区間の終点および第3の区間の始点になる。エフェクト調節ノブ103の回転量に対して設定されるクロスフェードの進行割合はバスドラムの方がハイハットよりも大きく、バスドラムの音についてはエフェクト調節ノブ103が中間位置まで回転させられた時点t3でクロスフェードが終了する。ハイハットの音についてはそれよりも後の、エフェクト調節ノブ103を右側いっぱいの位置まで回転させ終わった時点t4でクロスフェードが終了する。
 一方、スネアの音については、クロスフェードが開始される時点t2が他の2つの音のクロスフェードが開始される時点t1よりも後である。エフェクト調節ノブ103の回転量に対して設定されるクロスフェードの進行割合は他の2つの音よりも大きく、エフェクト調節ノブ103を右側いっぱいの位置まで回転させ終わった時点t4でハイハットの音と同じくクロスフェードが終了する。この時点t4が、楽曲の第3の区間の終点および第2の区間の始点になる。上記のようなクロスフェードのパターンによれば、ハイハットの音が第3の区間を通じて比較的ゆっくりと第1のパターンから第2のパターンに変化するのに対して、バスドラムの音は比較的早く変化し、スネアの音は第3の区間の最後で一気に変化する。このように、例えばドラム音のパートを構成するそれぞれの音の特性に合わせてクロスフェードの開始時点、終了時点および進行割合を変化させることによって、リスナーが感じるドラム音のパターン変化の違和感を減らしたり、あるいは逆に適度な違和感によってパターン変化にリスナーの注意を向けたりすることができる。
 図7は、本発明の一実施形態において楽曲のパートを構成する音の再生位置を変更する第3の例を示す図である。この例でも、第2の再生処理部142A,142Bが、楽曲の第1の区間ではドラム音のパートを第1のパターン(Original)で再生し、楽曲の第2の区間ではドラム音のパートを第2のパターン(New Pattern)で再生する。第1のパターンと第2のパターンとの間では、ドラム音のパートを構成するバスドラム(Kick)、スネアおよびハイハットの音のすべてで再生位置が変更される。図示された例では、エフェクト調節ノブ103左側いっぱいの位置から回転させ始めた時点t1でバスドラムの音のクロスフェードが開始される。この時点t1が、楽曲の第1の区間の終点および第3の区間の始点になる。エフェクト調節ノブ103の回転とともにバスドラムの音のクロスフェードが進行し、それよりも後のクロスフェードが終了した時点t2で、今度はハイハットの音のクロスフェードが開始される。同様に、ハイハットの音のクロスフェードが終了した時点t3でスネアの音のクロスフェードが開始され、それよりも後の時点t4で終了する。この時点t4が、楽曲の第3の区間の終点および第2の区間の始点になる。
 上記のようなクロスフェードのパターンによれば、ドラム音のパートを構成するそれぞれの音の再生位置が順次第1のパターンから第2のパターンに変化するため、複数の音が同時にクロスフェードすることによる聴感上の乱雑さを低減することができる。なお、図示された例では楽曲の第3の区間が3等分されてそれぞれの等分された区間でバスドラム、ハイハットおよびスネアの音のクロスフェードが同じ進行割合で進行するが、第3の区間は不均等に分割され、エフェクト調節ノブ103の回転に対してそれぞれの音のクロスフェードが例えば図6に示された例のように異なる進行割合で進行してもよい。
 なお、上記の例ではドラム音のパートを構成する3つの音のクロスフェードが単一の操作子であるエフェクト調節ノブ103の回転によって進行したが、例えば2つ以上の音をクロスフェードさせる場合に、それぞれの音に異なる操作子を割り当て、それぞれの操作子の操作によって個別にクロスフェードを進行させてもよい。また、2つ以上の音の再生位置を第1のパターンから第2のパターンに変化させる場合に、一部の音については音をクロスフェードさせるのに対して、他の音についてはクロスフェードさせずに例えば第3の区間の始点または終点でパターンを即時に切り替えてもよい。
 例えば上記で説明した図6および図7の例において、ドラム音のパートを構成するどの音をどのような順番で、またはどのような進行割合でクロスフェードさせるかは、例えば図2に示した選択部150によって、DJコントローラー100に対するユーザー操作に従って設定可能であってもよい。この場合、選択部150は、例えば楽曲の第3の区間において第1の時点t1でクロスフェードを開始する第1の音と、第1の時点t1も後の第2の時点t2でクロスフェードを開始する第2の音とを個別に選択する。また、選択部150は、例えば楽曲の第3の区間において第3の時点t3でクロスフェードを終了する第1の音と、第3の時点t3よりも後の第4の時点t4でクロスフェードを終了する第2の音とを個別に選択する。また、選択部150は、例えばドラム音のパートを構成する音から、楽曲の第2の区間において第1の区間とは異なる時間的な位置で再生する音を、DJコントローラー100に対するユーザー操作に従って選択してもよい。
 上記で説明したような例によれば、楽曲のドラム音以外のパート(第1のパート)については楽曲の第1の区間および第2の区間で再生を継続する一方で、ドラム音のパート(第2のパート)については楽曲の第2の区間で少なくとも一部の音が第1の区間とは異なるリズムパターンで再生される。第2のパートを構成する音自体は変えずにリズムパターンを変更することによって、同じ楽曲の再生を継続しながら楽曲のジャンルを変更するジャンルベンディングを行うことができる。具体的には、例えば、図5の例ではヒップホップからハウスへのジャンルベンディングが行われている。同じ楽曲内でジャンルベンディングを行うことによって、例えば2つの楽曲のミキシングによる場合よりも違和感が小さいジャンルベンディングが可能になる。また、図1および図2に示したようなDJコントローラーのAデッキまたはBデッキの一方のみを用いてジャンルベンディングが可能であるため、他方のデッキでは次の楽曲のロードや別の楽曲でのスクラッチなどの操作を行うことができる。
 なお、上記で説明した本発明の一実施形態は例示的なものであり、各種の変更が可能である。例えば、上記の実施形態では音響機器としてDJコントローラーが例示されたが、ミキサーやオールインワンDJシステム(通信およびミキシング機能付きデジタルオーディオプレーヤー)などの他のDJ機器でも同様の機能を実装することが可能である。PCやスマートフォンなどの端末装置において、DJアプリケーションによって上記の機能を実装することも可能である。これらの場合において、上述した第1および第2の再生処理部は必ずしも端末装置の内部に実装されなくてもよく、ネットワークを介して端末装置に音声データを送信するサーバにおいて第1および第2の再生処理部が実装され、このサーバが音響装置として機能してもよい。なお、上記のように2つの楽曲を同時に再生することは必要されないため、音響機器は複数のデッキで楽曲を再生するものには限られない。
 また、上記の実施形態では楽曲の第1のパートがドラム音以外のパートであり、第2のパートがドラム音のパートであるものとして説明されたが、第1および第2のパートにボーカルおよび楽器音をどのように分離したパートを割り当てるかは限定されない。例えば、第1のパートをボーカル音のパートとし、第2のパートをボーカル音以外のパートとしてもよい。
 上記の実施形態では第2のパートが第1の時間的なパターンから第2の時間的なパターンに変化するものとして説明されたが、第2の区間における第2のパートの音の再生位置は、特定のパターンに従ったものではなくてもよい。例えば、上述した単位音抽出部130A,130Bによって抽出された、または予め用意された単位音をDJコントローラー100のパフォーマンスパッド105A,105Bに割り当て、楽曲の第2の区間ではユーザーがパフォーマンスパッド105A,105Bの操作によって第2のパートの音をアドリブ演奏してもよい。この場合も、第2の区間では第2のパートの音の再生位置が第1の区間における時間的なパターンに基づいて決定される予定再生位置とは異なる位置になる。他の例では、楽曲の最初から第2のパートの音がアドリブ演奏されてもよい。
 上記の実施形態では第2のパートの再生位置の変化がDJコントローラー100のエフェクト調節ノブ103の操作によって実行されるものとして説明されたが、再生位置の変化を実行するための操作子はエフェクト調節ノブ103には限られず、チャンネルフェーダー101A,101Bやエフェクト起動ボタン104などの他の操作子であってもよい。また、第2のパートの再生位置の変化は必ずしも楽曲の第3の区間におけるクロスフェードを伴わなくてもよく、例えばエフェクト起動ボタン104の押下によって即時に第2のパートの時間的なパターンが変化してもよい。この場合、楽曲において第3の区間は存在しない。また、上記のように楽曲の第2の区間で第2のパートの音をアドリブ演奏するような場合も、第2のパートの再生位置の変化はクロスフェードを伴わず、従って楽曲において第3の区間は存在しない。
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はこれらの例に限定されない。本発明の属する技術の分野の当業者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 100…DJコントローラー、101A,101B…チャンネルフェーダー、102…クロスフェーダー、103…エフェクト調節ノブ、104…エフェクト起動ボタン、105A,105B…パフォーマンスパッド、106A,106B…ジョグダイヤル、110A,110B…入力インターフェース、120A,120B…楽曲分離部、130A,130B…単位音抽出部、141A,141B…第1の再生処理部、142A,142B…第2の再生処理部、150…選択部、160…進行割合設定部、170…出力インターフェース。
 

Claims (12)

  1.  音声的に分離可能な第1および第2のパートを含む楽曲を再生する音響装置であって、
     前記第1のパートを再生する第1の再生処理部と、
     前記楽曲の少なくとも一部の区間において、前記第1のパートの再生に並行して、前記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生処理部と
     を備える音響機器。
  2.  前記第2のパートを構成する音から前記少なくとも1つの音を選択する選択部をさらに備える、請求項1に記載の音響機器。
  3.  前記第2の再生処理部は、前記楽曲の第1の区間では前記第2のパートを第1の時間的なパターンで再生し、前記楽曲の第2の区間では前記第2のパートを構成する少なくとも1つの音を前記第1の時間的なパターンに基づく前記予定再生位置とは異なる位置で再生する、請求項1または請求項2に記載の音響機器。
  4.  前記第2の再生処理部は、前記第2の区間では前記少なくとも1つの音を前記第1の時間的なパターンとは異なる第2の時間的なパターンで再生する、請求項3に記載の音響機器。
  5.  前記第2の再生処理部は、前記第1の区間と前記第2の区間との間の前記楽曲の第3の区間では前記第1の時間的なパターンで再生される前記少なくとも1つの音と、前記第2の時間的なパターンで再生される前記少なくとも1つの音とをクロスフェードさせる、請求項4に記載の音響機器。
  6.  操作子の操作量に応じて前記クロスフェードの進行割合を設定する進行割合設定部をさらに備え、
     前記第3の区間の長さは、前記進行割合の時間変化に応じて動的に決定される、請求項5に記載の音響機器。
  7.  前記少なくとも1つの音は、第1および第2の音を含み、
     前記第3の区間では、第1の時点で前記第1の音のクロスフェードが開始され、前記第1の時点よりも後の第2の時点で前記第2の音のクロスフェードが開始される、請求項5または請求項6に記載の音響機器。
  8.  前記少なくとも1つの音は、第1および第2の音を含み、
     前記第3の区間では、第3の時点で前記第1の音のクロスフェードが終了し、前記第3の時点よりも後の第4の時点で前記第2の音のクロスフェードが終了する、請求項5から請求項7のいずれか1項に記載の音響機器。
  9.  前記第2のパートを構成する音から前記第1の音および前記第2の音を個別に選択する選択部をさらに備える、請求項7または請求項8に記載の音響機器。
  10.  前記第2のパートは、ドラムの楽器音によって構成され、
     前記少なくとも1つの音は、バスドラム、スネア、ハイハットの少なくともいずれかの音を含む、請求項1から請求項9のいずれか1項に記載の音響機器。
  11.  音声的に分離可能な第1および第2のパートを含む楽曲の再生方法であって、
     前記第1のパートを再生する第1の再生ステップと、
     前記楽曲の少なくとも一部の区間において、前記第1のパートの再生に並行して、前記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生ステップと
     を含む、楽曲の再生方法。
  12.  音声的に分離可能な第1および第2のパートを含む楽曲を再生する音響装置であって、
     前記第1のパートを再生する第1の再生処理部と、
     前記楽曲の少なくとも一部の区間において、前記第1のパートの再生に並行して、前記第2のパートを構成する少なくとも1つの音を予定再生位置とは異なる位置で再生する第2の再生処理部と
     を備える音響機器としてコンピュータを機能させるためのプログラム。
     
PCT/JP2021/020239 2021-05-27 2021-05-27 音響機器、楽曲の再生方法およびプログラム WO2022249402A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/020239 WO2022249402A1 (ja) 2021-05-27 2021-05-27 音響機器、楽曲の再生方法およびプログラム
JP2023523868A JPWO2022249402A1 (ja) 2021-05-27 2021-05-27

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020239 WO2022249402A1 (ja) 2021-05-27 2021-05-27 音響機器、楽曲の再生方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2022249402A1 true WO2022249402A1 (ja) 2022-12-01

Family

ID=84228673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020239 WO2022249402A1 (ja) 2021-05-27 2021-05-27 音響機器、楽曲の再生方法およびプログラム

Country Status (2)

Country Link
JP (1) JPWO2022249402A1 (ja)
WO (1) WO2022249402A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002504718A (ja) * 1998-02-19 2002-02-12 ポストミュージック・エルエルシー オリジナル音楽作品を構成するための方法及び装置
JP2009186729A (ja) * 2008-02-06 2009-08-20 Taito Corp 楽曲送信プログラム、楽曲送信サーバ及び楽曲送信システム
JP2011118221A (ja) * 2009-12-04 2011-06-16 Yamaha Corp 楽曲生成装置及びプログラム
JP2019200427A (ja) * 2019-07-26 2019-11-21 ヤマハ株式会社 自動アレンジ方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002504718A (ja) * 1998-02-19 2002-02-12 ポストミュージック・エルエルシー オリジナル音楽作品を構成するための方法及び装置
JP2009186729A (ja) * 2008-02-06 2009-08-20 Taito Corp 楽曲送信プログラム、楽曲送信サーバ及び楽曲送信システム
JP2011118221A (ja) * 2009-12-04 2011-06-16 Yamaha Corp 楽曲生成装置及びプログラム
JP2019200427A (ja) * 2019-07-26 2019-11-21 ヤマハ株式会社 自動アレンジ方法

Also Published As

Publication number Publication date
JPWO2022249402A1 (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
JP4283320B2 (ja) 音楽およびオーディオ再生システム
US20230089356A1 (en) Ai-based dj system and method for decomposing, mising and playing of audio data
US7343210B2 (en) Interactive digital medium and system
US10062367B1 (en) Vocal effects control system
JP3894062B2 (ja) 楽曲データ配信装置、楽曲データ受信装置及びプログラム
US8198525B2 (en) Collectively adjusting tracks using a digital audio workstation
CN101361123B (zh) 声音处理装置和声音处理方法
CN101361124A (zh) 声音处理装置和声音处理方法
KR20080051054A (ko) 매시업용 데이터의 배포 방법, 매시업 방법, 매시업용데이터의 서버 장치 및 매시업 장치
WO2015143076A1 (en) Method and system for selecting tracks on a digital file
US20230335091A1 (en) Method and device for decomposing, recombining and playing audio data
JP6926354B1 (ja) オーディオデータの分解、ミキシング、再生のためのaiベースのdjシステムおよび方法
Williams Tubby’s dub style: The live art of record production
US20120072841A1 (en) Browser-Based Song Creation
US20020015504A1 (en) Mixing apparatus with recording/reproducing function
Pejrolo Creative Sequencing Techniques for Music Production: A Practical Guide to Logic, Digital Performer, Cubase and Pro Tools
WO2022249402A1 (ja) 音響機器、楽曲の再生方法およびプログラム
JP7397090B2 (ja) 音響装置、音響システム、画像生成方法及び画像生成プログラム
WO2022101977A1 (ja) 音響機器、音響機器の制御方法およびプログラム
JP2009125141A (ja) 楽曲選択システム、楽曲選択装置及びプログラム
WO2007060605A2 (en) Device for and method of processing audio data items
WO2022049732A1 (ja) 情報処理装置及び情報処理方法
WO2017119115A1 (ja) 音響制御システム
JP2014066922A (ja) 楽曲演奏装置
WO2022230170A1 (ja) 音響装置、音響装置の制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21943049

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023523868

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18563647

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21943049

Country of ref document: EP

Kind code of ref document: A1