WO2022049732A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2022049732A1
WO2022049732A1 PCT/JP2020/033637 JP2020033637W WO2022049732A1 WO 2022049732 A1 WO2022049732 A1 WO 2022049732A1 JP 2020033637 W JP2020033637 W JP 2020033637W WO 2022049732 A1 WO2022049732 A1 WO 2022049732A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
time
information processing
information
tone color
Prior art date
Application number
PCT/JP2020/033637
Other languages
English (en)
French (fr)
Inventor
博也 栗尾
正人 上野
信二 浅川
Original Assignee
ローランド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローランド株式会社 filed Critical ローランド株式会社
Priority to PCT/JP2020/033637 priority Critical patent/WO2022049732A1/ja
Priority to EP20952467.7A priority patent/EP4120239A4/en
Priority to US17/920,015 priority patent/US11922913B2/en
Priority to CN202080099904.8A priority patent/CN115461809A/zh
Publication of WO2022049732A1 publication Critical patent/WO2022049732A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/14Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour during execution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/24Selecting circuits for selecting plural preset register stops
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/116Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of sound parameters or waveforms, e.g. by graphical interactive control of timbre, partials or envelope
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/031File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/321Bluetooth
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Definitions

  • This disclosure relates to an information processing device and an information processing method.
  • One aspect of the present disclosure is a control unit that accepts input of information indicating one or two or more times in the reproduction time of a musical piece and generates a file containing information related to tone color control performed from each of the one or two or more times.
  • an information processing including a transmission unit for transmitting the voice signal of the music and the information related to the tone color control in the file to the device for outputting the synthetic sound of the reproduction sound of the music and the performance sound of the musical instrument. It is a device.
  • One aspect of the present disclosure may include an information processing method, a program, a recording medium on which a program is recorded, an information processing system including an information processing device and a device (tone color control device), and the like, which have the same characteristics as the information processing device. good.
  • FIG. 1 shows a configuration example of an information processing system.
  • FIG. 2 shows a screen display example of a playback screen of a moving image with audio.
  • FIG. 3 shows a screen display example of the marker editing screen.
  • FIG. 4 shows an example of the data structure of the session file.
  • FIG. 5 shows a configuration example of the information processing device.
  • FIG. 6 is a flowchart showing a processing example by the processor of the information processing apparatus.
  • FIG. 7 is a flowchart showing a processing example by the processor of the information processing apparatus.
  • FIG. 8 shows the appearance configuration of the tone color control device.
  • FIG. 9 shows the circuit configuration of the tone color control device.
  • FIG. 10 is an operation explanatory diagram of the information processing device and the tone color control device.
  • FIG. 10 is an operation explanatory diagram of the information processing device and the tone color control device.
  • FIG. 11 is an operation explanatory diagram of the information processing device and the tone color control device.
  • FIG. 12 is an operation explanatory diagram of the information processing device and the tone color control device.
  • FIG. 13 is a flowchart showing a processing example by the processor of the information processing apparatus in the modified example.
  • FIG. 14 is a flowchart showing a processing example by the processor of the information processing apparatus in the modified example.
  • FIG. 15 is a flowchart showing a processing example by the processor of the information processing apparatus in the modified example.
  • an information processing apparatus including the following will be described.
  • a control unit that accepts input of information indicating one or two or more times in the playback time of a musical piece and generates a file containing information related to tone color control performed from each of the one or two or more times.
  • a transmission unit that transmits an audio signal of a musical piece and information related to timbre control in a file to a device that outputs a synthetic sound of the reproduced sound of the musical piece and the playing sound of a musical instrument.
  • the information processing device According to the information processing device, the input of one or two or more times during the reproduction time of the music and the information related to the tone color control corresponding to each time are accepted. Therefore, the user of the information processing apparatus can set to perform desired timbre control for each of his / her desired time. Then, the voice signal of the music and the information related to the voice control are transmitted to the device that outputs the synthetic sound of the playback sound of the music and the performance sound of the musical instrument. As a result, the device can perform voice control on at least one of the reproduced sound of the music and the playing sound of the musical instrument.
  • “Voice control” includes changing the waveform of a sound wave by processing the voice signal, adding an effect to the voice signal, and connecting the voice signal of the playing sound of an electric guitar to a predetermined guitar amplifier. Includes processing into a simulated sound of. Tone controls and effects include vibrato, tremolo, reverb, chorus, delay, overdrive / distortion, and more.
  • FIG. 1 shows a configuration example of an information processing system including an information processing device.
  • the information processing system is used by a user of the information processing system to practice playing a musical instrument accompanied by the reproduced sound of a musical piece.
  • the information processing system includes an information processing device 20, a tone color control device 10 capable of communicating with the information processing device 20, and a first server 2 and a second server 3 connected to the information processing device 20 via a network 1. ..
  • the timbre control device 10 is an example of a device that outputs a synthetic sound of a reproduced sound of a musical piece and a playing sound of a musical instrument.
  • Network 1 is the Internet, LTE (LongTermEvolution), public network (WAN) such as 5G, intranet, or the like.
  • the network 1 may include a radio section.
  • the first server 2 can manage information about music for practicing musical instruments and supply it to the information processing apparatus 20.
  • the second server 3 can manage the data of the music for practice provided to the user 7 and supply it to the information processing apparatus 20.
  • the information processing device 20 transmits a voice signal based on music data and information related to tone color control performed from a desired timing (time) in the reproduction time of the music to the tone color control device 10.
  • An electric guitar 6 which is an example of a musical instrument and headphones 5 are connected to the tone color control device 10.
  • the headphones 5 are worn by the user 7, and the electric guitar 6 is played by the user 7.
  • the musical instrument may be a musical instrument other than the electric guitar 6 (a stringed instrument such as a bass, a keyboard instrument such as a piano, a percussion instrument such as a drum, or a wind instrument such as a saxophone).
  • the musical instrument may be an electronic musical instrument or an acoustic instrument, and may be configured such that an electric signal corresponding to the performance sound generated by the performance is input to the timbre control device 10.
  • the tone color control device 10 is a device capable of outputting to the headphones 5 a synthetic sound obtained by synthesizing the reproduced sound of a musical piece and the playing sound of a musical instrument (electric guitar 6). By listening to the sound from the headphones 5, the user 7 can practice a session between the electric guitar 6 played by himself and the reproduced sound of the music (playing sound of another musical instrument).
  • the timbre control device 10 Upon outputting the synthetic sound, the timbre control device 10 receives the voice signal of the music transmitted from the information processing device and the information related to the timbre control corresponding to each time, and is based on the information related to the timbre control. , Tone control for at least one of the reproduced sound of the music and the playing sound of the instrument, that is, the processing for the audio signal is performed.
  • the information processing device 20 is an information terminal having a communication function, and is a dedicated or general-purpose computer (Computing Device) including a personal computer, a smartphone, a tablet terminal, and the like.
  • the information processing device 20 may be a fixed terminal or a mobile terminal. In this embodiment, it is assumed that the information processing device 20 is a smartphone.
  • An application program for practicing musical instruments using an information processing system (hereinafter referred to as a practice application) is installed in the information processing device 20.
  • the information processing apparatus 20 provides the user 7 with an environment in which the user 7 generates information to be included in a file called a session file and registers the session file in the first server 2.
  • the information processing device 20 receives a list of a plurality of practice songs from the first server 2.
  • the list includes a URL (Uniform Resource Locator) that is information indicating the storage location of each music file (music file).
  • the information processing apparatus 20 accesses the second server 3 using the URL of the selected music according to the selection result of the music of the user 7, and acquires the music data stored in the second server 3.
  • URL Uniform Resource Locator
  • the second server 3 is a server that provides a video supply service such as YouTube (registered trademark) or a video distribution service.
  • a video supply service such as YouTube (registered trademark) or a video distribution service.
  • the music data is provided in the form of a moving image file with audio.
  • the file format of the moving image file with audio is, for example, ".MOV”, “MPEG4", “.MP4", “.AVI”, “.WMV” and the like.
  • the file format is not limited to the above examples.
  • it is not essential that the music data file is a moving image file with audio, and the music file may be an audio file.
  • a video stream and an audio stream are input to the information processing device 20 as video data and music data based on the video file with audio.
  • the information processing apparatus 20 can send a video signal based on a video stream to a display 25 (an example of a “display device”) and display an image (moving image) based on the video stream on the display 25.
  • the information processing device 20 transmits an audio signal (audio signal) based on the audio stream to the tone color control device 10.
  • the second server 3 may be omitted by adopting a configuration in which the music data file is stored in advance in a storage device accessible to the information processing device 20 and the music data is acquired from the storage device.
  • the memory address or the like is used as information indicating the storage position of the music data.
  • Playback control of music such as playback, pause, rewind, and fast forward can be performed by the user 7 operating the user interface (UI) provided by the information processing apparatus 20.
  • UI user interface
  • the information processing device 20 has playback control information transmitted from the tone color control device 10 to the information processing device 20 when the user 7 operates an operator (button, switch, knob, etc.) of the tone color control device 10. Can also be received from the tone color control device 10 to control the reproduction of music.
  • the display 25 displays various screens including the playback screen 25A of the moving image with audio and the editing screen 25B of the marker.
  • FIG. 2 shows a screen display example of the playback screen 25A of the moving image with sound
  • FIG. 3 shows a screen display example of the marker editing screen 25B.
  • the playback screen 25A and the editing screen 25B are displayed by executing the practice application.
  • the playback screen 25A and the editing screen 25B may be provided by a Web browser installed in the information processing apparatus 20.
  • the name of the song selected from the song list (“SongRock1” in FIG. 2) 251 is displayed in the upper part of the playback screen 25A, and the moving image display area 251 is provided below it.
  • the initial screen of the moving image with sound acquired from the second server 3 using the URL of the music is displayed, and the reproduction is started by inputting the reproduction instruction.
  • a video for a lesson showing how to hold the strings of an electric guitar may be displayed.
  • a still image may be used.
  • the music file is an audio file, nothing is displayed in the display area 251 or an image prepared in advance is displayed.
  • a seek bar 252 indicating the playback time of the video (musical piece) with audio, and on the left side (periphery) of the seek bar 252, the current time (playback time) in the playback time is displayed. ..
  • a UI 253 for performing operations (playback control) of playing, pausing, rewinding, and fast-forwarding the video with audio is displayed.
  • the UI 253 shown in FIG. 2 includes symbols indicating fast forward, play, rewind, and rewind to the beginning of a song in order from the right, and each symbol functions as a button for a corresponding operation.
  • the symbol (playback button) indicating playback is pressed while the initial screen of the video with audio is displayed in the display area 251
  • the playback of the video with audio is started.
  • the display is switched from the symbol indicating playback to the symbol indicating pause (pause), and when the pause symbol is pressed, the playback of the video with audio is paused.
  • the display of the pause symbol is switched again to the display of the playback symbol. In this way, the play button and the pause button are displayed alternately.
  • a list of markers 255 set for the music is displayed.
  • the marker indicates the starting point of the tone color control of the music.
  • three markers are set for the music, and a record for each marker is shown.
  • the first (first) marker is a marker whose name is "Intro", and the time "00:00” in the playback time of the moving image with audio and the memory number are set.
  • the memory number is information for specifying a set of parameters (timbre parameters) for processing the audio signal into a predetermined (desired by the user 7) timbre, and is an example of "information related to timbre control”.
  • the information of the tone color parameter set is stored in the storage area of the memory (storage device 102) of the tone color control device 10, and the memory number indicates the storage position (address) of the data of the tone color parameter set and the tone color. Acts as an identifier for a set of parameters. For example, the memory number "01" corresponding to the time "00:00” indicates a set of timbre parameters applied to the timbre control from the time "00:00".
  • the set of timbre parameters is sometimes called a "patch".
  • the second (second) marker is a marker whose name is "Backing Chord".
  • a time "00:10” in the playback time of the moving image with audio and a memory number "02" corresponding to the time "00:10" are set.
  • the third (third) marker is a marker whose name is "SoloCrunch”.
  • a time “00:33” in the playback time of the moving image with audio and a memory number "08" corresponding to the time "00:33” are set.
  • each of the marker records is displayed in the order of time, name, and memory number, and the symbol 259 indicating switching to the edit screen 25B (FIG. 3) is shown at the right end.
  • the edit screen 25B for editing the corresponding marker is displayed on the display 25.
  • the upper part of the marker editing screen 25B is the same as the playback screen 25A, and is a screen for viewing and controlling playback of a moving image (musical piece) with audio.
  • a screen for editing the record of the marker selected from the marker list 255 on the reproduction screen 25A is displayed. That is, the time (TIME) input field 261 and the marker name (MARKER NAME) input field 262, the memory number (MEMORY NUMBER) input field 263, and the input item confirmation button (“OK” button) 264.
  • the cancel button 265 is displayed.
  • the display switches to the playback screen 25A, and the confirmed contents of the time, marker name, and memory number set using the input fields 261 to 263 are displayed in the marker list 255.
  • the marker symbol 254 is displayed on the seek bar 252.
  • the marker symbol 254 indicates the relative position of the time in the playback time of the music indicated by the seek bar 252.
  • the marker symbol 254 corresponding to the memory number that has been used up (switched to another) due to the passage of the playback time is different from the marker symbol 254 corresponding to the memory number currently in use. Displayed in mode.
  • the symbol 254 at which the memory number has been used is represented by an unfilled ellipse
  • the symbol 254 corresponding to the memory number in use is represented by a filled ellipse.
  • a memory number edit button 256 is provided below the marker list 255.
  • the memory number edit screen (an example of the "tone control content edit screen") is displayed on the display 25.
  • the user 7 can edit the memory number (set of timbre parameters) corresponding to the time (assigned) using the edit screen.
  • the user 7 can edit the memory number by using one of the UI displayed on the editing screen and the operator provided in the tone color control device 10. That is, the information processing apparatus 20 displays the editing screen of the tone color control content on the display 25, and can receive the information indicating the content of the tone color control transmitted from the tone color control device 10 to the information processing apparatus 20.
  • the information processing device 20 and the tone color control device 10 communicate with each other, and the operation state of the UI in the information processing device 20 and the operation state of the operator of the tone color control device 10 are synchronized.
  • buttons 257 under the marker list 255 are pressed, a list of memory numbers created in advance is displayed, and the user 7 can also confirm the memory number to be assigned to the time from the list of memory numbers.
  • the information processing apparatus 20 Through the setting of one or two or more markers for the music, the information processing apparatus 20 generates a file (called a session file) containing the setting result of the markers.
  • FIG. 4 shows an example of the data structure of the session file.
  • the session file is generated for each music, that is, for each video file with audio including the music.
  • the session file includes the name of the music or the music file, the URL which is the information indicating the storage position of the music file, and the information indicating the marker set to 1 or 2 or more for the music.
  • marker information information indicating a marker name, information indicating a time (arbitrarily set by the user 7) in the playback time of a musical piece, and information indicating a set of timbre parameters, which is information indicating timbre control applied from that time, That is, the memory number and the memory number are stored.
  • a case where three markers are set for one musical piece is illustrated.
  • one URL is set for one song, and the song file is uniquely determined by the URL.
  • the information processing device 20 is a sound color control device, the information included in the session file registered in the first server 2 by the user 7 through the execution of the practice application, the music data provided by the second server 3, and the sound color control device. 10 is used to provide an environment for practicing an electric guitar 6 with an accompaniment by the reproduced sound of a musical piece.
  • the playback screen 25A for which the marker setting has been completed is displayed and the playback of the video file with audio is waiting
  • the play button provided in the tone control device 10 the video file with audio is displayed.
  • the reproduction instruction of is transmitted to the information processing apparatus 20.
  • the information processing apparatus 20 starts reproducing the moving image file with audio, processes the reproduction image to be displayed in the display area 251 of the reproduction screen 25A, and transmits the audio signal based on the music data to the tone color control device 10. Performs the process of sending.
  • the information processing device 20 sets memory number information (timbre parameter set) corresponding to the time before the time at each of the one or more markers set for the music arrives in accordance with the transmission of the voice signal. ) Is transmitted to the tone color control device 10.
  • the tone color control device 10 has a memory for storing the information of the memory number, and the information of the set of tone color parameters is stored in the storage area indicated by the memory number set in the session file.
  • the timbre control device 10 When the time set in the marker arrives, the timbre control device 10 performs voice control using a set of timbre parameters of the memory number corresponding to the time, that is, processing of the voice signal.
  • the tone color control device 10 processes the performance sound of the electric guitar 6, and connects the musical sound signal obtained by synthesizing (mixing) the performance sound of the processed electric guitar 6 and the reproduction sound of the music to the headphones 5.
  • the user 7 can hear the performance sound of the electric guitar 6 whose timbre is changed at a desired timing.
  • the processing of the audio signal based on the set of the tone color parameters of the memory number may be performed on the reproduced sound of the music or the synthesized sound of the playing sound of the electric guitar 6 and the reproduced sound of the music.
  • FIG. 5 shows a configuration example of the information processing apparatus 20.
  • the information processing device 20 includes a processor 21, a storage device 22, a communication interface (communication IF) 23, an input device 24, a display 25, and a wireless communication IF 27 connected to the bus 26.
  • the processor 21 is an example of a control unit (control device, controller), and each of the communication IF 23 and the wireless communication IF 27 is an example of a transmission unit (transmitter, transmitter).
  • the storage device 22 includes a ROM (ReadOnlyMemory), a RAM (RandomAccessMemory), a hard disk drive (HDD), an SSD (SolidStateDrive), a flash memory, and an EEPROM (Electrically ErasableProgrammableRead-OnlyMemory).
  • the storage device 22 is used as a storage area for data and programs, a work area for the processor 21, a buffer area for communication data, and the like.
  • the communication IF 23 is, for example, a network interface card (NIC), and is used for transmitting and receiving data via the network 1.
  • the input device 24 is a key, a button, a pointing device (mouse or the like), a touch panel, a knob, a switch, or the like, and is used for inputting information and data.
  • the display 25 is, for example, an LCD and is used for displaying information.
  • the wireless communication IF27 is a wireless communication circuit according to a predetermined wireless communication standard. In the present embodiment, the wireless communication IF 27 supports Bluetooth and BLE (Bluetooth Low Energy), and is used for wireless communication with the tone color control device 10.
  • the information processing device 20 can transmit and receive data to and from the tone color control device 10 via USB (Universal Serial Bus).
  • USB Universal Serial Bus
  • the processor 21 is, for example, a CPU (Central Processing Unit), and executes various programs including an operating system (OS) and a practice application. By executing the practice application, the processor 21 performs a process of providing an environment for generating and storing a session file, and a process of supplying an audio signal and memory number information to the tone color control device 10 according to the session file.
  • OS operating system
  • practice application the processor 21 performs a process of providing an environment for generating and storing a session file, and a process of supplying an audio signal and memory number information to the tone color control device 10 according to the session file.
  • FIGS. 6 and 7 are flowcharts showing a processing example by the processor 21 of the information processing device 20, and explain the operation when the processor 21 executes the above-mentioned practice application.
  • the processor 21 accesses the first server 2 and acquires the music list from the first server 2 (step S001). That is, the processor 21 generates a message requesting the provision of the music list to the first server 2.
  • the communication IF 23 transmits a message and receives a music list from the first server 2 as a response to the message.
  • the processor 21 obtains the music list received by the communication IF 23.
  • step S002 the processor 21 displays the screen of the music list on the display 25, and receives the input of the music selection result performed by the user 7 using the input device 24.
  • step S003 the processor 21 acquires the session file of the selected music from the first server 2. That is, the processor 21 generates a message for requesting the provision of a session file, which includes the selection result of the music and the user ID which is the identification information of the user 7.
  • the communication IF 23 transmits a provision request message to the first server 2.
  • the first server 2 reads the session file corresponding to the user ID and the music included in the message from the storage device and transmits the session file to the information processing device 20.
  • the processor 21 acquires the session file via the communication IF 23. If the user 7 has not set a marker for the music for the session file received at this time, the session file includes the music name and the URL, but the information related to the marker (time, marker name, memory number). Is in an unedited state.
  • step S004 the processor 21 accesses the second server 3 by using the URL in the session file, and receives the provision of the moving image file with the sound of the music.
  • the method of reproducing the video file with audio may be streaming reproduction or download reproduction. If the storage device 22 has a moving image file with audio downloaded in the past, access to the second server 3 may be skipped.
  • step S005 the processor 21 displays a music, that is, a playback screen 25A (FIG. 2) of a moving image with audio on the display.
  • the video displayed in the display area 251 on the playback screen 25 is an embedded video of a video sharing service (for example, YouTube (registered trademark)), and the video playback control (that is, video playback, pause, rewind, etc.) Information on playback control such as fast forward) is transmitted to the video playback software supplied from the second server 3 using the API (Application Programming Interface) of the video sharing service, and the playback control is performed by the video playback software.
  • the initial screen of the moving image with sound is displayed in a state of waiting for a playback instruction.
  • step S006 the processor 21 determines whether or not at least one of the marker and the memory number for the music needs to be edited (set). Whether or not editing is necessary is determined by, for example, whether or not the edit button 256 is pressed down. Here, if it is determined that editing is necessary, the process proceeds to step S007, and if not, the process proceeds to step S009.
  • step S007 the processor 21 displays the marker editing screen 25B on the display 25, and causes the user 7 to edit the marker.
  • the user 7 can regenerate the moving image with audio by using the UI 253 or the operator of the tone control device 10, listens to the music from the headphones 5 connected to the tone control device 10, and sets a marker at a desired time. Can be determined and the marker can be edited. At this time, if necessary, the memory number can be edited or the existing memory number can be selected. By editing, one or more markers (time, marker name, memory number) for the music are determined.
  • step S008 the processor 21 updates the session file and includes the determined marker information in the session file. Further, the processor 21 performs a registration process of the updated session file. For example, the processor 21 generates a session file registration request message and transmits it to the first server 2 via the communication IF 23. Based on the registration request, the first server 2 associates the session file with the user ID and stores (registers) it in the storage device managed by the first server 2. As a result, the session file is saved in the first server 2 (cloud). The session file may be stored (saved) in a storage device 22 or a USB memory connected to the information processing device 20.
  • step S008 is completed, the process returns to step S005 and the reproduction screen 25A is displayed.
  • step S009 the processor 21 determines whether or not a reproduction instruction is input. Whether or not a reproduction instruction is input is determined by, for example, whether or not the reproduction button in the UI253 or the operator (reproduction button) of the tone color control device 10 is pressed down. If it is determined that the reproduction instruction has been input, the process proceeds to step S010, and if not, the process returns to step S005. In this way, while the reproduction screen 25A is displayed, the edit button 256 or the reproduction button is awaited to be pressed.
  • step S010 the processor receives the reproduction instruction and transmits the information of the memory number corresponding to the first (first) marker to the tone color control device 10. This is because, like the first marker shown in FIG. 2, the time may arrive at the same time as the start of reproduction.
  • the information of the set of timbre parameters to which the memory number is assigned is stored in the storage area corresponding to the memory number, and is used for processing the voice applied from the time set in the marker.
  • step S010 the processor 21 waits for, for example, the expiration of a predetermined timer, and in the timbre control device 10, the timbre processing (of the timbre signal) using the set of timbre parameters of the memory number corresponding to the first marker. Wait for processing) to be possible.
  • step S011 the processor 21 supplies the moving image playback software with a playback instruction to play the moving image with audio. As a result, the moving image is displayed in the display area 251 and the audio signal is transmitted to the tone color control device 10.
  • step S012 the processor 21 determines whether or not the time of the latest marker has arrived. If it is determined that the time has arrived, the process proceeds to step S013, and if not, the process returns to step S011.
  • step S013 the processor 21 transmits the information of the memory number corresponding to the next marker in the session file to the tone color control device 10.
  • the information of the memory number corresponding to the next marker is stored in the storage area of the corresponding memory number, and when the time set in the next marker arrives, the tone color is immediately switched by the DSP ( Settings for Digital Signal Processor) are made.
  • DSP Settings for Digital Signal Processor
  • step S014 the processor 21 determines whether or not the reproduction of the moving image with audio has been completed. If it is determined that the reproduction is completed, the process proceeds to step S015, and if not, the process returns to step S011. In step S015, the end determination of the practice application is performed. If it is determined that the practice application is finished, the processes of FIGS. 6 and 7 are finished, and if not, the process returns to step S005.
  • step S010 If the user operates to pause, fast forward, or rewind the video file with audio during the playback process of step S011, these instructions are given to the video playback software. Pause, fast forward, and rewind processing are performed. In this embodiment, the operation of rewinding for a predetermined time (10 seconds) can also be performed. The processing related to this will be described later. In the processing example of FIG. 7, the processing of step S010 is performed with the input of the reproduction instruction as a trigger, but the processing of step S010 may be executed with the selection (selection confirmation) of the music as a trigger.
  • FIG. 8 shows the appearance configuration of the tone color control device
  • FIG. 9 shows the circuit configuration of the tone color control device.
  • FIG. 8 shows the front surface of the tone color control device 10, and a first operator 10A and a display 11 used for setting information (memory number) related to voice control are arranged on the upper side of the front surface.
  • a second operator 10B for operating the reproduction control of the music, that is, the moving image file with sound is arranged.
  • the first operator 10A used for setting the memory number includes knobs 12, 13a, 13b, 13c, and buttons 14a, 14b, 14c.
  • the display 11 is a seven-segment type display that displays a memory number.
  • the knob 12 is a rotary knob used for changing the display content of the display 11.
  • the knobs 13a, 13b, and 13c are rotary knobs used to set the tone color (select), and are used to set the gain, level, and reverb values.
  • the knobs 13a, 13b, and 13c can be switched to knobs for setting overdrive (OD) / distortion (DS), modulation (MOD), and delay values by pressing down the button 14a, which is a selection button.
  • the button 14b is used for Bluetooth / BLE pairing with the information processing device 20.
  • the second operator 10B used for the reproduction control includes a play / pause button (PLAY / PAUSE) 15, a rewind (fast rewind) button (REW) 16, and a fast forward button (FF) 17.
  • PLAY / PAUSE play / pause button
  • REW fast rewind
  • FF fast forward button
  • a volume rotary knob 18 is provided on the side surface of the tone color control device 10.
  • the tone color control device 10 includes a CPU 101, a storage device 102, a wireless device (wireless communication circuit) 103, a DSP (Digital Signal Processor) 104, a digital analog converter (D / A), and an analog digital. Includes a converter (A / D).
  • the storage device 102 includes a ROM and a RAM, and has the same function as the storage device 22.
  • the CPU 101 has information related to tone color control input by the operation (setting) of the first operator 10A, information related to playback control input by the operation of the second operator 10B, and a volume rotary knob 18. The value is entered. Information is indicated by the state of the switch, the value of the variable resistor, the value of the rotary encoder, and so on. Further, the CPU 101 displays the memory number on the display 11.
  • the wireless device 103 is connected to the CPU 101 via a UART (Universal Asynchronous Receiver / Transmitter).
  • the wireless device 103 is a communication circuit that supports predetermined wireless standards (Bluetooth and BLE), is connected to the wireless communication IF27 of the information processing device 20 through Bluetooth and BLE wireless lines, and has a first operator 10A and a second operator. It is used for transmitting information indicating the operation content of the operation element 10B of the above, information on the voice signal of the music and the memory number, receiving the memory number, and the like. Information exchanged between the information processing device 20 and the wireless device 103 may be transmitted and received using the USB 110.
  • predetermined wireless standards Bluetooth and BLE
  • the tone control device 10 has a jack (terminal) 6a into which a cable plug from the electric guitar 6 is inserted, an AUX terminal 6b, and a terminal 5a of the headphones 5.
  • the analog audio signal of the performance sound of the electric guitar 6 input from the terminal 6a is converted into a digital signal by the A / D 106 and input to the DSP 104.
  • the audio signal (digital signal) of the music received by the wireless device 103 through the wireless line is converted into an analog signal by the D / A 103a of the wireless device 103.
  • This analog signal is added to the adder 105 provided between the AUX terminal 6b and the A / D 106, input to the A / D 106, converted into a digital signal, and input to the DSP 104.
  • the DSP 104 Under the control of the CPU 101, the DSP 104 performs timbre control (processing of the timbre) based on a set of timbre parameters of the memory number on at least one of the audio signal of the performance sound of the electric guitar 6 and the audio signal of the reproduction sound of the music. It is a circuit.
  • the memory number information received by the wireless device 103 is given to the CPU 101 via the UART 111, and the CPU 101 stores the information of the tone parameter set in the storage area corresponding to the memory number provided in the storage device 102. ..
  • the information in the set of timbre parameters is used for circuit formation for voice signal processing in the DSP 104, and is used for voice processing (timbre control) from the time when the memory number is applied.
  • the DSP 104 synthesizes (mixes) the performance sound and the reproduced sound, and inputs the digital audio signal of the synthesized sound to the D / A 107.
  • the D / A 107 converts the digital audio signal of the synthesized sound into an analog audio signal.
  • the analog audio signal is connected to the headphone 5 via the terminal 5a of the headphone 5, and the synthesized sound is output from the speaker of the headphone 5.
  • FIG. 10 is an explanatory diagram of the interaction between the information processing device 20 and the tone color control device 10.
  • the information processing device 20 operates as a device provided with the OS 21a and the practice application 21b by the processor 21 executing the program.
  • the video file with audio (video with streaming audio) provided from the second server 3 is provided as an embedded video on the screen of the practice application 21b.
  • Playback control of the moving image with sound is performed by operating the play button 15, the rewind button 16, and the fast-forward button 17 on the second operator 10B of the tone color control device 10.
  • Information on reproduction control by button operation for example, a reproduction instruction issued by the CPU 101 when the reproduction button 15 is pressed down is transmitted to the information processing apparatus 20 via the wireless device 103.
  • AVRCP Audio / Video Remote Control Profile
  • Bluetooth Bluetooth4.2
  • AVRCP is a profile for realizing the remote control function of an AV device.
  • the information related to the reproduction control is given to the moving image reproduction software (second server) via the practice application 21b, and the second server 3 controls the moving image reproduction.
  • the digital audio signal of the music based on the moving image with audio is supplied to the tone control device 10 using A2DP supported by Bluetooth (Bluetooth 2.1 and 3.0).
  • A2DP is a profile for transmitting audio to headphones with a receiver.
  • the information related to the tone control setting is transmitted and received using the BLE-MIDI (MIDI over Bluetooth Low Energy) technology supported by Bluetooth 4.0 (BLE).
  • the rewinding operation for a certain period of time (for example, 10 seconds, but may be longer or shorter than 10 seconds) will be described with reference to FIG. It is assumed that the rewinding operation is performed for a certain period of time by using the rewinding button 16 in the state where the moving image with sound is being played back in the information processing apparatus 20 ( ⁇ 1> in FIG. 11). Then, a rewind instruction is given to the video playback software via the practice application 21b, and the video with audio is rewound.
  • a rewind instruction is given to the video playback software via the practice application 21b, and the video with audio is rewound.
  • the video playback software outputs the current time of the rewound video with audio
  • the OS 21a converts the current time into an SSP (Song Position Pointer), and transmits the SSP to the tone control device 10 (FIG. 11).
  • SSP Short Position Pointer
  • the SSP is given to the CPU 101 via the wireless device 103.
  • the CPU 101 When the CPU 101 acquires the SSP ( ⁇ 3> in FIG. 11), it determines whether the value of the SSP goes back to the scheduled time (time 10 seconds before) ( ⁇ 4> in FIG. 11). At this time, if it is determined that the time has been traced back to the scheduled time, the CPU 101 ends the process, and if not, another rewind instruction is transmitted ( ⁇ 1> in FIG. 11).
  • FIG. 12 is an explanatory diagram of a process of switching two or more memory numbers.
  • the practice application 21b has a memory number “01” (first memory) corresponding to the first marker, for example, when a song is selected before the time of the first marker arrives.
  • the number is sent to the tone color control device 10.
  • the CPU 101 sets the information of the tone color parameter set of the first marker stored in the storage area of the memory number “01” in the DSP 104, so that the effector circuit corresponding to the first marker is set to the DSP 104.
  • the audio signal of the performance sound of the electric guitar 6 is input to the effector circuit corresponding to the first marker, the effect is added (tone control), and the audio signal after the effect is applied is output. ..
  • the practice application 21b uses the memory number “02” (second memory) corresponding to the second marker as a trigger of the arrival of the time of the first marker.
  • the number is sent to the tone color control device 10.
  • the CPU 101 sets the information of the tone color parameter set of the second marker stored in the storage area of the memory number “02” in the DSP 104, so that the effector circuit corresponding to the second marker is set to the DSP 104.
  • the switch outputs the signal from the effector corresponding to the first marker until the time of the second marker arrives.
  • the output is switched to the signal from the effector corresponding to the second marker. This makes it possible to seamlessly switch from the tone color control by the first marker to the tone color control by the second marker.
  • the information of the memory number corresponding to the third marker is transmitted from the information processing device 20 to the tone color control device 10, and the effector corresponding to the third marker is generated in the DSP 104. Then, from the time of the third marker, the effector for the third marker is applied.
  • the processor 21 (control unit) of the information processing apparatus 20 accepts the input of information indicating the time of 1 or 2 or more in the reproduction time of the music, and performs the input from each of the times of 1 or 2 or more. Generate a session file that contains information related to tone color control. Further, the wireless communication IF27 (transmitter) of the information processing apparatus 20 has the audio signal of the musical piece and the file in the tone color control device 10 (device) for outputting the synthesized sound of the reproduced sound of the musical piece and the playing sound of the musical instrument. Information related to tone control of.
  • the tone color control by the desired memory number at the desired time of the user 7 is applied to at least one of the playing sound of the electric guitar 6 (musical instrument) and the playing sound of the music (in the embodiment, the playing sound of the electric guitar 6). be able to.
  • the processor 21 controls information indicating the reproduction time of the music, and is a screen for setting information related to time and tone color control (reproduction screen 25A, editing screen 25B). ) Can be displayed on the display 25 (display device). This makes it possible to provide the user 7 with a marker setting environment.
  • the processor 21 (control unit) is connected to the information processing device 20 via the network 1 based on the URL of the music (information indicating the storage position of the data of the music).
  • Music data can be acquired from the second server 3 (a distribution device that distributes music data).
  • the music data is the audio data in the moving image file with audio, but may be an audio file.
  • the processor 21 acquires the URL from the first server 2 (file management device) connected to the information processing device 20 via the network 1. .. Further, the processor 21 requests the first server 2 to save the session file including the information indicating the time, the information related to the tone color control, and the URL. In this way, the first server 2 can manage the music and the session file.
  • the processor 21 may store the session file including the information indicating the time, the information related to the tone color control, and the URL in the storage device 22 of the information processing device 20.
  • the storage device may be a storage device such as a USB memory mounted on the information processing device 20.
  • the wireless communication IF27 (transmitter) is triggered by the selection of a music.
  • Information related to the tone color control corresponding to the first time is transmitted to the tone color control device 10 before the arrival of the first time, and the second time is corresponded to the arrival of the first time in the reproduction of the music.
  • Information related to timbre control is transmitted to the timbre control device 10. This enables seamless switching of timbre control.
  • the processor 21 displays the editing screen of the tone color control content on the display 25, and the information indicating the content of the tone color control (tone control) transmitted from the tone color control device 10 to the information processing apparatus 20. Information related to settings) is accepted. Thereby, the memory number can be set through the operation of the tone color control device 10.
  • the information processing device 20 can communicate with the tone color control device 10 using Bluetooth (Bluetooth 2.1 or 3.0) and BLE (Bluetooth 4.0), and the processor 21 controls information related to the reproduction of the music using AVRCP. (Reproduction control information) is received from the tone color control device 10, and information for editing the tone color using BLE-MIDI is received from the tone color control device 10. In this way, information regarding the setting of timbre control can be transmitted using BLE.
  • Bluetooth Bluetooth 2.1 or 3.0
  • BLE Bluetooth 4.0
  • the processing performed by the processor 21 or the CPU 101 may be performed by a plurality of CPUs (processors) or by a CPU having a multi-core configuration. Further, the processing performed by the processor 21 is executed by a processor other than the CPU (DSP, GPU, etc.), an integrated circuit other than the processor (ASIC, FPGA, etc.), or a combination of the processor and the integrated circuit (MPU, SoC, etc.). May be good.
  • ⁇ Modification example> 13 to 15 are flowcharts showing a processing example of the information processing apparatus 20 in the modified example.
  • a plurality of edited markers (memory numbers corresponding to a plurality of times and a plurality of times) are stored in the session file.
  • the session file has markers (1), (2) and (3), and a plurality of times corresponding to each of the markers (1), (2) and (3). That is, the time “00:00:00" (first time), the time “00:10:00” (second time), and the time “00:33:00" (third time) are set. Includes. Of the first to third times, the setting information that the first and second times corresponding to the first time and the second time belong to the first group in the order of the earliest arrival time is stored in the storage device 22. It is remembered in. Further, the storage device 22 stores the setting information that the third time, which is the time following the second time, belongs to the second group.
  • steps S001 to S005 are the same as the processes in the embodiment (FIG. 6).
  • the modification is different from the embodiment in that step S003A is provided between step S003 and step S004.
  • steps S009, S011, S014, and S015 in FIG. 14 are the same as the processes shown in FIG. 7.
  • the modification shown in FIG. 14 is different from the embodiment in that step S010 is not provided and steps S012A and S013A are provided instead of steps S012 and S013.
  • the session file editing process in the modified example is an interrupt process executed when an editing event occurs, such as pressing the edit button 256, and is the step shown in FIG.
  • the same processing as in S007 and S008 is executed, and when the processing is completed, the processing returns to step S001 (FIG. 13).
  • step S003A among the plurality of times in the session file acquired in step S003, a predetermined number of times belonging to the first group, that is, memory numbers (tones) corresponding to the first time and the second time respectively.
  • Information related to control is transmitted to the tone color control device 10.
  • the tone color control device 10 the CPU 101 corresponds to a circuit based on a set of tone color parameters stored in the storage area corresponding to the memory number “01” of the marker (1) and the memory number “02” of the marker (2).
  • Control is performed to construct a circuit based on a set of timbre parameters stored in the storage area in the DSP 104 in parallel.
  • the process of step S003A may be executed after step S004 or step S005, or may be executed in parallel with step S004.
  • step S009 when it is determined that the reproduction instruction has been input, the processor 21 reproduces the moving image with audio.
  • the processor 21 determines the memory number of the next marker (3).
  • the memory number of the second group to which "08" belongs is transmitted to the tone color control device 10 (step S013).
  • the memory number belonging to the second group is only the memory number “08”, so one memory number “08” is transmitted.
  • the number of markers belonging to each of the first group and the second group can be set to an appropriate number of 1 or 2 or more. Therefore, when the session file contains, for example, two markers (first time and second time), the memory number corresponding to the first time is transmitted with the selection of the music as a trigger (step S003A). When the time of 1 arrives (Yes in step S012A), the memory number corresponding to the second time is transmitted (step S013A).
  • the wireless communication IF27 (transmitter) is triggered by the selection of a musical piece when a memory number (information related to timbre control) is set for each of a plurality of times in the musical piece reproduction time.
  • a memory number corresponding to a predetermined number of times for example, first and second times selected from a plurality of times in the order of earliest arrival is transmitted.
  • the time in a plurality of times third time that arrives after the last time triggered by the arrival of the last time (second time) in the predetermined number of times.
  • Information related to tone color control corresponding to the above can be transmitted.
  • Tone control device 20 ... Information processing device 21 . Processor 22 ... Storage device 101 ... CPU 102 ... Storage device

Abstract

情報処理装置は、楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成する制御部と、楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、楽曲の音声信号と、ファイル中の音色制御に係る情報を送信する送信部とを含む。

Description

情報処理装置及び情報処理方法
 本開示は、情報処理装置及び情報処理方法に関する。
 従来、ユーザに表示するためにオーディオ・ファイルのマルチメディア・プレゼンテーションをコンピューティング・デバイスに配信し、さらにユーザがマルチメディア・プレゼンテーションに合わせて楽器を演奏することができるシステムがある(例えば、特許文献1を参照)。また、コンテンツ種別リストから選択されたコンテンツのリンク先から、エフェクタで実行させる処理に関する制御情報とその実行時刻の情報が記載されているXMLファイルがダウンロードされ、曲データの再生位置が実行時刻となったときに、エフェクタで指定されたエフェクト処理を実行する音楽プレーヤーがある(例えば、特許文献2を参照)。
特表2005-510763号公報 特開2008-191546号公報
 本開示は、楽曲の再生時間の所望の時刻から所望の音色での再生を行う情報を設定可能な情報処理装置及び情報処理方法を提供することを目的とする。
 本開示の一態様は、楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、前記1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成する制御部と、前記楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、前記楽曲の音声信号と、前記ファイル中の前記音色制御に係る情報を送信する送信部と
を含む情報処理装置である。
 本開示の一態様は、情報処理装置と同様の特徴を有する、情報処理方法、プログラム、プログラムを記録した記録媒体、情報処理装置と装置(音色制御装置)とを含む情報処理システムなどを含んでもよい。
図1は、情報処理システムの構成例を示す。 図2は、音声付き動画の再生画面の画面表示例を示す。 図3は、マーカの編集画面の画面表示例を示す。 図4は、セッションファイルのデータ構造例を示す。 図5は、情報処理装置の構成例を示す。 図6は、情報処理装置のプロセッサによる処理例を示すフローチャートである。 図7は、情報処理装置のプロセッサによる処理例を示すフローチャートである。 図8は、音色制御装置の外観構成を示す。 図9は、音色制御装置の回路構成を示す。 図10は、情報処理装置及び音色制御装置の動作説明図である。 図11は、情報処理装置及び音色制御装置の動作説明図である。 図12は、情報処理装置及び音色制御装置の動作説明図である。 図13は、変形例における情報処理装置のプロセッサによる処理例を示すフローチャートである。 図14は、変形例における情報処理装置のプロセッサによる処理例を示すフローチャートである。 図15は、変形例における情報処理装置のプロセッサによる処理例を示すフローチャートである。
 実施形態では、以下を含む情報処理装置について説明する。
(1)楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成する制御部。
(2)楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、楽曲の音声信号と、ファイル中の音色制御に係る情報を送信する送信部。
 情報処理装置によれば、楽曲の再生時間中の、1又は2以上の時刻の入力と、各時刻に対応する音色制御に係る情報とを受け付ける。このため、情報処理装置のユーザは、自身の所望の時刻の夫々に関して所望の音色制御を行うことを設定することができる。そして、楽曲の音声信号と、音声制御に係る情報とが、楽曲の再生音と楽器の演奏音との合成音を出力する装置に送信される。これによって、装置では、楽曲の再生音と楽器の演奏音との少なくとも一方に音声制御を施すことができる。「音声制御」は、音声信号の加工によって音波の波形を変化させることを含み、音声信号に対する効果(エフェクト)の付与、及びエレキギターの演奏音の音声信号を、所定のギターアンプに接続したときの模擬音に加工することを含む。音色制御及びエフェクトは、ビブラート、トレモロ、リバーブ、コーラス、ディレイ、オーバードライブ/ディストーションなどを含む。
〔実施形態〕
 以下、図面を参照して、実施形態に係る情報処理装置及び情報処理方法、並びにプログラムについて説明する。実施形態の構成は例示であり、実施形態の構成に限定されない。
<情報処理システム>
 図1は、情報処理装置を含む情報処理システムの構成例を示す。情報処理システムは、情報処理システムのユーザが、楽曲の再生音を伴奏として楽器の演奏を練習するために使用される。
 情報処理システムは、情報処理装置20と、情報処理装置20と通信可能な音色制御装置10と、情報処理装置20とネットワーク1を介して接続された第1サーバ2及び第2サーバ3とを含む。音色制御装置10は、楽曲の再生音と楽器の演奏音との合成音を出力する装置の一例である。
 ネットワーク1は、インターネット、LTE(Long Term Evolution)、5G等の公衆網(WAN)、或いはイントラネット等である。ネットワーク1は、無線区間を含んでもよい。第1サーバ2は、楽器の練習用の楽曲に関する情報を管理し、情報処理装置20に供給することができる。
 第2サーバ3は、ユーザ7に提供する練習用の楽曲のデータを管理し、情報処理装置20に供給することができる。情報処理装置20は、楽曲のデータに基づく音声信号と、楽曲の再生時間における所望のタイミング(時刻)から行う音色制御に係る情報を音色制御装置10に送信する。
 音色制御装置10には、楽器の一例であるエレキギター6と、ヘッドホン5とが接続される。ヘッドホン5はユーザ7に装着され、エレキギター6は、ユーザ7によって演奏される。なお、楽器はエレキギター6以外の楽器(ベースなどの弦楽器、ピアノなどの鍵盤楽器、ドラムなどの打楽器、サキソフォンなどの吹奏楽器)であってもよい。楽器は電子楽器でもアコースティックであってもよく、演奏によって生じる演奏音に対応する電気信号が音色制御装置10に入力される構成となっていればよい。
 音色制御装置10は、楽曲の再生音と、楽器(エレキギター6)の演奏音とを合成した合成音をヘッドホン5に出力可能な装置である。ユーザ7は、ヘッドホン5からの音声を聴取することによって、自身が演奏するエレキギター6と、楽曲の再生音(他の楽器の演奏音)とのセッションの練習を行うことができる。
 合成音の出力にあたり、音色制御装置10は、情報処理装置から送信される、楽曲の音声信号と、各時刻に対応する、音色制御に係る情報とを受信し、音色制御に係る情報に基づいて、楽曲の再生音及び楽器の演奏音の少なくとも一方に対する音色制御、すなわち音声信号に対する加工を行う。
 情報処理装置20は、通信機能を有する情報端末であり、パーソナルコンピュータ、スマートフォン、及びタブレット端末などを含む、専用または汎用のコンピュータ(Computing Device)である。情報処理装置20は、固定端末でも移動端末でもよい。本実施形態では、情報処理装置20がスマートフォンであることを想定している。
 情報処理装置20には、情報処理システムを利用した楽器練習用のアプリケーションブログラム(以下、練習用アプリという)がインストールされている。練習用アプリの実行によって、情報処理装置20は、ユーザ7が、セッションファイルと呼ばれるファイルに含める情報を生成し、第1サーバ2にセッションファイルを登録する環境をユーザ7に提供する。
 情報処理装置20は、第1サーバ2から複数の練習用の楽曲のリストを受け取る。リストには、各楽曲のファイル(楽曲ファイル)の保存位置を示す情報であるURL(Uniform Resource Locator)が含まれている。情報処理装置20は、ユーザ7の楽曲の選択結果に応じて、選択された楽曲のURLを用いて、第2サーバ3にアクセスし、第2サーバ3に保管されている楽曲データを取得する。
 第2サーバ3は、YouTube(登録商標)等の動画供給サービス又は動画配信サービスを提供するサーバである。楽曲データのファイル形式に制限はない。本実施形態では、楽曲データは、音声付き動画ファイルの形式で提供される。音声付き動画ファイルのファイル形式は、例えば、“.MOV”,“MPEG4”,“.MP4”,“.AVI”,“.WMV”などである。但し、ファイル形式は上述の例示に制限されない。また、楽曲データのファイルが音声付き動画ファイルであることは必須ではなく、楽曲のファイルは音声ファイルであってもよい。
 第2サーバ3からは、音声付き動画ファイルに基づく動画データ及び楽曲データとして、ビデオストリームとオーディオストリームとが情報処理装置20に入力される。情報処理装置20は、ビデオストリームに基づくビデオ信号をディスプレイ25(「表示装置」の一例)に送り、ビデオストリームに基づく画像(動画)をディスプレイ25に表示することができる。一方、情報処理装置20は、オーディオストリームに基づく音声信号(オーディオ信号)を、音色制御装置10に送信する。
 なお、上記例では、音声付き動画ファイルのストリーム再生を説明しているが、ダウンロード再生であってもよい。また、楽曲データのファイルを情報処理装置20がアクセス可能な記憶装置に予め記憶しておき、そこから楽曲データを取得する構成を採用して、第2サーバ3を省略してもよい。この場合、URLの代わりに、メモリのアドレスなどが、楽曲データの保存位置を示す情報として使用される。
 楽曲(音声付き動画)の再生、一時停止、巻き戻し、早送りなどの再生制御は、情報処理装置20によって提供するユーザインタフェース(UI)をユーザ7が操作することによって行うことができる。
 また、情報処理装置20は、音色制御装置10が有する操作子(ボタン、スイッチ、つまみなど)をユーザ7が操作した場合に、音色制御装置10から情報処理装置20に送信される再生制御の情報を音色制御装置10から受け付けて、楽曲の再生制御を行うこともできる。
 ディスプレイ25には、音声付き動画の再生画面25Aと、マーカの編集画面25Bとを含む、様々な画面が表示される。図2は、音声付き動画の再生画面25Aの画面表示例を示し、図3は、マーカの編集画面25Bの画面表示例を示す。再生画面25A及び編集画面25Bは、練習用アプリの実行によって表示される。但し、再生画面25A及び編集画面25Bは、情報処理装置20にインストールされたWebブラウザによって提供されてもよい。
 再生画面25Aの上段には、楽曲リストから選ばれた楽曲の名称(図2では“Song Rock1”)251が表示され、その下に、動画の表示領域251が設けられている。動画の表示領域251には、楽曲のURLを用いて第2サーバ3から取得した音声付き動画の初期画面が表示され、再生指示の入力によって再生が開始される。再生される動画として、例えば、エレキギターの弦の押さえ方を示すレッスン用の映像を表示してもよい。但し、動画の内容に制限はなく、静止画でもよい。また、楽曲のファイルが音声ファイルである場合、表示領域251には何も表示されないか、予め用意された画像が表示される。
 動画の表示領域251の下には、音声付き動画(楽曲)の再生時間を示すシークバー252が表示され、シークバー252の左側(周辺)には、再生時間における現在時刻(再生時刻)が表示される。
 シークバー252の下には、音声付き動画の再生、一時停止、巻き戻し、早送りの操作(再生制御)を行うためのUI253が表示される。図2に示すUI253は、右から順に、早送り、再生、巻き戻し、曲の頭への巻き戻しを示すシンボルを含み、各シンボルは、対応する操作のボタンとして機能する。音声付き動画の初期画面が表示領域251に表示されている状態で再生を示すシンボル(再生ボタン)が押されると、音声付き動画の再生が開始される。このとき、再生を示すシンボルから一時停止(ポーズ)を示すシンボルに表示が切り替わり、一時停止のシンボルを押すと、音声付き動画の再生が一時停止される。このとき、一時停止のシンボルの表示が、再生のシンボルの表示に再び切り替わる。このように、再生ボタンと一時停止ボタンとが交代で表示される。
 UI253の下には、楽曲に対して設定されたマーカのリスト255が表示される。マーカは、楽曲の音色制御の開始点を示す。図2に示す例では、楽曲に対して3つのマーカが設定されており、マーカ毎のレコードが示されている。
 一つ目の(第1の)マーカは、名称が“Intro”であるマーカであり、音声付き動画の再生時間における時刻“00:00”と、メモリ番号とが設定されている。メモリ番号は、音声信号を所定の(ユーザ7の所望する)音色に加工するためのパラメータ(音色パラメータ)のセットを特定する情報であり、「音色制御に係る情報」の一例である。音色パラメータのセットの情報は、音色制御装置10が有するメモリ(記憶装置102)の記憶領域に記憶されており、メモリ番号は、音色パラメータのセットのデータの格納位置(アドレス)を示すとともに、音色パラメータのセットの識別子として作用する。例えば、時刻“00:00”に対応するメモリ番号“01”は、時刻“00:00”からの音色制御に適用する音色パラメータのセットを示す。なお、音色パラメータのセットは、「パッチ」と呼ばれることもある。
 二つ目の(第2の)マーカは、名称が“Backing Chord”であるマーカである。第2のマーカには、音声付き動画の再生時間における時刻“00:10”と、時刻“00:10”に対応するメモリ番号“02”とが設定されている。
 三つ目の(第3の)マーカは、名称が“Solo Crunch”であるマーカである。第3のマーカには、音声付き動画の再生時間における時刻“00:33”と、時刻“00:33”に対応するメモリ番号“08”が設定されている。
 マーカのリスト255において、マーカのレコードの夫々は、時刻、名称、メモリ番号の順に表示され、右端には、編集画面25B(図3)への切り替えを示すシンボル259が示されている。シンボル259が押されると、対応するマーカを編集する編集画面25Bがディスプレイ25に表示される。
 図3において、マーカの編集画面25Bの上段は、再生画面25Aと同様であり、音声付き動画(楽曲)の閲覧及び再生制御を行う画面である。編集画面25Bの下段には、再生画面25Aにおけるマーカのリスト255から選択されたマーカのレコードを編集するための画面が表示される。すなわち、時刻(TIME)の入力欄261と、マーカ名(MARKER NAME)の入力欄262と、メモリ番号(MEMORY NUMBER)の入力欄263と、入力事項の確定ボタン(“OK”ボタン)264と、キャンセルボタン265とが表示される。
 OKボタンが押されると、表示が再生画面25Aに切り替わり、入力欄261~263を用いて設定された時刻、マーカ名、メモリ番号の確定内容が、マーカのリスト255に表示されるようになる。
 また、シークバー252には、マーカのシンボル254が表示される。マーカのシンボル254は、シークバー252で示される楽曲の再生時間における時刻の相対位置を示す。マーカのシンボル254のうち、再生時刻の経過によって使用が終わった(他に切り替わった)メモリ番号に対応するマーカのシンボル254と、現在使用中のメモリ番号に対応するマーカのシンボル254とは異なった態様で表示される。図2に示す例では、メモリ番号の使用が終わったシンボル254は、塗りつぶしのない楕円で示され、使用中のメモリ番号に対応するシンボル254は、塗りつぶしの楕円で示される。
 再生画面25Aにおいて、マーカのリスト255の下には、メモリ番号の編集ボタン256が設けられている。編集ボタン256が押されると、メモリ番号の編集画面(「音色制御内容の編集画面」の一例)がディスプレイ25に表示される。ユーザ7は、編集画面を用いて、時刻に対応する(割り当てる)メモリ番号(音色パラメータのセット)を編集することができる。このとき、ユーザ7は、編集画面に表示されたUIと、音色制御装置10が備える操作子との一方を用いて、メモリ番号を編集することができる。すなわち、情報処理装置20は、音色制御内容の編集画面をディスプレイ25に表示し、音色制御装置10から情報処理装置20に送信される、音色制御の内容を示す情報を受け付けることができる。情報処理装置20と音色制御装置10とは通信を行い、情報処理装置20におけるUIの操作状態と、音色制御装置10の操作子の操作状態とは同期をとる。
 また、マーカのリスト255の下にあるボタン257を押すと、予め作成されたメモリ番号のリストが表示され、ユーザ7は、メモリ番号のリストから、時刻に割り当てるメモリ番号を確認することもできる。
 楽曲に対する1又は2以上のマーカの設定を通じて、情報処理装置20は、マーカの設定結果を含むファイル(セッションファイルと呼ばれる)を生成する。図4は、セッションファイルのデータ構造例を示す。セッションファイルは、楽曲毎、すなわち楽曲を含む音声付き動画ファイル毎に生成される。セッションファイルは、楽曲又は楽曲ファイルの名称と、楽曲ファイルの保存位置を示す情報であるURLと、楽曲に対して1又は2以上設定されるマーカを示す情報とを含む。
 マーカの情報として、マーカ名と、楽曲の再生時間における時刻(ユーザ7によって任意に設定される)を示す情報と、その時刻から適用する音色制御を示す情報である音色パラメータのセットを示す情報、すなわち、メモリ番号とが記憶される。図4に示す例では、1つの楽曲に対して、3つのマーカが設定された場合を例示する。本実施形態では、一つの楽曲に対して一つのURLが設定され、楽曲ファイルはURLによって一意に決定される。
 また、情報処理装置20は、練習用アプリの実行を通じて、ユーザ7が第1サーバ2に登録されたセッションファイルに含まれた情報と、第2サーバ3から提供される楽曲データと、音色制御装置10とを用いて、楽曲の再生音による伴奏付きのエレキギター6の練習を行う環境を提供する。
 例えば、マーカの設定が終わった再生画面25Aが表示され、音声付き動画ファイルの再生が待機されている状態で、ユーザ7が音色制御装置10に備えられた再生ボタンを押すと、音声付き動画ファイルの再生指示が情報処理装置20に送信される。情報処理装置20は、再生指示を受信すると、音声付き動画ファイルの再生を開始し、再生画面25Aの表示領域251に再生画像の表示する処理と、楽曲データに基づく音声信号を音色制御装置10へ送信する処理とを行う。
 情報処理装置20は、音声信号の送信に合わせて、楽曲に対して設定された1又は2以上のマーカの夫々における時刻が到来する前に、時刻に対応するメモリ番号の情報(音色パラメータのセット)を、音色制御装置10に送信する。音色制御装置10は、メモリ番号の情報を記憶するメモリを有し、音色パラメータのセットの情報は、セッションファイルに設定されたメモリ番号で示される記憶領域に記憶される。
 音色制御装置10は、マーカに設定した時刻が到来すると、その時刻に対応するメモリ番号の音色パラメータのセットを用いた音声制御、すなわち音声信号の加工を行う。例えば、音色制御装置10は、エレキギター6の演奏音の加工を行い、加工したエレキギター6の演奏音と楽曲の再生音とを合成(ミキシング)した楽音信号をヘッドホン5に接続する。これによって、所望のタイミングで音色が変更されたエレキギター6の演奏音をユーザ7は聴取することができる。なお、メモリ番号の音色パラメータのセットに基づく音声信号の加工は、楽曲の再生音、又はエレキギター6の演奏音と楽曲の再生音との合成音に対して行われてもよい。
 <情報処理装置>
 図5は、情報処理装置20の構成例を示す。図5において、情報処理装置20は、バス26に接続された、プロセッサ21と、記憶装置22と、通信インタフェース(通信IF)23と、入力装置24と、ディスプレイ25と、無線通信IF27とを含む。プロセッサ21は、制御部(制御装置、コントローラ)の一例であり、通信IF23及び無線通信IF27の夫々は、送信部(送信装置、送信機)の一例である。
 記憶装置22は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ(HDD)、SSD(Solid State Drive)、フラッシュメモリ、及びEEPROM(Electrically Erasable Programmable Read-Only Memory)などである。記憶装置22は、データ及びプログラムの記憶領域、プロセッサ21の作業領域、通信データのバッファ領域などとして使用される。
 通信IF23は、例えばネットワークインタフェースカード(NIC)であり、ネットワーク1を介したデータの送受信に使用される。入力装置24は、キー、ボタン、ポインティングデバイス(マウスなど)、タッチパネル、つまみ及びスイッチなどであり、情報及びデータの入力に使用される。ディスプレイ25は例えばLCDであり、情報の表示に使用される。無線通信IF27は、所定の無線通信規格に従った無線通信回路である。本実施形態では、無線通信IF27は、Bluetoothと、BLE(Bluetooth Low Energy)とをサポートしており、音色制御装置10との無線通信に使用される。なお、情報処理装置20は、USB(Universal Serial Bus)を介して音色制御装置10とデータを送受信可能である。
 プロセッサ21は、例えばCPU(Central Processing Unit)であり、オペレーティングシステム(OS)及び練習用アプリを含む様々なプログラムを実行する。練習用アプリの実行によって、プロセッサ21は、セッションファイルを生成及び保存する環境を提供する処理と、セッションファイルに従って音声信号とメモリ番号の情報とを音色制御装置10に供給する処理とを行う。
 図6及び図7は、情報処理装置20のプロセッサ21による処理例を示すフローチャートであり、プロセッサ21が上述した練習用アプリを実行した場合の動作を説明する。プロセッサ21は、練習用アプリを起動させると、第1サーバ2にアクセスし、楽曲リストを第1サーバ2から取得する(ステップS001)。すなわち、プロセッサ21は、第1サーバ2に楽曲リストの提供要求のメッセージを生成する。通信IF23は、メッセージを送信し、メッセージの応答として、楽曲リストを第1サーバ2から受信する。プロセッサ21は、通信IF23が受信した楽曲リストを得る。
 ステップS002では、プロセッサ21は、楽曲リストの画面をディスプレイ25に表示し、ユーザ7が入力装置24を用いて行う、楽曲の選択結果の入力を受け付ける。
 ステップS003では、プロセッサ21は、選択された楽曲のセッションファイルを、第1サーバ2から取得する。すなわち、プロセッサ21は、楽曲の選択結果と、ユーザ7の識別情報であるユーザIDとを含む、セッションファイルの提供要求のメッセージを生成する。通信IF23は、提供要求のメッセージを第1サーバ2に送信する。第1サーバ2は、メッセージに含まれるユーザID及び楽曲に対応するセッションファイルを記憶装置から読み出し、情報処理装置20に送信する。プロセッサ21は、通信IF23を介してセッションファイルを取得する。このとき受信されるセッションファイルに関して、ユーザ7が楽曲に対するマーカの設定を行っていない場合には、セッションファイルは、楽曲名とURLを含むが、マーカに係る情報(時刻、マーカ名、メモリ番号)は未編集の状態である。
 ステップS004では、プロセッサ21は、セッションファイル中のURLを用いて、第2サーバ3にアクセスし、楽曲の音声付き動画ファイルの提供を受ける。このとき、音声付き動画ファイルの再生方法は、ストリーミング再生であっても、ダウンロード再生であってもよい。記憶装置22に過去にダウンロードした音声付き動画ファイルがある場合には、第2サーバ3へのアクセスがスキップされてもよい。
 ステップS005では、プロセッサ21は、楽曲、すなわち音声付き動画の再生画面25A(図2)をディスプレイに表示する。再生画面25において、表示領域251にて表示される動画は、動画共有サービス(例えばYouTube(登録商標))の埋め込み動画であり、動画の再生制御(すなわち、動画の再生、一時停止、巻き戻し、早送りなどの再生制御)の情報は、動画共有サービスのAPI(Application Programming Interface)を用いて第2サーバ3から供給される動画再生ソフトウェアに伝達され、動画再生ソフトウェアによって再生制御が行われる。表示領域251には、音声付き動画の初期画面が再生指示を待機する状態で表示される。
 ステップS006では、プロセッサ21は、楽曲に対するマーカ及びメモリ番号の少なくとも一方の編集(設定)が必要か否かを判定する。編集の要否は、例えば、編集ボタン256の押し下げの有無を以て判定される。ここで、編集が必要と判定される場合には、処理がステップS007に進み、そうでない場合には、処理がステップS009に進む。
 ステップS007では、プロセッサ21は、マーカの編集画面25Bをディスプレイ25に表示して、マーカの編集をユーザ7に行わせる。ユーザ7は、UI253又は音色制御装置10の操作子を用いて音声付き動画を再生ずることができ、楽曲を、音色制御装置10に接続されたヘッドホン5から聴取し、マーカを設定する所望の時刻を決定し、マーカの編集を行うことができる。このとき、必要に応じて、メモリ番号の編集、又は既存のメモリ番号の選択を行うこともできる。編集によって、楽曲に対する、1又は2以上のマーカ(時刻、マーカ名、メモリ番号)が決定される。
 ステップS008では、プロセッサ21は、セッションファイルの更新を行い、決定されたマーカの情報をセッションファイルに含める。また、プロセッサ21は、更新されたセッションファイルの登録処理を行う。例えば、プロセッサ21は、セッションファイルの登録要求のメッセージを生成し、通信IF23を介して第1サーバ2に送信する。第1サーバ2は、登録要求に基づいて、セッションファイルをユーザIDと関連付けて、第1サーバ2が管理する記憶装置に記憶(登録)する。これによって、セッションファイルが第1サーバ2(クラウド)で保存される。なお、セッションファイルは、記憶装置22、或いは情報処理装置20に接続されるUSBメモリ等に記憶(保存)されてもよい。ステップS008が終了すると、処理がステップS005に戻り、再生画面25Aが表示される。
 ステップS009では、プロセッサ21は、再生指示の入力の有無を判定する。再生指示の入力の有無は、例えば、UI253中の再生ボタン、又は音色制御装置10の操作子(再生ボタン)の押し下げの有無を以て判定される。再生指示の入力があったと判定される場合には、処理がステップS010に進み、そうでない場合には、処理がステップS005に戻る。このようにして、再生画面25Aが表示されている状態で、編集ボタン256、又は再生ボタンが押されるのを待ち受ける状態となる。
 ステップS010では、プロセッサは、再生指示を受けて、最初の(第1の)マーカに対応するメモリ番号の情報を、音色制御装置10に送信する。図2に示す第1のマーカのように、再生開始と同時に時刻が到来する場合があるからである。音色制御装置10では、メモリ番号が割り当てられた音色パラメータのセットの情報は、メモリ番号に対応する記憶領域に記憶され、マーカに設定された時刻から適用される音声の加工に使用される。
 ステップS010の終了後、プロセッサ21は、例えば、所定のタイマの満了を待機し、音色制御装置10において、第1のマーカに対応するメモリ番号の音色パラメータのセットを用いた音色処理(音声信号の加工)が可能な状態となるとなるのを待つ。ステップS011では、プロセッサ21は、動画再生のソフトウェアに、再生指示を供給して、音声付き動画再生を行わせる。これによって、表示領域251に動画が表示されるとともに、音声信号が音色制御装置10へ送信される。
 ステップS012では、プロセッサ21は、直近のマーカの時刻が到来したか否かを判定する。時刻が到来したと判定される場合には、処理がステップS013に進み、そうでない場合には、処理がステップS011に戻る。
 ステップS013では、プロセッサ21は、セッションファイル中の、次のマーカに対応するメモリ番号の情報を、音色制御装置10に送信する。音色制御装置10では、次のマーカに対応するメモリ番号の情報は、対応するメモリ番号の記憶領域に記憶され、次のマーカにセットされた時刻が到来すると、音色が直ちに切り替わるように、DSP(Digital Signal Processor)に対する設定が行われる。
 ステップS014では、プロセッサ21は、音声付き動画の再生が終了したかを判定する。再生が終了したと判定される場合には、処理がステップS015に進み、そうでない場合には、処理がステップS011に戻る。ステップS015では、練習用アプリの終了判定が行われる。練習用アプリの終了と判定される場合には、図6及び7の処理が終了し、そうでない場合には、処理がステップS005に戻る。
 なお、ステップS011の再生処理中において、ユーザの操作によって、音声付き動画ファイルの一時停止、早送り、巻き戻しの操作が行われた場合には、これらの指示が動画再生用のソフトウェアに与えられ、一時停止、早送り、巻き戻しの処理が行われる。なお、本実施形態では、所定時間(10秒間)の巻き戻し、という操作も行うことができる。これに関する処理は後述する。なお、図7の処理例では、ステップS010の処理が再生指示の入力を契機に行われているが、ステップS010の処理は、楽曲の選択(選択確定)を契機に実行されてもよい。
<音色制御装置>
 図8は、音色制御装置の外観構成を示し、図9は、音色制御装置の回路構成を示す。図8には、音色制御装置10の正面が示されており、正面の上側には、音声制御に係る情報(メモリ番号)の設定に用いる第1の操作子10A及び表示器11が配置されており、下側には、楽曲、すなわち音声付き動画ファイルの再生制御を操作するための第2の操作子10Bが配置されている。
 メモリ番号の設定に用いる第1の操作子10Aは、つまみ12、13a、13b、13c、ボタン14a、14b、14cを含んでいる。表示器11は、メモリ番号を表示するセブンセグメント方式の表示器である。つまみ12は、表示器11の表示内容の変更に用いるロータリーつまみである。つまみ13a、13b、13cは、音色(セレクト)の設定に用いられるロータリーつまみであり、ゲイン、レベル、及びリバーブの値の設定に使用される。但し、つまみ13a、13b、13cは、選択ボタンであるボタン14aの押し下げによって、オーバードライブ(OD)/ディストーション(DS)、モデュレーション(MOD)、ディレイの値を設定するつまみに切り替えることもできる。ボタン14bは、情報処理装置20とのBluetooth/BLEのペアリングに使用される。
 再生制御に用いる第2の操作子10Bは、再生/一時停止ボタン(PLAY/PAUSE)15と、巻き戻し(早戻し)ボタン(REW)16と、早送りボタン(FF)17とを含んでいる。例えば、巻き戻しボタン16が2回早押しされると、一定時間(10)秒の巻き戻しが行われ、所定時間より長く押されると、通常の巻き戻しが行われる。なお、音色制御装置10の側面には、音量(ボリューム)のロータリーつまみ18が設けられている。
 図9において、音色制御装置10は、CPU101と、記憶装置102と、無線装置(無線通信回路)103と、DSP(Digital Signal Processor)104と、ディジタルアナログ変換器(D/A)と、アナログディジタル変換器(A/D)とを含む。記憶装置102は、ROM及びRAMを含み、記憶装置22と同様の機能を有する。
 CPU101は、第1の操作子10Aの操作(設定)によって入力された音色制御に係る情報、及び第2の操作子10Bの操作によって入力された再生制御に係る情報、音量のロータリーつまみ18からの値が入力される。情報は、スイッチの状態、可変抵抗器の値、ロータリーエンコーダの値などによって示される。また、CPU101は、表示器11にメモリ番号を表示する。
 無線装置103は、CPU101と、UART(Universal Asynchronous Receiver/Transmitter)を介して接続されている。無線装置103は、所定の無線規格(Bluetooth及びBLE)をサポートする通信回路であり、情報処理装置20の無線通信IF27とBluetooth及びBLEの無線回線を通じて接続され、第1の操作子10A及び第2の操作子10Bの操作内容を示す情報の送信、楽曲の音声信号及びメモリ番号の情報、メモリ番号の受信などに使用される。なお、情報処理装置20と無線装置103を用いてやりとりされる情報は、USB110を用いて送受信されてもよい。
 音色制御装置10は、エレキギター6からのケーブルのプラグが挿入されるジャック(端子)6aと、AUX端子6bと、ヘッドホン5の端子5aとを有する。端子6aから入力されるエレキギター6の演奏音のアナログ音声信号は、A/D106によってディジタル信号に変換され、DSP104に入力される。一方、無線装置103が無線回線を通じて受信する楽曲の音声信号(ディジタル信号)は、無線装置103が有するD/A103aによってアナログ信号に変換される。このアナログ信号は、AUX端子6bとA/D106との間に設けられた加算器105に加算され、A/D106に入力されてディジタル信号に変換され、DSP104に入力される。
 DSP104は、CPU101の制御下で、エレキギター6の演奏音の音声信号及び楽曲の再生音の音声信号の少なくとも一方に、メモリ番号の音色パラメータのセットに基づく音色制御(音声信号の加工)を施す回路である。無線装置103で受信されるメモリ番号の情報は、UART111を介してCPU101に与えられ、CPU101は、記憶装置102に設けられた、メモリ番号に対応する記憶領域に音色パラメータのセットの情報を記憶する。音色パラメータのセットの情報は、DSP104における音声信号加工用の回路形成に利用され、メモリ番号が適用される時刻から音声加工(音色制御)のために使用される。DSP104は、演奏音と再生音との合成(ミキシング)を行い、合成音のディジタル音声信号をD/A107に入力する。D/A107は、合成音のディジタル音声信号をアナログ音声信号に変換する。アナログ音声信号は、ヘッドホン5の端子5aを介してヘッドホン5に接続され、合成音がヘッドホン5のスピーカから出力される。
 図10は、情報処理装置20と音色制御装置10とのやりとりの説明図である。情報処理装置20は、プロセッサ21がプログラムを実行することによって、OS21aと、練習用アプリ21bを備えた装置として動作する。第2サーバ3から提供される音声付き動画ファイル(ストリーミング音声付き動画)は、練習用アプリ21bの画面における埋め込み動画として提供される。
 音声付き動画の再生制御は、音色制御装置10の第2の操作子10Bにおける、再生ボタン15、巻き戻しボタン16、及び早送りボタン17の操作によって行われる。ボタン操作による再生制御の情報、例えば、再生ボタン15の押し下げによってCPU101が発行する再生指示は、無線装置103を介して情報処理装置20へ送信される。
 再生制御に係る情報は、Bluetooth(Bluetooth4.2)がサポートするAVRCP(Audio/Video Remote Control Profile)を用いて行われる。AVRCPは、AV機器のリモコン機能を実現するためのプロファイルである。再生制御に係る情報は、練習用アプリ21bを介して動画再生用のソフトウェア(第2サーバ)に与えられ、第2サーバ3が動画再生の制御を行う。
 また、音声付き動画に基づく楽曲のディジタル音声信号は、Bluetooth(Bluetooth2.1及び3.0)がサポートするA2DPを用いて音色制御装置10に供給される。A2DPは、音声をレシーバー付きヘッドホンに伝送するためのプロファイルである。これに対し、音色制御の設定に係る情報は、Bluetooth4.0(BLE)がサポートするBLE-MIDI(MIDI over Bluetooth Low Energy)技術を用いて送受信される。
 ここで、一定時間(例えば、10秒、但し、10秒より長くても短くてもよい)の巻き戻し動作を、図11を用いて説明する。情報処理装置20において、音声付き動画の再生が行われている状態において、巻き戻しボタン16を用いて、一定時間の巻き戻し操作が行われたとする(図11の<1>)。すると、巻き戻し指示が練習用アプリ21bを介して動画再生ソフトウェアに与えられ、音声付き動画の巻き戻しが行われる。このとき動画再生ソフトウェアは、巻き戻された音声付き動画の現在時刻を出力し、OS21aは、現在時刻をSSP(Song Position Pointer)に変換し、SSPを音色制御装置10に送信する(図11の<2>)。SSPは、無線装置103を介してCPU101に与えられる。
 CPU101は、SSPを取得すると(図11の<3>)、SSPの値が予定時間(10秒前の時刻)まで遡っているかを判定する(図11の<4>)。このとき、予定時間まで遡っていると判定される場合には、CPU101は処理を終了し、そうでない場合には、再度の巻き戻し指示を送信する(図11の<1>)
 図12は、2以上のメモリ番号の切り替え処理の説明図である。上述したように、楽曲に対して第1~第3のマーカが設定された場合を想定する。この場合、練習用アプリ21b(プロセッサ21)は、第1のマーカの時刻の到来前に、例えば楽曲が選択されたことを契機に第1のマーカに対応するメモリ番号“01”(第1メモリ番号)を音色制御装置10に送る。音色制御装置10では、CPU101が、メモリ番号“01”の記憶領域に記憶される第1のマーカの音色パラメータのセットの情報をDSP104に設定することで、第1のマーカ対応のエフェクタ回路をDSP104に生成する。第1のマーカ対応のエフェクタ回路には、第1の時刻からエレキギター6の演奏音の音声信号が入力され、エフェクトの付与(音色制御)が行われ、エフェクト付与後の音声信号が出力される。
 その後、第1のマーカの時刻が到来すると、練習用アプリ21b(プロセッサ21)は、第1のマーカの時刻の到来を契機に、第2のマーカに対応するメモリ番号“02”(第2メモリ番号)を音色制御装置10に送る。音色制御装置10では、CPU101が、メモリ番号“02”の記憶領域に記憶される第2のマーカの音色パラメータのセットの情報をDSP104に設定することで、第2のマーカ対応のエフェクタ回路をDSP104に生成する。このとき、エレキギター6の音声信号は、双方のエフェクタ回路に入力され、スイッチ(SW)が第2のマーカの時刻が到来するまでは、第1のマーカ対応のエフェクタからの信号を出力し、第2のマーカの時刻が到来すると、出力を第2のマーカ対応のエフェクタからの信号に切り替える。これによって、第1のマーカによる音色制御から第2のマーカによる音色制御へシームレスな切替を行うことができる。
 第2のマーカの時刻が到来した場合には、第3のマーカに対応するメモリ番号の情報が情報処理装置20から音色制御装置10へ送信され、第3のマーカに対応するエフェクタがDSP104に生成され、第3のマーカの時刻から、第3のマーカに対するエフェクタが適用される。
 <実施形態の作用効果>
 実施形態による情報処理システムでは、情報処理装置20のプロセッサ21(制御部)が、楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、1又は2以上の時刻の夫々から行う音色制御に係る情報を含むセッションファイルを生成する。また、情報処理装置20の無線通信IF27(送信部)は、楽曲の再生音と楽器の演奏音との合成音を出力する音色制御装置10(装置)に対し、楽曲の音声信号と、ファイル中の音色制御に係る情報を送信する。これによって、ユーザ7の所望の時刻で所望のメモリ番号による音色制御を、エレキギター6(楽器)の演奏音と楽曲の再生音との少なくとも一方(実施形態ではエレキギター6の演奏音)に施すことができる。
 実施形態の情報処理装置20によれば、プロセッサ21(制御部)は、楽曲の再生時間を示す情報が表示される、時刻及び音色制御に係る情報の設定用画面(再生画面25A、編集画面25B)をディスプレイ25(表示装置)に表示することができる。これによって、ユーザ7に、マーカの設定環境を提供することができる。
 実施形態の情報処理装置20によれば、プロセッサ21(制御部)は、楽曲のURL(楽曲のデータの保存位置を示す情報)に基づいて、情報処理装置20とネットワーク1を介して接続された第2サーバ3(楽曲のデータを配信する配信装置)から楽曲のデータを取得することができる。実施形態では、楽曲が、URLによって一意に決まる構成を採用する。これにより、楽曲の管理が簡易となる。また、実施形態では、楽曲のデータは、前記音声付き動画ファイルにおける音声データであるが、音声ファイルであってもよい。
 実施形態の情報処理装置20によれば、プロセッサ21(制御部)は、URLを、情報処理装置20とネットワーク1を介して接続された、第1のサーバ2(ファイルの管理装置)から取得する。また、プロセッサ21は、時刻を示す情報及び音色制御に係る情報と、URLとを含むセッションファイルの保存を、第1サーバ2に要求する。このように、第1サーバ2に、楽曲及びセッションファイルを管理してもらうことができる。
 なお、プロセッサ21が、時刻を示す情報及び音色制御に係る情報と、URLとを含むセッションファイルを、情報処理装置20が有する記憶装置22に記憶してもよい。記憶装置は、情報処理装置20に装着されるUSBメモリなどの記憶装置であってもよい。
 また、情報処理装置20では、無線通信IF27(送信部)は、時刻が、第1の時刻(00:00)及び第2の時刻(00:10)を含む場合に、楽曲の選択を契機に第1の時刻の到来前に第1の時刻に対応する音色制御に係る情報を音色制御装置10へ送信し、楽曲の再生における第1の時刻の到来を契機に、第2の時刻に対応する音色制御に係る情報を音色制御装置10へ送信する。これによって、音色制御のシームレスな切り替えが可能となる。
 また、情報処理装置20では、プロセッサ21は、音色制御内容の編集画面をディスプレイ25に表示し、音色制御装置10から情報処理装置20に送信される、音色制御の内容を示す情報(音色制御の設定に係る情報)を受け付ける。これによって、メモリ番号の設定を、音色制御装置10の操作を通じて行うことができる。
 情報処理装置20は、Bluetooth(Bluetooth2.1又は3.0)及びBLE(Bluetooth4.0)を用いて音色制御装置10と通信可能であり、プロセッサ21は、AVRCPを用いた前記楽曲の再生に係る制御情報(再生制御の情報)を音色制御装置10から受け付け、BLE-MIDIを用いた音色の編集用の情報を音色制御装置10から受け付ける。このように、音色制御の設定に関する情報はBLEを用いて送信することができる。
 なお、プロセッサ21やCPU101が行う処理は、複数のCPU(プロセッサ)によって行うのでも、マルチコア構成のCPUによって行うのでもよい。また、プロセッサ21が行う処理は、CPU以外のプロセッサ(DSPやGPUなど)、プロセッサ以外の集積回路(ASICやFPGAなど)、或いはプロセッサと集積回路との組み合わせ(MPU、SoCなど)によって実行されてもよい。
 <変形例>
 図13~図15は、変形例における情報処理装置20の処理例を示すフローチャートである。図13に示す処理の前提として、セッションファイルには、編集済みの複数のマーカ(複数の時刻及び複数の時刻の夫々に対応するメモリ番号)が記憶されていると仮定する。
 一例として、図4に示すように、セッションファイルは、マーカ(1)、(2)及び(3)を有し、マーカ(1)、(2)及び(3)の夫々に対応する複数の時刻、すなわち時刻“00:00:00”(第1の時刻)と、時刻“00:10:00”(第2の時刻)と、時刻“00:33:00”(第3の時刻)とを含んでいる。第1~第3の時刻のうち、到来時刻の早い順で、最初の時刻と2番目の時刻に対応する第1及び第2の時刻は第1グループに属する旨の設定情報が、記憶装置22に記憶されている。また、第2の時刻の次の時刻である第3の時刻は第2のグループに属する旨の設定情報が記憶装置22に記憶されている。
 図13に示す処理のうち、ステップS001~S005の処理は、実施形態における処理(図6)と同様である。但し、変形例では、ステップS003とステップS004との間に、ステップS003Aが設けられている点で、実施形態と異なる。また、図14におけるステップS009、S011、S014、及びS015は、図7に示した処理と同じである。但し、図14に示す変形例では、ステップS010がなく、ステップS012及びS013の代わりに、ステップS012A及びS013Aが設けられている点で、実施形態と異なる。
 また、図15に示すように、変形例におけるセッションファイルの編集処理は、編集ボタン256の押し下げのような、編集イベントの発生を契機に実行される割込処理であり、図6に示したステップS007及びS008と同様の処理が実行され、処理が終了すると、処理がステップS001(図13)に戻る。
 ステップS003Aでは、ステップS003で取得されたセッションファイル中の複数の時刻のうち、第1のグループに属する所定数の時刻、すなわち第1の時刻及び第2の時刻の夫々に対応するメモリ番号(音色制御に係る情報)が、音色制御装置10に送信される。音色制御装置10では、CPU101が、マーカ(1)のメモリ番号“01”に対応する記憶領域に記憶された音色パラメータのセットに基づく回路と、マーカ(2)のメモリ番号“02”に対応する記憶領域に記憶された音色パラメータのセットに基づく回路とを、並列にDSP104に構築する制御を行う。なお、ステップS003Aの処理は、ステップS004又はステップS005の後に実行されてもよく、ステップS004と並列に実行されてもよい。
 その後、ステップS009において、再生指示が入力されたと判定すると、プロセッサ21は、音声付き動画の再生を行う。この音声付き動画の再生時間において、現在時刻が第1のグループにおける最後の時刻である第2の時刻が到来すると(ステップS012AのYes)、プロセッサ21は、次のマーカ(3)のメモリ番号“08”が属する第2のグループのメモリ番号を音色制御装置10に送信する(ステップS013)。なお、変形例では、第2のグループに属するメモリ番号は、メモリ番号“08”だけであるので、1つのメモリ番号“08”が送信される。
 但し、第1のグループ及び第2のグループの夫々に属するマーカの数、すなわち、時刻の数は、1又は2以上の適宜の数を設定可能である。よって、セッションファイルが、例えば二つのマーカ(第1の時刻及び第2の時刻)を含む場合は、楽曲の選択を契機に第1の時刻に対応するメモリ番号が送信され(ステップS003A)、第1の時刻の到来を契機に(ステップS012AのYes)、第2の時刻に対応するメモリ番号が送信される(ステップS013A)。
 上述した変形例によると、無線通信IF27(送信部)は、楽曲の再生時間における複数の時刻の夫々にメモリ番号(音色制御に係る情報)が設定されている場合に、楽曲の選択を契機に、複数の時刻の中から到来が早い順で選ばれた所定数の時刻(例えば、第1及び第2の時刻)に対応するメモリ番号を送信する。そして、楽曲の再生において、所定数の時刻の中で最後の時刻(第2の時刻)の到来を契機に、最後の時刻の次に到来する、複数の時刻中の時刻(第3の時刻)に対応する音色制御に係る情報を送信することができる。
10・・・音色制御装置
20・・・情報処理装置
21・・・プロセッサ
22・・・記憶装置
101・・・CPU
102・・・記憶装置

Claims (15)

  1.  楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、前記1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成する制御部と、
     前記楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、前記楽曲の音声信号と、前記ファイル中の前記音色制御に係る情報を送信する送信部と
    を含む情報処理装置。
  2.  前記制御部は、前記楽曲の再生時間を示す情報が表示される、前記時刻及び前記音色制御に係る情報の設定用画面を表示装置に表示する
    請求項1に記載の情報処理装置。
  3.  前記制御部は、前記楽曲のデータの保存位置を示す情報に基づいて、前記情報処理装置とネットワークを介して接続された前記楽曲のデータを配信する配信装置から前記楽曲のデータを取得する
    請求項1又は2に記載の情報処理装置。
  4.  前記楽曲が、前記楽曲のデータの保存位置を示す情報によって一意に決まる
    請求項1から3のいずれか一項に記載の情報処理装置。
  5.  前記楽曲のデータは、音声付き動画ファイルにおける音声データである
    請求項1から4のいずれか一項に記載の情報処理装置。
  6.  前記制御部は、前記楽曲のデータの保存位置を示す情報を、前記情報処理装置とネットワークを介して接続された、ファイルの管理装置から取得する
    請求項3から5のいずれか一項に記載の情報処理装置。
  7.  前記制御部は、前記時刻を示す情報及び前記音色制御に係る情報と、前記楽曲の保存位置を示す情報とを含む前記ファイルの保存を、前記ファイルの管理装置に要求する
    請求項6に記載の情報処理装置。
  8.  前記制御部は、前記時刻を示す情報及び前記音色制御に係る情報と、前記楽曲の保存位置を示す情報とを含む前記ファイルを、前記情報処理装置が有する記憶装置、及び前記情報処理装置に装着される記憶装置の少なくとも一方に記憶する
    請求項3から7のいずれか一項に記載の情報処理装置。
  9.  前記送信部は、前記楽曲の再生時間における複数の時刻の夫々に音色制御に係る情報が設定されている場合において、前記楽曲の選択を契機に、前記複数の時刻の中から到来が早い順で選ばれた所定数の時刻に対応する音色制御に係る情報を送信し、前記楽曲の再生において、前記所定数の時刻の中で最後の時刻の到来を契機に、前記最後の時刻の次に到来する前記複数の時刻中の時刻に対応する音色制御に係る情報を送信する
    請求項1から8のいずれか一項に記載の情報処理装置。
  10.  前記複数の時刻が第1の時刻及び第2の時刻を含む場合において、前記楽曲の選択を契機に前記第1の時刻に対応する音色制御に係る情報を前記装置へ送信し、前記楽曲の再生における前記第1の時刻の到来を契機に、前記第2の時刻に対応する音色制御に係る情報を前記装置へ送信する
    請求項9に記載の情報処理装置。
  11.  前記複数の時刻が第1の時刻、第2の時刻及び第3の時刻を含む場合において、前記楽曲の選択を契機に前記第1の時刻及び前記第2の時刻に対応する音色制御に係る情報を前記装置へ送信し、前記楽曲の再生における前記第2の時刻の到来を契機に、前記第3の時刻に対応する音色制御に係る情報を前記装置へ送信する
    請求項9に記載の情報処理装置。
  12.  前記制御部は、音色制御内容の編集画面を表示装置に表示し、前記装置から前記情報処理装置に送信される、前記音色制御の内容を示す情報を受け付ける
    請求項1から9のいずれか一項に記載の情報処理装置。
  13.  前記情報処理装置は、Bluetooth及びBLEを用いて前記装置と通信可能であり、
     前記制御部は、AVRCPを用いた前記楽曲の再生に係る制御情報を前記装置から受け付け、BLE-MIDIを用いた音色の編集用の情報を前記装置から受け付ける
    請求項10に記載の情報処理装置。
  14.  情報処理装置が、
     楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、
     前記1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成し、
     前記楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、前記楽曲の音声信号と、前記ファイル中の前記音色制御に係る情報とを送信する
    ことを含む情報処理方法。
  15.  情報処理装置のコンピュータに、
     楽曲の再生時間における1又は2以上の時刻を示す情報の入力を受け付け、
     前記1又は2以上の時刻の夫々から行う音色制御に係る情報を含むファイルを生成し、
     前記楽曲の再生音と楽器の演奏音との合成音を出力する装置に対し、前記楽曲の音声信号と、前記ファイル中の前記音色制御に係る情報とを送信する
    ことを実行させるプログラム。
PCT/JP2020/033637 2020-09-04 2020-09-04 情報処理装置及び情報処理方法 WO2022049732A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2020/033637 WO2022049732A1 (ja) 2020-09-04 2020-09-04 情報処理装置及び情報処理方法
EP20952467.7A EP4120239A4 (en) 2020-09-04 2020-09-04 INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US17/920,015 US11922913B2 (en) 2020-09-04 2020-09-04 Information processing device, information processing method, and non-transitory computer readable recording medium
CN202080099904.8A CN115461809A (zh) 2020-09-04 2020-09-04 信息处理装置以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033637 WO2022049732A1 (ja) 2020-09-04 2020-09-04 情報処理装置及び情報処理方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/920,015 A-371-Of-International US11922913B2 (en) 2020-09-04 2020-09-04 Information processing device, information processing method, and non-transitory computer readable recording medium
US18/396,477 Continuation US20240135909A1 (en) 2023-12-26 Information processing device, information processing method, and non-transitory computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2022049732A1 true WO2022049732A1 (ja) 2022-03-10

Family

ID=80490738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033637 WO2022049732A1 (ja) 2020-09-04 2020-09-04 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US11922913B2 (ja)
EP (1) EP4120239A4 (ja)
CN (1) CN115461809A (ja)
WO (1) WO2022049732A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230144216A1 (en) * 2020-09-04 2023-05-11 Roland Corporation Information processing device, information processing method, and non-transitory computer readable recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091804A (ja) * 2004-08-26 2006-04-06 Yamaha Corp 自動演奏装置及びプログラム
JP2007121876A (ja) * 2005-10-31 2007-05-17 Yamaha Corp 音楽素材加工方法及び音楽素材加工システム
JP2008191546A (ja) 2007-02-07 2008-08-21 Yamaha Corp 音楽プレーヤー
US20180090114A1 (en) * 2016-09-28 2018-03-29 Seung Jae Lee Control apparatus for guitar effector loop using cellularphone

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5092216A (en) * 1989-08-17 1992-03-03 Wayne Wadhams Method and apparatus for studying music
JP3381510B2 (ja) * 1996-03-27 2003-03-04 ヤマハ株式会社 カラオケ装置
US5886274A (en) * 1997-07-11 1999-03-23 Seer Systems, Inc. System and method for generating, distributing, storing and performing musical work files
JP2000029462A (ja) * 1998-05-18 2000-01-28 Sony Corp 情報処理装置および情報処理方法、並びに提供媒体
DE60018626T2 (de) * 1999-01-29 2006-04-13 Yamaha Corp., Hamamatsu Vorrichtung und Verfahren zur Eingabe von Steuerungsdateien für Musikvorträge
KR100424231B1 (ko) * 1999-03-08 2004-03-25 파이쓰, 인크. 데이터 재생 장치, 데이터 재생 방법 및 정보 단말기
JP3178463B2 (ja) * 1999-08-31 2001-06-18 ヤマハ株式会社 電子情報処理方法及びシステム並びに記録媒体
WO2003046734A1 (en) * 2001-11-21 2003-06-05 Line 6, Inc. Multimedia presentation that assists a user in the playing of a musical instrument
JP3922247B2 (ja) * 2003-11-28 2007-05-30 ヤマハ株式会社 演奏制御データ生成装置およびプログラム
JP2006154777A (ja) * 2004-10-27 2006-06-15 Victor Networks Co Ltd 音楽生成システム
US7772477B2 (en) * 2005-03-17 2010-08-10 Yamaha Corporation Electronic music apparatus with data loading assist
JP4321476B2 (ja) * 2005-03-31 2009-08-26 ヤマハ株式会社 電子楽器
JP5243042B2 (ja) 2005-12-09 2013-07-24 ソニー株式会社 音楽編集装置及び音楽編集方法
WO2012064847A1 (en) * 2010-11-09 2012-05-18 Smule, Inc. System and method for capture and rendering of performance on synthetic string instrument
JP5842545B2 (ja) * 2011-03-02 2016-01-13 ヤマハ株式会社 発音制御装置、発音制御システム、プログラム及び発音制御方法
RU2502119C1 (ru) * 2011-04-06 2013-12-20 Касио Компьютер Ко., Лтд. Музыкальный звукогенерирующий инструмент и машиночитаемый носитель
JP2014071214A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 音楽再生装置、音楽再生システム、音楽再生方法
JP2014071215A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 演奏装置、演奏システム、プログラム
JP2014071226A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 音楽再生システム、音楽再生方法
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
SE538408C2 (en) * 2015-02-03 2016-06-14 100 Milligrams Holding Ab A mix instructions file for controlling a music mix, a computer program product and a computer device
US11488569B2 (en) * 2015-06-03 2022-11-01 Smule, Inc. Audio-visual effects system for augmentation of captured performance based on content thereof
US10803118B2 (en) * 2016-03-25 2020-10-13 Spotify Ab Transitions between media content items
CN106251890B (zh) * 2016-08-31 2019-01-22 广州酷狗计算机科技有限公司 一种录制歌曲音频的方法、装置和系统
JP6953746B2 (ja) * 2017-03-02 2021-10-27 ヤマハ株式会社 電子音響装置および音色設定方法
US10062367B1 (en) * 2017-07-14 2018-08-28 Music Tribe Global Brands Ltd. Vocal effects control system
CN108766408A (zh) * 2018-05-24 2018-11-06 广州音乐猫乐器科技有限公司 一种电子乐器合奏系统和方法
CN109192218B (zh) * 2018-09-13 2021-05-07 广州酷狗计算机科技有限公司 音频处理的方法和装置
CN115461809A (zh) * 2020-09-04 2022-12-09 罗兰株式会社 信息处理装置以及信息处理方法
CN114005424A (zh) * 2021-09-16 2022-02-01 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006091804A (ja) * 2004-08-26 2006-04-06 Yamaha Corp 自動演奏装置及びプログラム
JP2007121876A (ja) * 2005-10-31 2007-05-17 Yamaha Corp 音楽素材加工方法及び音楽素材加工システム
JP2008191546A (ja) 2007-02-07 2008-08-21 Yamaha Corp 音楽プレーヤー
US20180090114A1 (en) * 2016-09-28 2018-03-29 Seung Jae Lee Control apparatus for guitar effector loop using cellularphone

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4120239A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230144216A1 (en) * 2020-09-04 2023-05-11 Roland Corporation Information processing device, information processing method, and non-transitory computer readable recording medium
US11922913B2 (en) * 2020-09-04 2024-03-05 Roland Corporation Information processing device, information processing method, and non-transitory computer readable recording medium

Also Published As

Publication number Publication date
EP4120239A1 (en) 2023-01-18
CN115461809A (zh) 2022-12-09
US11922913B2 (en) 2024-03-05
US20230144216A1 (en) 2023-05-11
EP4120239A4 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
CA2434777C (en) Music data providing apparatus, music data reception apparatus and program
JP3846344B2 (ja) セッション装置およびその制御方法を実現するためのプログラム
WO2015002238A1 (ja) ミキシング管理装置及びミキシング管理方法
US8232468B2 (en) Electronic musical apparatus for reproducing received music content
JP4075901B2 (ja) 楽曲データ生成システム及びプログラム
WO2022049732A1 (ja) 情報処理装置及び情報処理方法
JP2006119320A (ja) 電子音楽装置システム、サーバ側電子音楽装置およびクライアント側電子音楽装置
JP2014071226A (ja) 音楽再生システム、音楽再生方法
JP2013024915A (ja) ドングル(dongle)装置および再生システム
JP5652065B2 (ja) コンテンツ再生システム、制御装置及び再生装置
JP5842383B2 (ja) カラオケシステム及びカラオケ装置
US20240135909A1 (en) Information processing device, information processing method, and non-transitory computer readable recording medium
JP2008304821A (ja) 楽曲合奏公開システム
JP6565554B2 (ja) カラオケシステム、サーバ、カラオケ装置
JP5233134B2 (ja) 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム
JP2015225302A (ja) カラオケ装置
JP6343921B2 (ja) プログラム及び楽音発生制御方法
JP6783065B2 (ja) 通信端末装置、サーバ装置及びプログラム
JP2014071214A (ja) 音楽再生装置、音楽再生システム、音楽再生方法
JP2011197664A (ja) 音楽ファイル再生装置及びシステム
JP3178462B2 (ja) 楽曲データ配信装置
JP2010054856A (ja) 電子楽器
JP2014048471A (ja) サーバ、音楽再生システム
JP4158634B2 (ja) 楽曲データ編集装置、楽曲データ配信装置及びプログラム
JP2014071215A (ja) 演奏装置、演奏システム、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20952467

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020952467

Country of ref document: EP

Effective date: 20221012

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP