WO2010092140A2 - Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire - Google Patents

Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire Download PDF

Info

Publication number
WO2010092140A2
WO2010092140A2 PCT/EP2010/051763 EP2010051763W WO2010092140A2 WO 2010092140 A2 WO2010092140 A2 WO 2010092140A2 EP 2010051763 W EP2010051763 W EP 2010051763W WO 2010092140 A2 WO2010092140 A2 WO 2010092140A2
Authority
WO
WIPO (PCT)
Prior art keywords
module
signals
control
keystrokes
file
Prior art date
Application number
PCT/EP2010/051763
Other languages
English (en)
Other versions
WO2010092140A3 (fr
Inventor
Dominique David
Original Assignee
Movea S.A
Commissariat A L'energie Atomique Et Aux Energies Alternatives
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Movea S.A, Commissariat A L'energie Atomique Et Aux Energies Alternatives filed Critical Movea S.A
Priority to CN201080011162.5A priority Critical patent/CN102598117B/zh
Priority to JP2011549574A priority patent/JP5945815B2/ja
Priority to US13/201,175 priority patent/US8880208B2/en
Priority to KR1020117021349A priority patent/KR101682736B1/ko
Priority to EP10706971A priority patent/EP2396788A2/fr
Publication of WO2010092140A2 publication Critical patent/WO2010092140A2/fr
Publication of WO2010092140A3 publication Critical patent/WO2010092140A3/fr

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0625Emitting sound, noise or music
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0686Timers, rhythm indicators or pacing apparatus using electric or electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • G10H2220/206Conductor baton movement detection used to adjust rhythm, tempo or expressivity of, e.g. the playback of musical pieces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission

Definitions

  • the invention relates to controlling the scrolling of an audio file in real time.
  • Electronic musical synthesis devices allow to play one or more synthetic instruments (made from acoustic models or samples of piano sounds, guitar, other stringed instruments, saxophone or other wind instruments, etc.) using a note input interface.
  • the notes entered are converted into signals by a synthesis device connected to the interface by a connector and a software interface using the MIDI standard (Musical Instrument Digital Interface).
  • MIDI Musical Instrument Digital Interface
  • Automatic programming of the instrument or instruments for generating sets of notes corresponding to a partition can be performed using software provided for this purpose.
  • the MAX / MSP programming software is one of the most popular and allows you to create such an application for the interpretation of musical scores.
  • Such an application includes a graphical programming interface which makes it possible to choose and control note sequences and to control the DSP (Digital Signal Processor) of musical synthesis.
  • DSP Digital Signal Processor
  • the existing devices do not allow this control of the scrolling rhythm of the different types of audio files used (MP3 - MPEG (Moving Picture Expert Group) 1/2 Layer 3, WAV - WAVeform audio format, WMA - Windows Media Audio .. .) to reproduce pre-recorded music on electronic equipment.
  • No device of the prior art can perform this control in real time under musicality conditions that are acceptable.
  • the PCT application WO98 / 19294 deals only with the control of the scrolling rhythm of MIDI files and not with substantially continuously encoded signal files, such as mp3 or wav files.
  • the present invention provides an answer to these limitations of the prior art by using an algorithm for controlling the scrolling of the automatic score which makes it possible to ensure satisfactory musical rendering.
  • the present invention discloses a device for controlling by a user the rate of movement of a pre-recorded file of signals to be reproduced and the intensity of said signals, said signals being encoded in said pre-recorded file in a substantially continuous manner, said device comprising a first control keys input interface module, a second input module of said signals to be reproduced, a third module for temporal control of said prerecorded signals and a device for reproducing the inputs of the first three modules, said control device being characterized in that said second module is able to be programmed to determine the times when are waited for control keystrokes of the file scroll rate, and in that said third module is able to calculate for a number of control strikes a corrected velocity factor (CSF) relative to strikes preprogrammed in the second module and keystrokes actually entered in the first module and a relative intensity factor of the velocities of said keystrokes actually entered and expected then to adjust the rate of movement of said second module to adjust said corrected speed factor (CSF) to subsequent keystroke
  • the first module comprises a MIDI interface.
  • the first module comprises a motion capture sub-module and a sub-module for analysis and interpretation of gestures receiving as input the outputs of the motion capture sub-module.
  • the motion capture sub-module performs said motion capture according to at least a first and a second axis, the sub-module for analyzing and interpreting gestures comprises a filtering function, a significant gesture detection function.
  • the first module comprises an interface for capturing neuronal signals from the user's brain and a sub-module for interpreting said neural signals.
  • the velocity of the typing input is calculated from the deviation of the signal output of the second sensor.
  • the first module further comprises a submodule capable of interpreting the user's gestures whose output is used by the third module to control a characteristic of the audio output chosen from the group constituted by the vibrato and the tremolo.
  • the second module comprises a tag placement sub-module in the prerecorded signal file to be reproduced at the times when the file's scroll rhythm control keystrokes are expected, said tags being generated automatically according to the rhythm of the files.
  • pre-recorded signals that can be moved by a MIDI interface.
  • the value chosen in the third module for adjusting the running speed of the second module is equal to a value chosen from a set of calculated values, one of whose limits is calculated by applying a speed factor CSF equal to the ratio of the time interval between the next tag and the previous tag minus the time interval between the current tap and the previous tap at the time interval between the current tap and the previous tap and whose other values are calculated by interpolation linear between the current value and the value corresponding to that of the terminal used for applying the CSF speed factor.
  • the value chosen in the third module to adjust the scrolling speed of the second module is equal to the value corresponding to that of the terminal used for the application of the CSF speed factor.
  • the invention also discloses a method of controlling by a user the rate of movement of a prerecorded file of signals to be reproduced and the intensity of said signals, said signals being encoded in said prerecorded file substantially continuously, said method comprising a first control keys input interface step, a second input step of said signals to be reproduced, a third step of time control of said prerecorded signals and a step of reproducing the inputs of the first three steps, said method of control being characterized in that the said second step is able to be programmed to determine the times when are expected control keystrokes of the file scroll rate, and in that the said third step is able to calculate for a number of control strokes a corrected speed factor (CSF) relative to preprogr strikes ammées in the second step and keystrokes actually entered in the first step and a relative intensity factor velocities of said keystrokes actually entered and expected then adjust the scroll rate in said second step to adjust said corrected speed factor (CSF ) to the following keystrokes at a chosen value and the
  • Another advantage of the invention is that it makes it possible to control the scrolling of the prerecorded audio files intuitively.
  • New scroll control algorithms can also be easily integrated into the device of the invention.
  • the control of the sound power of the prerecorded audio files can also be carried out in a simple manner by the device of the invention.
  • FIGS. 1A, 1B and 1C show, in a simplified manner, a functional architecture of a device for controlling the running speed of a prerecorded audio file according to three embodiments of the invention
  • FIG. 2 represents the flowchart of a low-pass filtering of the signals of a motion sensor in one of the embodiments of the invention as represented in FIG. 1B;
  • FIGS. 3A and 3B show two cases of implementation of the invention in which respectively the typing speed is higher / lower than that of running the audio band;
  • FIG. 4 represents a flowchart of the processes of the measurement function of the velocity of the striking in one embodiment of the invention
  • FIG. 5 represents a general flowchart of the treatments in one embodiment of the invention.
  • FIG. 6 represents a detail of FIG. 5 which shows the rhythmic control points desired by a user of a device according to one embodiment of the invention
  • FIG. 7 represents an expanded flowchart of a time control method in one embodiment of the invention.
  • FIGS. 1A, 1B and 1C show three embodiments of the invention which differ only in the control keys input interface module 10.
  • the characteristics of the module 20, the input of the signals to be reproduced, the timing control module 30 and the audio output module 40 are described below.
  • At least three input interface modules are possible. They are respectively represented in FIGS. 1A, 1B and 1C.
  • Each input module comprises a submodule 1 which captures interaction commands with the device and a part that makes the input and the translation of these modules. commands in the device.
  • MIDI controllers 1 10A are control surfaces that may have buttons, faders (linear faders for adjusting the level of sound sources, pads (touch sensitive surfaces) or rotary knobs.These controllers are not sound management or playback devices, they only produce MIDI data. Other types of control surfaces can be used, such as a virtual harp, guitar or saxophone. These controllers can have a display screen.Whatever the elements that make up the control surface, all buttons, sliders, faders, keys, pads are assignable to each element of the visual interface of the software through setups (configuration files) . The sound controls can also be coupled with lighting controls.
  • a MIDI controller 1 1 OA is connected to the time control processor 30 through an interface whose hardware part is a 5-pin DIN connector. Several MIDI controllers can be connected to the same computer by being chained together.
  • the communication link is set at 31,250 bauds.
  • the coding uses 128 tone values (from 0 to 127), the notes messages ranging between 8,175 Hz and 12544 Hz with a half-tone resolution.
  • FIG. 1B there is shown a motion capture assembly 10B comprising a Movea TM MotionPod TM motion sensor 1 10B and a motion analysis interface 120B.
  • An AirMouse TM or GyroMouse TM can also be used in place of the MotionPod, as well as other motion sensors.
  • a MotionPod comprises a tri-axis accelerometer, a tri-axis magnetometer, a pre-processing capability for preforming signals from the sensors, a radiofrequency transmission module of said signals to the processing module itself and a battery.
  • This motion sensor is called "3A3M" (three axes of accelerometer and three axes of magnetometer).
  • Accelerometers and magnetometers are small, low-power, low-cost commercial micro-sensors, such as a Kionix TM three-way accelerometer (KXPA4 3628) and HoneyWell TM magnetometers of the HMC1041 Z type (1). vertical track) and HMC1042L for the 2 horizontal tracks.
  • the raw signals are transmitted by a radio frequency protocol in the Bluetooth TM band (2, 4GHz) optimized for consumption in this type of applications.
  • the data is therefore raw to a controller that can receive data from a set of sensors. They are read by the controller and made available software.
  • the sampling rate is adjustable. By default, it is set at 200 Hz. Higher values (up to 3000 Hz or more) can nevertheless be envisaged, allowing greater accuracy in the detection of shocks, for example.
  • the radio frequency protocol of the MotionPod makes it possible to guarantee the provision of the data to the controller with a controlled delay, which should not exceed 10ms (at 200 Hz), which is important for the music.
  • An accelerometer of the above type makes it possible to measure the longitudinal displacements along its three axes and, by transformation, angular displacements (except those resulting from a rotation around the direction of the terrestrial gravitational field) and orientations with respect to a Cartesian reference system in three dimensions.
  • a set of magnetometers of the above type makes it possible to measure the orientation of the sensor to which it is fixed with respect to the terrestrial magnetic field and thus displacements and orientations with respect to the three axes of the reference frame (except around the direction of the magnetic field earthly).
  • the 3A3M combination provides complementary and smooth motion information.
  • the AirMouse includes two gyrometer type sensors, each with an axis of rotation.
  • the gyrometers used are from the Epson reference XV3500. Their axes are orthogonal and deliver the pitch angles (yaw or rotation around the axis parallel to the horizontal axis of a plane facing the user of the AirMouse) and yaw (pitch or rotation around a axis parallel to the vertical axis of a plane facing the user of the AirMouse).
  • the instantaneous pitch and yaw speeds measured by the two gyrometer axes are transmitted by radio frequency protocol to a controller moving a cursor in a screen facing the user.
  • the gesture analysis and interpretation module 120B provides signals that are directly usable by the time control processor 30. For example, the signals along an axis of the accelerometer and the magnetometer of the MotionPod are combined according to the method described in FIG. patent application filed by the present applicants in the patent application entitled "DEVICE AND METHOD FOR INTERPRETATION OF MUSICAL GESTURES". The processes implemented in the module 120B are performed in software.
  • the treatments firstly comprise a low-pass filtering of the outputs of the sensors of the two modalities (accelerometer and magnetometer) whose detailed operation is explained in FIG. 2.
  • This filtering of the output signals of the motion sensor controller uses a recursive approach of order 1.
  • the gain of the filter may for example be set at 0.3.
  • the filter equation is given by the following formula:
  • the treatment then comprises a low-pass filtering of the two modalities with a cut-off frequency lower than that of the first filter.
  • This lower cut-off frequency results from the choice of a coefficient of the second filter which is lower than the gain of the first filter.
  • the coefficient of the second filter can be set at 0.1.
  • the processing comprises a detection of a zero of the derivative of the output signal of the accelerometer with the measurement of the output signal of the magnetometer.
  • a negative sign of the product FDA (n) * FDA (n-1) indicates a zero of the derivative of the filtered signal of the accelerometer and thus detects a strike.
  • the processing module checks the intensity of the deviation of the other modality at the filtered output of the magnetometer. If this value is too low, the strike is considered not as a primary strike but as a secondary or ternary strike and discarded.
  • the threshold for discarding non-primary strikes depends on the expected amplitude of the deviation of the magnetometer. Typically, this value will be of the order of 5/1000 in the envisaged applications. This part of the treatment thus makes it possible to eliminate the insignificant strikes.
  • Figure 1C has an interface 1 OC, 1 10C Brain -> Computer or "Brain Computer Interface". These interfaces are still in the advanced stage of research but offer promising possibilities, especially in the field of musical performance.
  • the neural signals are provided to an interpretation interface 120C which converts these signals into commands for the time control processor 30.
  • Such neural devices operate, for example, as follows.
  • the person's scalp is provided with a network of sensors for electrical and / or magnetic activity resulting from the neuronal activity of the subject.
  • scientific models have not yet been signals to find the intention of the subject, for example in our case to beat the measure in a musical context.
  • a pre-recorded music file 20 to one of the standard formats (MP3, WAV, WMA, etc.) is taken from a storage unit by a reader.
  • To this file is associated another file with time marks or "tags" at predetermined times; for example, the table below shows nine tags at times in milliseconds that are listed next to the index of the decimal point:
  • the tags can advantageously be placed at beats of the same index in the piece that is played. There is no constraint on the number of tags.
  • Several techniques are possible to place tags in a pre-recorded piece of music: - Manually, by searching on the musical wave the point corresponding to a rhythm where a tag must be placed; it is a possible but tedious process;
  • the prerecorded signal input module 20 to be reproduced can process different types of audio files, in the MP3, WAV, WMA formats.
  • the file may also include other multimedia content than a simple sound recording. It may be for example video content, with or without soundtrack, which will be tagged and whose scrolling can be controlled by the input module 10.
  • the time control processor 30 synchronizes the signals received from the input module 10 and the pre-recorded music piece 20, in a manner commented on in FIGS. 3A and 3B.
  • the audio output 40 reproduces the pre-recorded piece of music from the module 20 with the variations of rhythm introduced by the commands of the input module 10 interpreted by the control processor 30. Any sound reproduction device does the job, including headphones, speakers.
  • FIGS. 3A and 3B show two cases of implementation of the invention in which respectively the typing speed is higher / lower than that of running the audio band.
  • the audio player of the module 20 starts playing the pre-recorded piece of music at a rate given. This rhythm can for example be indicated by several small prior strikes. Whenever the time control processor receives a strike signal, the current playing speed of the user is calculated.
  • SF (n) [T (n + 1) - T (n)] / [H (n + 1) - H (n)]
  • the player accelerates and advances the pre-recorded track: a new keystroke is received by the processor before the audio player has reached the sample of the piece of music where the tag is placed corresponding to this hit.
  • the speed factor SF is 4/3.
  • the time control processor makes the reading of the file 20 jump to the sample containing the index mark corresponding to the keystroke. Part of the pre-recorded music is lost, but the quality of the musical rendering is not too disturbed because the attention of those who listen to a piece of music usually focuses on the elements of the main rhythm and the tags will normally be placed on these elements of the main rhythm.
  • the listener who is waiting for that item will pay less attention to the absence of the part of the pre recorded song that has been skipped, this jump thus passing almost unnoticed.
  • the quality of listening can be further enhanced by smoothing the transition. This smoothing can by example be operated by interpolating a few samples (a dozen) between before and after the tag to which the player is blown up to catch up with the player's typing speed. Playback of the pre-recorded song continues at the new speed resulting from that jump.
  • FIG. 3B Three positions of the tags at time n + 2 (in the time scale of the audio file) before changing the speed of the reader are indicated in FIG. 3B:
  • the first starting from the left T (n + 2) is that corresponding to the speed of movement prior to the slowdown of the player;
  • the second, NT 1 (n + 2) is the result of the calculation consisting in adjusting the speed of the player's scrolling speed to the player's typing speed by using the speed factor SF; we see that in this case the tags remain ahead of the keystrokes;
  • NT 2 (n + 2) is the result of a calculation using a corrected speed factor CSF; this corrected factor is calculated so that the dates of the following keystroke and tag are identical, which is seen in Figure 3B.
  • Another improvement, applicable to the embodiment comprising one or more motion sensors, is to measure the player's striking energy or velocity to control the volume of the audio output.
  • the manner in which velocity is measured is also disclosed in the patent application filed by the present applicants in the patent application entitled "DEVICE AND METHOD FOR INTERPRETATION OF
  • This part of the processing carried out by the module 120B for analyzing and interpreting gestures is represented in FIG. 4.
  • the processing module calculates a velocity signal (or volume) of the strike by using the deviation of the filtered signal at the output of the magnetometer.
  • DELTAB (n) is introduced into the sample n which can be considered as the pre-filtered signal of the centered magnetometer and which is calculated as follows:
  • VEL (n) Max ⁇ DELTAB (n), DELTAB (p) ⁇ - Min ⁇ DELTAB (n), DELTA (p) ⁇
  • p is the index of the sample in which the previous primary strike was detected.
  • the velocity is the race (difference Max-Min) of the derivative signal between two detected primary strikes, characteristics of musical gestures.
  • this embodiment comprising several motion sensors, to control by other gestures other musical parameters such as the spatial origin of the sound (or panning), the vibrato or the tremolo.
  • a sensor in one hand will detect the striking while another sensor held in the other hand will detect the spatial origin of sound or tremolo.
  • Rotations of the hand can also be taken into account: when the palm of the hand is horizontal, one obtains a value of the spatial origin of the sound or the tremolo; when the palm is vertical, another value of the same parameter is obtained; in both cases, the movements of the hand in space provide the detection of the strikes.
  • conventionally used controllers can also be used in this embodiment of the invention to control the spatial origin of sounds, tremolo or vibrato.
  • the invention can be advantageously implemented by processing the keystrokes via a MAX / MSP program.
  • Figure 5 shows the general flowchart of the treatments in such a program.
  • the blue display shows the waveform associated with the audio track loaded into the system. There is a classical part to listen to the original piece.
  • Figure 7 details the part of Figure 5 at the bottom right that represents the time control that is applied.
  • the SF acceleration / deceleration coefficient is calculated by comparing the existing duration between two consecutive marks on the one hand in the original piece, on the other hand in the current game of the user. The formula for calculating this speed factor is given above in the description.
  • a timeout is set to stop the scrolling of the audio if the user has no longer typed for a time depending on the current musical content.
  • the "if" object in the left column detects whether it is slowing down or accelerating. In the event of a slowdown, the reading speed of the algorithm is changed, but no jump is made in the audio file.
  • the new reading speed is not necessarily exactly the one calculated in the right column (SF), but can be corrected (CSF speed factor) to take into account that we have already exceeded in the audio the corresponding mark at the last action of the player;

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention s'applique à un dispositif et un procédé de contrôle du défilement d'un fichier de signaux à reproduire. Les dispositifs et procédés de l'art antérieur ne permettent pas de commander le défilement d'un fichier audio par des frappes d'un utilisateur tout en assurant un rendu musical de qualité. L'invention permet de résoudre ce problème en procurant des moyens de commander ledit défilement par des frappes entrées par l'intermédiaire d'une interface MIDI ou mesurées par un ou plusieurs capteurs de mouvement. Les variations de la vitesse de défilement peuvent également être lissées pour assurer un meilleur rendu musical. La vélocité des frappes peut également être prise en compte pour contrôler le volume de la sortie audio et d'autres gestes ou frappes peuvent également agir sur le trémolo ou le vibrato.

Description

DISPOSITIF ET PROCEDE DE CONTROLE DU DEFILEMENT D'UN FICHIER DE SIGNAUX A REPRODUIRE
L'invention concerne le contrôle du défilement d'un fichier audio en temps réel. Des dispositifs électroniques de synthèse musicale permettent de jouer un ou plusieurs instruments synthétiques (réalisés à partir de modèles acoustiques ou d'échantillons de sons de piano, guitare, autres instruments à cordes, saxophone ou autres instruments à vent, etc..) en utilisant une interface d'entrée de notes. Les notes entrées sont converties en signaux par un dispositif de synthèse connecté à l'interface par un connecteur et une interface logicielle utilisant le standard MIDI (Musical Instrument Digital Interface). Une programmation automatique du ou des instruments permettant de générer des séries de notes correspondant à une partition peut être effectuée en utilisant un logiciel prévu à cet effet. Parmi ceux-ci, le logiciel de programmation MAX/MSP est un des plus répandus et permet de créer une telle application d'interprétation de partitions musicales. Une telle application comprend une interface de programmation graphique qui permet de choisir et contrôler des séquences de notes et de piloter le DSP (Digital Signal Processor) de synthèse musicale. Dans ces dispositifs, il est possible de combiner une partition pilotée par l'interface qui commande un des instruments avec la partition d'autres instruments qui est jouée de manière automatique. Plutôt que de contrôler des instruments synthétiques par une interface de type MIDI, on peut souhaiter contrôler directement un enregistrement audio, le contrôle permettant par exemple d'agir sur la vitesse et/ou le volume de lecture du fichier. Pour assurer une synchronisation musicale du fichier qui est joué avec les données de jeu de l'interprète délivrées par l'interface MIDI, il serait particulièrement utile de pouvoir contrôler le rythme de déroulement de la partition jouée de manière automatique. Les dispositifs existant ne permettent pas de réaliser ce contrôle de rythme de défilement des différents types de fichiers audio utilisés (MP3 - MPEG (Moving Picture Expert Group) 1/2 Layer 3, WAV - WAVeform audio format, WMA - Windows Media Audio...) pour reproduire sur un équipement électronique de la musique préenregistrée. Aucun dispositif de l'art antérieur ne permet d'effectuer ce contrôle en temps réel dans des conditions de musicalité qui soient acceptables. En particulier, la demande PCT WO98/19294 ne traite que du contrôle du rythme de défilement de fichiers MIDI et non de fichiers de signaux encodés de manière substantiellement continue, tels que les fichiers mp3 ou wav. La présente invention apporte une réponse à ces limitations de l'art antérieur en utilisant une algorithmie de contrôle du défilement de la partition automatique qui permet d'assurer un rendu musical satisfaisant.
A cet effet, la présente invention divulgue un dispositif de contrôle par un utilisateur du rythme de défilement d'un fichier préenregistré de signaux à reproduire et de l'intensité desdits signaux, lesdits signaux étant encodés dans ledit fichier préenregistré de manière sensiblement continue, ledit dispositif comprenant un premier module d'interface d'entrée de frappes de contrôle, un deuxième module, d'entrée des dits signaux à reproduire, un troisième module, de contrôle temporel des dits signaux préenregistrés et un dispositif de reproduction des entrées des trois premiers modules, ledit dispositif de contrôle étant caractérisé en ce que ledit deuxième module est apte à être programmé pour déterminer les temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, et en ce que ledit troisième module est apte à calculer pour un certain nombre de frappes de contrôle un facteur de vitesse corrigée (CSF) relative de frappes préprogrammées dans le deuxième module et des frappes effectivement entrées dans le premier module et un facteur d'intensité relative des vélocités desdites frappes effectivement entrées et attendues puis à ajuster le rythme de défilement dudit deuxième module pour ajuster ledit facteur de vitesse corrigée (CSF) aux frappes suivantes à une valeur choisie et l'intensité des signaux en sortie du deuxième module en fonction dudit facteur d'intensité relative des vélocités.
Avantageusement, le premier module comprend une interface MIDI. Avantageusement, le premier module comprend un sous module de capture de mouvement et un sous module d'analyse et d'interprétation de gestes recevant en entrée les sorties du sous module de capture de mouvement. Avantageusement, le sous module de capture de mouvement réalise ladite capture de mouvements selon au moins un premier et un deuxième axes, .le sous module d'analyse et d'interprétation de gestes comprend une fonction de filtrage, une fonction de détection de geste significatif par comparaison de la variation entre deux valeurs successives dans l'échantillon d'au moins un des signaux en provenance au moins du premier axe de l'ensemble de capteurs avec au moins une première valeur de seuil choisie et une fonction de confirmation de détection de geste significatif, et ladite fonction de confirmation de détection de geste significatif est apte à comparer au moins un des signaux en provenance au moins du deuxième axe de l'ensemble de capteurs avec au moins une deuxième valeur de seuil choisie. Avantageusement, le premier module comprend une interface de capture de signaux neuronaux du cerveau de l'utilisateur et un sous module d'interprétation des dits signaux neuronaux.
Avantageusement, la vélocité de la frappe entrée est calculée à partir de la déviation du signal en sortie du deuxième capteur.
Avantageusement, le premier module comprend en outre un sous module apte à interpréter des gestes de l'utilisateur dont la sortie est utilisée par le troisième module pour contrôler une caractéristique de la sortie audio choisie dans le groupe constitué par le vibrato et le trémolo.
Avantageusement, le deuxième module comprend un sous module de placement de tags dans le fichier de signaux préenregistrés à reproduire aux temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, les dits tags étant générés de manière automatique en fonction du rythme des signaux préenregistrés et pouvant être déplacés par une interface MIDI.
Avantageusement, la valeur choisie dans le troisième module pour ajuster la vitesse de défilement du deuxième module est égale à une valeur choisie dans un ensemble de valeurs calculées dont une des bornes est calculée par application d'un facteur de vitesse CSF égal au rapport de l'intervalle de temps entre le tag suivant et le tag précédent diminué de l'intervalle de temps entre la frappe courante et la frappe précédente à l'intervalle de temps entre la frappe courante et la frappe précédente et dont les autres valeurs sont calculées par interpolation linéaire entre la valeur courante et la valeur correspondant à celle de la borne utilisée pour l'application du facteur de vitesse CSF.
Avantageusement, la valeur choisie dans le troisième module pour ajuster la vitesse de défilement du deuxième module est égale à la valeur correspondant à celle de la borne utilisée pour l'application du facteur de vitesse CSF.
L'invention divulgue également un procédé de contrôle par un utilisateur du rythme de défilement d'un fichier préenregistré de signaux à reproduire et de l'intensité desdits signaux, lesdits signaux étant encodés dans ledit fichier préenregistré de manière sensiblement continue, ledit procédé comprenant une première étape d'interface d'entrée de frappes de contrôle, une deuxième étape d'entrée des dits signaux à reproduire, une troisième étape de contrôle temporel des dits signaux préenregistrés et une étape de reproduction des entrées des trois premières étape, ledit procédé de contrôle étant caractérisé en ce que la dite deuxième étape est apte à être programmée pour déterminer les temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, et en ce que la dite troisième étape est apte à calculer pour un certain nombre de frappes de contrôle un facteur de vitesse corrigée (CSF) relative des frappes préprogrammées dans la deuxième étape et des frappes effectivement entrées dans la première étape et un facteur d'intensité relative des vélocités desdites frappes effectivement entrées et attendues puis à ajuster le rythme de défilement dans la dite deuxième étape pour ajuster ledit facteur de vitesse corrigée (CSF) aux frappes suivantes à une valeur choisie et l'intensité des signaux en sortie du deuxième module en fonction dudit facteur d'intensité relative desdites vélocités..
Un autre avantage de l'invention est qu'elle permet de réaliser le contrôle du défilement des fichiers audio préenregistrés de manière intuitive. De nouveaux algorithmes de contrôle du défilement pourront également être intégrés de manière facile dans le dispositif de l'invention. Le contrôle de la puissance sonore des fichiers audio préenregistrés peut être également effectué de manière simple par le dispositif de l'invention.
L'invention sera mieux comprise, ses différentes caractéristiques et avantages ressortiront de la description qui suit de plusieurs exemples de réalisation et de ses figures annexées dont : - Les figures 1 A, 1 B et 1 C représentent de manière simplifiée une architecture fonctionnelle d'un dispositif de contrôle de la vitesse de défilement d'un fichier audio préenregistré selon trois modes de réalisation de l'invention ; - La figure 2 représente l'organigramme d'un filtrage passe-bas des signaux d'un capteur de mouvement dans un des modes de réalisation de l'invention tel que représenté sur la figure 1 B;
- Les figures 3A et 3B représentent deux cas de mise en œuvre de l'invention où respectivement la vitesse de frappe est plus élevée/moins élevée que celle de défilement de la bande audio ;
- La figure 4 représente un organigramme des traitements de la fonction de mesure de la vélocité de la frappe dans un mode de réalisation de l'invention ;
- La figure 5 représente un organigramme général des traitements dans un mode de réalisation de l'invention;
- La figure 6 représente un détail de la figure 5 qui montre les points de contrôle rythmiques souhaités par un utilisateur d'un dispositif selon un mode de réalisation de l'invention ;
- La figure 7 représente un organigramme développé d'un procédé de contrôle temporel dans un mode de réalisation de l'invention.
Les figures 1 A, 1 B et 1 C représentent trois modes de réalisation de l'invention qui ne diffèrent que par le module 10 d'interface d'entrée de frappes de contrôle. Les caractéristiques du module 20, d'entrée des signaux à reproduire, du module 30 de contrôle du rythme temporel et du module 40 de sortie audio sont décrites plus loin. On commence par décrire les différents modes de réalisation du module 10 d'interface d'entrée de frappes de contrôle. Au moins trois modules d'interface d'entrée sont possibles. Ils sont respectivement représentés sur les figures 1 A, 1 B et 1 C. Chaque module d'entrée comprend un sous module 1 10 qui capture des commandes d'interaction avec le dispositif et une partie qui réalise l'entrée et la traduction de ces commandes dans le dispositif.
Sur la figure 1 A est représenté un module d'entrée 1 OA de type MIDI. Les contrôleurs MIDI 1 10A sont des surfaces de contrôles pouvant posséder des touches, des faders (potentiomètres linéaires permettant de régler le niveau des sources sonores, des pads (surfaces tactiles) ou des boutons rotatifs. Ces contrôleurs ne sont pas des périphériques de gestion du son ou de restitution ; ils ne produisent que des données MIDI. D'autres types de surfaces de contrôles sont utilisables, par exemple une harpe, une guitare ou un saxophone virtuels. Ces contrôleurs peuvent avoir un écran de visualisation. Quels que soient les éléments qui composent la surface de contrôle, tous les boutons, curseurs, faders, touches, pads sont assignables à chaque élément de l'interface visuelle du logiciel grâce à des setups (fichiers de configuration). Les contrôles sonores peuvent également être couplés avec des contrôles de l'éclairage.
Un contrôleur MIDI 1 1 OA est relié au processeur de contrôle temporel 30 par l'intermédiaire d'une interface dont la partie matérielle est un connecteur DIN à 5 broches. Plusieurs contrôleurs MIDI peuvent être reliés au même ordinateur en étant chaînés entre eux. Le lien de communication est établi à 31 250 bauds. La codification utilise 128 valeurs tonales (de 0 à 127), les messages de notes s'étalant entre les fréquences de 8,175 Hz à 12544 Hz avec une résolution d'un demi ton.
Sur la figure 1 B, est représenté un ensemble de capture de mouvement 10B comprenant un capteur de mouvement 1 10B de type MotionPod™ de Movea™ et une interface d'analyse de mouvement 120B. Une AirMouse™ ou une GyroMouse™ sont également utilisables à la place du MotionPod, ainsi que d'autres capteurs de mouvement.
Un MotionPod comporte un accéléromètre tri axe, un magnétomètre tri axe, une capacité de prétraitement permettant de préformer des signaux à partir des capteurs, un module de transmission radiofréquence des dits signaux au module de traitement lui-même et une batterie. Ce capteur de mouvement est dit « 3A3M » (trois axes d'accéléromètre et trois axes de magnétomètre). Les accéléromètres et magnétomètres sont des micro capteurs du commerce de faible encombrement, de faible consommation et à bas coût, par exemple un accéléromètre trois voies de la société Kionix™ (KXPA4 3628) et des magnétomètres d'HoneyWell™ de type HMC1041 Z (1 voie verticale) et HMC1042L pour les 2 voies horizontales. D'autres fournisseurs existent : Memsic™ ou Asahi Kasei™ pour les magnétomètres et STM™, Freescale™, Analog Device™ pour les accéléromètres, pour ne citer que ceux là. Dans le Motion Pod, pour les 6 voies signal, il n'y a qu'un filtrage analogique et ensuite, après conversion analogique numérique (12 bits), les signaux bruts sont transmis par un protocole radiofréquence dans la bande Bluetooth™ (2,4GHz) optimisé pour la consommation dans ce type d'applications. Les données arrivent donc brutes à un contrôleur qui peut recevoir les données d'un ensemble de capteurs. Elles sont lues par le contrôleur et mises a disposition des logiciels. La cadence d'échantillonnage est réglable. Par défaut, elle est fixée à 200 Hz. Des valeurs plus élevées (jusqu'à 3000 Hz, voire plus) peuvent néanmoins être envisagées, permettant une plus grande précision dans la détection de chocs par exemple. Le protocole radiofréquence du MotionPod permet de garantir la mise a disposition de la donnée au contrôleur avec un retard contrôlé, qui ne doit pas dépasser ici 10ms (à 200 Hz), ce qui est important pour la musique. Un accéléromètre du type ci-dessus permet de mesurer les déplacements longitudinaux selon ses trois axes et, par transformation, des déplacements angulaires (sauf ceux résultant d'une rotation autour de la direction du champ de gravitation terrestre) et des orientations par rapport à un référentiel cartésien en trois dimensions. Un ensemble de magnétomètres du type ci- dessus permet de mesurer l'orientation du capteur auquel il est fixé par rapport au champ magnétique terrestre et donc des déplacements et des orientations par rapport aux trois axes du référentiel (sauf autour de la direction du champ magnétique terrestre). La combinaison 3A3M fournit des informations de mouvement complémentaires et lissées. La AirMouse comprend deux capteurs de type gyromètre, chacun à un axe de rotation. Les gyromètres utilisés sont de la marque Epson de référence XV3500. Leurs axes sont orthogonaux et délivrent les angles de tangage (yaw ou rotation autour de l'axe parallèle à l'axe horizontal d'un plan situé face à l'utilisateur de la AirMouse) et de lacet (pitch ou rotation autour d'un axe parallèle à l'axe vertical d'un plan situé face à l'utilisateur de la AirMouse). Les vitesses instantanées de pitch et de yaw mesurées par les deux axes gyromètres sont transmises par protocole radiofréquence à un contrôleur en mouvement d'un curseur dans un écran situé face à l'utilisateur. Le module d'analyse et d'interprétation de gestes 120B fournit des signaux directement exploitables par le processeur de contrôle temporel 30. Par exemple, les signaux selon un axe de l'accéléromètre et du magnétomètre du MotionPod sont combinés selon le procédé décrit dans la demande de brevet déposée par les présents demandeurs dans la demande de brevet ayant pour titre « DISPOSITIF ET PROCEDE D'INTERPRETATION DE GESTES MUSICAUX ». Les traitements mis en œuvre dans le module 120B sont effectués de manière logicielle.
Les traitements comprennent tout d'abord un filtrage passe-bas des sorties des capteurs des deux modalités (accéléromètre et magnétomètre) dont le fonctionnement détaillé est explicité par la figure 2.
Ce filtrage des signaux en sortie du contrôleur des capteurs de mouvement utilise une approche récursive d'ordre 1. Le gain du filtre peut par exemple être fixé à 0,3. Dans ce cas, l'équation du filtre est donnée par la formule suivante :
Output(z(n))=0.3*lnput(z(n-1 )) + 0.7*Output(z(n-1 ))
Où, pour chacune des modalités : z est la lecture de la modalité sur l'axe du capteur qui est utilisé ; n est la lecture de l'échantillon courant ; n-1 est la lecture de l'échantillon précédent.
Le traitement comporte ensuite un filtrage passe-bas des deux modalités avec une fréquence de coupure inférieure à celle du premier filtre Cette fréquence de coupure inférieur résulte du choix d'un coefficient du deuxième filtre inférieur au gain du premier filtre. Dans le cas choisi dans l'exemple ci- dessus où le coefficient du premier filtre est de 0,3, le coefficient du deuxième filtre peut être fixé à 0,1. L'équation du deuxième filtre est alors (avec les mêmes notations que ci-dessus) : Output(z(n))=0.1 *lnput(z(n-1 )) + 0.9*Output(z(n-1 ))
Ensuite, le traitement comporte une détection d'un zéro de la dérivée du signal en sortie de l'accéléromètre avec la mesure du signal en sortie du magnétomètre. On pose les notations suivantes : - A(n) le signal en sortie de l'accéléromètre dans l'échantillon n ;
- AF1 (n) le signal de l'accéléromètre en sortie du premier filtre récursif dans l'échantillon n ;
- AF2(n) le signal AF1 filtré à nouveau par le deuxième filtre récursif dans l'échantillon n ;
- B(n) le signal du magnétomètre dans l'échantillon n ;.
- BF1 (n) le signal du magnétomètre en sortie du premier filtre récursif dans l'échantillon n ;
- BF2(n) le signal BF1 filtré à nouveau par le deuxième filtre récursif dans l'échantillon n.
Alors, l'équation suivante permet de calculer une dérivée filtrée du signal de l'accéléromètre dans l'échantillon n: FDA(n) = AF1 (n) - AF2(n-1 )
Un signe négatif du produit FDA(n) * FDA(n-1 ) indique un zéro de la dérivée du signal filtré de l'accéléromètre et détecte donc une frappe.
Pour chacun de ces zéros du signal filtré de l'accéléromètre, le module de traitement vérifie l'intensité de la déviation de l'autre modalité en sortie filtrée du magnétomètre. Si cette valeur est trop faible, la frappe est considérée non comme une frappe primaire mais comme une frappe secondaire ou ternaire et écartée. Le seuil permettant d'écarter les frappes non primaires dépend de l'amplitude attendue de la déviation du magnétomètre. Typiquement, cette valeur sera de l'ordre de 5/1000 dans les applications envisagées. Cette partie du traitement permet donc d'éliminer les frappes non significatives. La figure 1 C comporte une interface 1 OC, 1 10C Cerveau -> Ordinateur ou « Brain Computer Interface ». Ces interfaces sont encore au stade de la recherche avancée mais offrent des possibilités prometteuses, notamment dans le domaine de l'interprétation musicale. Les signaux neuronaux sont fournis à une interface d'interprétation 120C qui convertit ces signaux en commandes pour le processeur de contrôle temporel 30. De tels dispositifs neuronaux fonctionnent par exemple de la manière suivante. On dispose sur le cuir chevelu de la personne un réseau de capteurs de l'activité électrique et/ou magnétique résultant de l'activité neuronale du sujet. A ce jour, on ne dispose pas encore de modèles scientifiques permettant à partir de ces signaux de retrouver l'intention du sujet, par exemple dans notre cas de battre la mesure dans un contexte musical. Par contre, on a pu montrer qu'en plaçant le sujet dans une boucle l'associant au dispositif de capteurs et à un feedback sensoriel, ledit sujet est capable d'apprendre à diriger sa pensée de sorte que l'effet produit soit celui qu'il désire. Par exemple, le sujet voit sur un écran un pointeur de souris, dont les mouvements résultent d'une analyse des signaux électriques (par exemple activité électrique plus importante dans telle zone du cerveau se traduisant par des sorites électriques plus élevées de certains des capteurs d'activité). Avec un certain entraînement grâce à une procédure de type apprentissage, il obtient un certain contrôle du curseur en dirigeant sa pensée. Les mécanismes précis ne sont pas scientifiquement connus, mais une certaine répétabilité des processus est aujourd'hui admise, permettant d'envisager que la capture de certaines intentions du sujet soit possible dans un avenir proche. Un fichier de musique préenregistré 20 à un des formats standards (MP3, WAV, WMA, etc..) est prélevé sur une unité de stockage par un lecteur. A ce fichier est associé un autre fichier comportant des marques temporelles ou « tags » à des instants prédéterminés ; par exemple, la table ci-dessous indique neuf tags aux instants en millisecondes qui sont indiqués à côté de l'indice du tag après la virgule:
1 , 0;
2, 335.41 1 194;
3, 649.042419;
4, 904.59381 1 ;
5, 1 160.145142;
6, 1462.1604;
7, 1740.943726;
8, 2054.574951 ;
9, 2356.59; Les tags peuvent avantageusement être placés aux battements de même indice dans le morceau qui est joué. Il n'y a cependant pas de contrainte sur le nombre de tags. Plusieurs techniques sont possibles pour placer des tags dans un morceau de musique pré enregistrée : - De manière manuelle, en cherchant sur l'onde musicale le point correspondant à un rythme où un tag doit être placé ; c'est un processus possible mais fastidieux ;
- De manière semi-automatique, en écoutant le morceau de musique pré enregistrée et en pressant une touche de clavier d'ordinateur ou de clavier MIDI quand un rythme où un tag doit être placé est entendu ;
- De manière automatique, en utilisant un algorithme de détection des rythmes qui place les tags au bon endroit ; aujourd'hui, les algorithmes ne sont pas suffisamment fiables pour que le résultat n'ait pas à être retouché en utilisant un des deux premiers processus mais on peut compléter cet automatisme par une phase manuelle de retouche du fichier des tags créés.
Le module 20 d'entrée de signaux préenregistrés à reproduire peut traiter différents types de fichiers audio, aux formats MP3, WAV, WMA. Le fichier peut également comprendre d'autres contenus multimédias qu'un simple enregistrement sonore. Il peut s'agir par exemple de contenus vidéo, avec ou sans bande sonore, qui seront marqués par des tags et dont le défilement pourra être contrôlé par le module d'entrée 10.
Le processeur de contrôle temporel 30 réalise la synchronisation entre les signaux reçus du module d'entrée 10 et le morceau de musique pré enregistrée 20, d'une manière explicitée en commentaires aux figures 3A et 3B.
La sortie audio 40 reproduit le morceau de musique pré enregistrée en provenance du module 20 avec les variations de rythme introduites par les commandes du module d'entrée 10 interprétée par le processeur de contrôle temporel 30. N'importe quel dispositif de reproduction sonore fait l'affaire, notamment des écouteurs, des haut-parleurs.
Les figures 3A et 3B représentent deux cas de mise en œuvre de l'invention où respectivement la vitesse de frappe est plus élevée/moins élevée que celle de défilement de la bande audio.
Lors de la première frappe entrée au clavier MIDI 1 10A, repérée par le capteur de mouvement 1 1 OB ou interprétée directement comme une pensée du cerveau 1 10C, le lecteur audio du module 20 démarre la lecture du morceau de musique pré enregistrée à un rythme donné. Ce rythme peut par exemple être indiqué par plusieurs petites frappes préalables. Chaque fois que le processeur de contrôle temporel reçoit un signal de frappe, la vitesse courante de jeu de l'utilisateur est calculée. Celle-ci peut par exemple être exprimée comme le facteur de vitesse SF(n) calculé comme le rapport de l'intervalle de temps entre deux tags T successifs n et n+1 du morceau pré enregistré à l'intervalle de temps entre deux frappes H successives n et n+1 de l'utilisateur : SF(n) = [T(n+1 ) - T(n)]/[H(n+1 ) - H(n)]
Dans le cas de la figure 3A, le joueur accélère et prend de l'avance sur le morceau pré enregistré : une nouvelle frappe est reçue par le processeur avant que le lecteur audio ait atteint l'échantillon du morceau de musique où est placé le tag correspondant à cette frappe. Par exemple, dans le cas de la figure, le facteur de vitesse SF est de 4/3. A la lecture de cette valeur de SF, le processeur de contrôle temporel fait sauter la lecture du fichier 20 à l'échantillon contenant la marque d'indice correspondant à la frappe. Une partie de la musique pré enregistrée est donc perdue, mais la qualité du rendu musical n'est pas trop perturbée car l'attention de ceux qui écoutent un morceau de musique se concentre généralement sur les éléments du rythme principal et les tags seront normalement placés sur ces éléments du rythme principal. En outre, quand le lecteur saute au tag suivant, qui est un élément du rythme principal, l'auditeur qui attend cet élément, portera moins d'attention à l'absence de la partie du morceau pré enregistrée qui aura été sautée, ce saut passant ainsi quasiment inaperçu. La qualité de l'écoute peut encore être accrue en opérant un lissage de la transition. Ce lissage peut par exemple être opéré en en interpolant quelques échantillons (une dizaine) entre avant et après le tag vers lequel on fait sauter le lecteur pour rattraper la vitesse de frappe du joueur. La lecture du morceau pré enregistrée continue à la nouvelle vitesse résultant de ce saut.
Dans le cas de la figure 3B, le joueur ralentit et prend du retard sur le morceau de musique pré enregistrée : le lecteur audio atteint un point où une frappe est attendue avant que celle-ci ne soit effectuée par le joueur. Dans le contexte d'une écoute musicale, il n'est bien entendu pas possible d'arrêter le lecteur pour attendre la frappe. Donc, la lecture audio continue à la vitesse courante, jusqu'à ce que la frappe attendue soit reçue. C'est à ce moment que la vitesse du lecteur est changée. Une méthode fruste consiste à fixer la vitesse du lecteur en fonction du facteur de vitesse SF calculé au moment où la frappe est reçue. Cette méthode donne déjà des résultats qualitativement satisfaisants. Une méthode plus élaborée consiste à calculer une vitesse de lecture corrigée qui permette de synchroniser à nouveau le tempo de lecture sur le tempo du joueur.
Trois positions des tags à l'instant n+2 (dans l'échelle de temps du fichier audio) avant changement de la vitesse du lecteur sont indiquées sur la figure 3B :
- la première en partant de la gauche T(n+2) est celle correspondant à la vitesse de défilement antérieure au ralentissement du joueur ;
- la deuxième, NT1 (n+2), est le résultat du calcul consistant à ajuster la vitesse de défilement du lecteur à la vitesse de frappe du joueur en utilisant le facteur de vitesse SF ; on voit que dans ce cas les tags restent en avance par rapport aux frappes ;
- la troisième, NT2(n+2), est le résultat d'un calcul où l'on utilise un facteur de vitesse corrigé CSF ; ce facteur corrigé est calculé pour que les dates de la frappe et du tag suivants soient identiques, ce que l'on voit sur la figure 3B.
CSF est le rapport de l'intervalle de temps de la frappe n+1 au tag n+2 rapporté à l'intervalle de temps de la frappe n+1 à la frappe n+2. Sa formule de calcule est la suivante : CSF = {[T(n+2) - T(n)] - [H(n+1 ) - H(n)]} / [H(n+1 ) - H(n)] II est possible d'améliorer le rendu musical en lissant le profil du tempo du joueur. Pour cela, au lieu d'ajuster la vitesse de défilement du lecteur comme indiqué plus haut, on peut calculer une variation linéaire entre la valeur cible et la valeur de départ sur une durée relativement courte, par exemple 50 ms et faire passer la vitesse de défilement par ces différentes valeurs intermédiaires. Plus ce temps d'ajustement est long, plus la transition sera lissée. Cela permet un meilleur rendu, notamment lorsque de nombreuses notes sont jouées par le lecteur entre deux frappes. Mais le lissage se fait évidemment au détriment de la dynamique de la réponse musicale.
Une autre amélioration, applicable au mode de réalisation comportant un ou plusieurs capteurs de mouvement, consiste à mesurer l'énergie de frappe du joueur ou vélocité pour contrôler le volume de la sortie audio. La manière dont la vélocité est mesurée est également divulguée dans la demande de brevet déposée par les présents demandeurs dans la demande de brevet ayant pour titre « DISPOSITIF ET PROCEDE D'INTERPRETATION DE
GESTES MUSICAUX ».
Cette partie du traitement effectuée par le module 120B d'analyse et d'interprétation de gestes est représentée sur la figure 4.
Pour toutes les frappes primaires détectées, le module de traitement calcule un signal de vélocité (ou volume) de la frappe en utilisant la déviation du signal filtré en sortie du magnétomètre.
En utilisant les mêmes notations que ci-dessus en commentaire de la figure 2, on introduit la valeur DELTAB(n) dans l'échantillon n qui peut être considérée comme le signal pré filtré du magnétomètre centré et qui est calculée de la manière suivante :
DELTAB(n) = BF1 (n) - BF2(n)
Les valeurs minimum et maximum de DELTAB(n) sont stockées entre deux frappes primaires détectées. Une valeur acceptable VEL(n) de la vélocité d'une frappe primaire détectée dans un échantillon n est alors donnée par l'équation suivante :
VEL(n) = Max {DELTAB(n), DELTAB(p)} - Min {DELTAB(n), DELTA(p)}
Où p est l'indice de l'échantillon dans lequel a été détectée la frappe primaire précédente. La vélocité est donc la course (différence Max-Min) de la dérivée du signal entre deux frappes primaires détectées, caractéristiques de gestes significatifs au plan musical.
On peut également envisager, dans ce mode de réalisation comprenant plusieurs capteurs de mouvements, de contrôler par d'autres gestes d'autres paramètres musicaux comme l'origine spatiale du son (ou panning), le vibrato ou le trémolo. Par exemple, un capteur dans une main permettra de détecter la frappe alors qu'un autre capteur tenu dans l'autre main permettra de détecter l'origine spatiale du son ou le trémolo. Des rotations de la main peuvent également être prises en compte : quand la paume de la main est horizontale, on obtient une valeur de l'origine spatiale du son ou du trémolo ; quand la paume est verticale, on obtient une autre valeur du même paramètre ; dans les deux cas, les mouvements de la main dans l'espace fournissent la détection des frappes. Dans le cas où un clavier MIDI est utilisé, les contrôleurs classiquement utilisés peuvent l'être également dans ce mode de réalisation de l'invention pour contrôler l'origine spatiale des sons, le trémolo ou le vibrato.
L'invention peut être avantageusement mise en œuvre en traitant les frappes par l'intermédiaire d'un programme MAX/MSP.
La figure 5 représente l'organigramme général des traitements dans un tel programme.
Le display bleu montre la forme d'onde associée au morceau audio chargé dans le système. On trouve une partie classique permettant d'écouter le morceau original.
Se trouve en bas à gauche une partie, représentée sur la figure 6, permettant de créer un tableau contenant la liste des points de contrôle rythmiques souhaités par la personne : à l'écoute du morceau il tape sur une touche à chaque instant qu'il souhaite taper lors de l'interprétation ultérieure. Alternativement ces instants peuvent être désignés par la souris sur la forme d'onde. Enfin, ils peuvent être édités.
La figure 7 détaille la partie de la figure 5 se trouvant en bas à droite qui représente le contrôle temporel qui est appliqué. Dans la colonne de droite, on calcule le coefficient d'accélération/ralentissement SF par comparaison entre la durée existant entre deux repères consécutifs d'une part dans le morceau original, d'autre part dans le jeu actuel de l'utilisateur. La formule de calcul de ce facteur de vitesse est donnée plus haut dans la description.
Dans la colonne centrale, on met en place un timeout permettant d'arrêter le défilement de l'audio si l'utilisateur n'a plus effectué de frappe pendant un temps dépendant du contenu musical en cours.
Dans la colonne de gauche, se trouve le cœur du système de contrôle. Il repose sur un algorithme de compression/expansion temporel. La difficulté est de transformer un contrôle « discret » donc intervenant à des instants consécutifs, en une modulation régulière de la vitesse. A défaut, l'audition souffre d'une part d'interruptions totales du son (quand le joueur ralentit), d'autre part de clic et de sauts brusques quand il accélère. Ces défauts, qui rendent une telle approche non réaliste à cause d'une sortie audio inexploitable musicalement sont résolus dans la mise en œuvre développée. Elle consiste :
- à ne jamais stopper le défilement sonore même en cas de ralentissement substantiel de l'utilisateur. L'objet « if » de la colonne de gauche détecte si on est en phase de ralentissement ou d'accélération. En cas de ralentissement, on modifie la vitesse de lecture de l'algorithme, mais on n'effectue aucun saut dans le fichier audio. La nouvelle vitesse de lecture n'est pas nécessairement exactement celle calculée dans la colonne de droite (SF), mais peut être corrigée (facteur de vitesse CSF) pour tenir compte du fait qu'on a déjà dépassé dans l'audio le repère correspondant à la dernière action du joueur ;
- A effectuer un saut dans le fichier audio lors d'une accélération (seconde branche de l'objet « if »). Dans ce cas précis, cela a peu d'incidences subjectives sur l'audition, si les repères de contrôle correspondent à des instants musicaux suffisamment importants sur le plan psycho acoustique (il y a ici un parallèle à effectuer avec la base de la compression MP3, qui code pauvrement les fréquences peu signifiantes, et richement les fréquences prépondérantes). Il s'agit ici du domaine temporel macroscopique, certains instants dans l'écoute d'un morceau sont plus signifiants que d'autres, et c'est sur ces instants qu'on souhaite pouvoir agir. Les exemples décrits ci-dessus sont donnés à titre d'illustration de modes de réalisation de l'invention. Ils ne limitent en aucune manière le champ de l'invention qui est défini par les revendications qui suivent.

Claims

REVENDICATIONS
1 . Dispositif de contrôle par un utilisateur du rythme de défilement d'un fichier préenregistré de signaux à reproduire et de l'intensité desdits signaux, lesdits signaux étant encodés dans ledit fichier préenregistré de manière sensiblement continue, ledit dispositif comprenant un premier module (10, 1 10A, 1 10B, 1 10C 120A, 120B, 120C), d'interface d'entrée de frappes de contrôle, un deuxième module (20), d'entrée des dits signaux à reproduire, un troisième module (30), de contrôle temporel des dits signaux préenregistrés et un dispositif (40) de reproduction des entrées des trois premiers modules, ledit dispositif de contrôle étant caractérisé en ce que ledit deuxième module (20) est apte à être programmé pour déterminer les temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, et en ce que ledit troisième module (30) est apte à calculer pour un certain nombre de frappes de contrôle un facteur de vitesse corrigée (CSF) relative de frappes préprogrammées dans le deuxième module et des frappes effectivement entrées dans le premier module et un facteur d'intensité relative des vélocités desdites frappes effectivement entrées et attendues puis à ajuster le rythme de défilement dudit deuxième module pour ajuster ledit facteur de vitesse corrigée (CSF) aux frappes suivantes à une valeur choisie et l'intensité des signaux en sortie du deuxième module en fonction dudit facteur d'intensité relative des vélocités.
2. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que le premier module comprend une interface MIDI (1 10A, 120A).
3. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que le premier module comprend un sous module de capture de mouvement
(1 10B) et un sous module d'analyse et d'interprétation de gestes (120B) recevant en entrée les sorties du sous module (1 10B) de capture de mouvement.
4. Dispositif de contrôle selon la revendication 3, caractérisé en ce que le sous module de capture de mouvement (1 10B) réalise ladite capture de mouvements selon au moins un premier et un deuxième axes, .en ce que le sous module d'analyse et d'interprétation de gestes (120B) comprend une fonction de filtrage, une fonction de détection de geste significatif par comparaison de la variation entre deux valeurs successives dans l'échantillon d'au moins un des signaux en provenance au moins du premier axe de l'ensemble de capteurs avec au moins une première valeur de seuil choisie et une fonction de confirmation de détection de geste significatif, et en ce que ladite fonction de confirmation de détection de geste significatif est apte à comparer au moins un des signaux en provenance au moins du deuxième axe de l'ensemble de capteurs avec au moins une deuxième valeur de seuil choisie.
5. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que le premier module comprend une interface 1 10C de capture de signaux neuronaux du cerveau de l'utilisateur et un sous module 120C d'interprétation des dits signaux neuronaux.
6. Dispositif de contrôle selon la revendication 4, caractérisé en ce que la vélocité de la frappe entrée est calculée à partir de la déviation du signal en sortie du deuxième capteur.
7. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que le premier module comprend en outre un sous module apte à interpréter des gestes de l'utilisateur dont la sortie est utilisée par le troisième module pour contrôler une caractéristique de la sortie audio choisie dans le groupe constitué par le vibrato et le trémolo.
8. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que le deuxième module comprend un sous module de placement de tags dans le fichier de signaux préenregistrés à reproduire aux temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, les dits tags étant générés de manière automatique en fonction du rythme des signaux préenregistrés et pouvant être déplacés par une interface MIDI.
9. Dispositif de contrôle selon la revendication 1 , caractérisé en ce que la valeur choisie dans le troisième module pour ajuster la vitesse de défilement du deuxième module est égale à une valeur choisie dans un ensemble de valeurs calculées dont une des bornes est calculée par application d'un facteur de vitesse CSF égal au rapport de l'intervalle de temps entre le tag suivant et le tag précédent diminué de l'intervalle de temps entre la frappe courante et la frappe précédente à l'intervalle de temps entre la frappe courante et la frappe précédente et dont les autres valeurs sont calculées par interpolation linéaire entre la valeur courante et la valeur correspondant à celle de la borne utilisée pour l'application du facteur de vitesse CSF.
10. Dispositif de contrôle selon la revendication 9, caractérisé en ce que la valeur choisie dans le troisième module pour ajuster la vitesse de défilement du deuxième module est égale à la valeur correspondant à celle de la borne utilisée pour l'application du facteur de vitesse CSF.
1 1 . Procédé de contrôle par un utilisateur du rythme de défilement d'un fichier préenregistré de signaux à reproduire et de l'intensité desdits signaux, lesdits signaux étant encodés dans ledit fichier préenregistré de manière sensiblement continue, ledit procédé comprenant une première étape d'interface d'entrée de frappes de contrôle, une deuxième étape d'entrée des dits signaux à reproduire, une troisième étape de contrôle temporel des dits signaux préenregistrés et une étape de reproduction des entrées des trois premières étape, ledit procédé de contrôle étant caractérisé en ce que la dite deuxième étape est apte à être programmée pour déterminer les temps où sont attendues des frappes de contrôle du rythme de défilement du fichier, et en ce que la dite troisième étape est apte à calculer pour un certain nombre de frappes de contrôle un facteur de vitesse corrigée (CSF) relative des frappes préprogrammées dans la deuxième étape et des frappes effectivement entrées dans la première étape et un facteur d'intensité relative des vélocités desdites frappes effectivement entrées et attendues puis à ajuster le rythme de défilement dans la dite deuxième étape pour ajuster ledit facteur de vitesse corrigée (CSF) aux frappes suivantes à une valeur choisie et l'intensité des signaux en sortie du deuxième module en fonction dudit facteur d'intensité relative desdites vélocités.
PCT/EP2010/051763 2009-02-13 2010-02-12 Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire WO2010092140A2 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201080011162.5A CN102598117B (zh) 2009-02-13 2010-02-12 用于控制要再现的信号文件的回放的设备和方法
JP2011549574A JP5945815B2 (ja) 2009-02-13 2010-02-12 再生対象信号のファイルの再生を制御するための装置と方法
US13/201,175 US8880208B2 (en) 2009-02-13 2010-02-12 Device and method for controlling the playback of a file of signals to be reproduced
KR1020117021349A KR101682736B1 (ko) 2009-02-13 2010-02-12 재생되어질 신호 파일의 녹음재생을 제어하기 위한 장치 및 방법
EP10706971A EP2396788A2 (fr) 2009-02-13 2010-02-12 Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0950919A FR2942344B1 (fr) 2009-02-13 2009-02-13 Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire
FR0950919 2009-02-13

Publications (2)

Publication Number Publication Date
WO2010092140A2 true WO2010092140A2 (fr) 2010-08-19
WO2010092140A3 WO2010092140A3 (fr) 2011-02-10

Family

ID=41136768

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/051763 WO2010092140A2 (fr) 2009-02-13 2010-02-12 Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire

Country Status (7)

Country Link
US (1) US8880208B2 (fr)
EP (1) EP2396788A2 (fr)
JP (1) JP5945815B2 (fr)
KR (1) KR101682736B1 (fr)
CN (1) CN102598117B (fr)
FR (1) FR2942344B1 (fr)
WO (1) WO2010092140A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592485A (zh) * 2011-12-26 2012-07-18 中国科学院软件研究所 一种以动作方向变化控制音符播放的方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2396711A2 (fr) * 2009-02-13 2011-12-21 Movea S.A Dispositif et procede d'interpretation de gestes musicaux
JP5902919B2 (ja) * 2011-11-09 2016-04-13 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、情報処理方法
JP2013213946A (ja) * 2012-04-02 2013-10-17 Casio Comput Co Ltd 演奏装置、方法及びプログラム
JP2013213744A (ja) 2012-04-02 2013-10-17 Casio Comput Co Ltd 姿勢検出装置、方法及びプログラム
JP6044099B2 (ja) 2012-04-02 2016-12-14 カシオ計算機株式会社 姿勢検出装置、方法及びプログラム
EP2835769A1 (fr) 2013-08-05 2015-02-11 Movea Procédé, dispositif et système de capture annotée de données de capteurs et de modélisation de la foule d'activités
US11688377B2 (en) 2013-12-06 2023-06-27 Intelliterran, Inc. Synthesized percussion pedal and docking station
US9568994B2 (en) 2015-05-19 2017-02-14 Spotify Ab Cadence and media content phase alignment
US9536560B2 (en) 2015-05-19 2017-01-03 Spotify Ab Cadence determination and media content selection
CN106847249B (zh) * 2017-01-25 2020-10-27 得理电子(上海)有限公司 一种发音处理方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998019294A2 (fr) 1996-10-25 1998-05-07 Weinstock Frank M Procede et appareil de correlation en temps reel d'une performance avec une interpretation musicale

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662117A (en) * 1992-03-13 1997-09-02 Mindscope Incorporated Biofeedback methods and controls
US5629491A (en) * 1995-03-29 1997-05-13 Yamaha Corporation Tempo control apparatus
JP3149736B2 (ja) * 1995-06-12 2001-03-26 ヤマハ株式会社 演奏ダイナミクス制御装置
US5663514A (en) * 1995-05-02 1997-09-02 Yamaha Corporation Apparatus and method for controlling performance dynamics and tempo in response to player's gesture
JP3307152B2 (ja) * 1995-05-09 2002-07-24 ヤマハ株式会社 自動演奏制御装置
JP3750699B2 (ja) * 1996-08-12 2006-03-01 ブラザー工業株式会社 楽音再生装置
US5792972A (en) * 1996-10-25 1998-08-11 Muse Technologies, Inc. Method and apparatus for controlling the tempo and volume of a MIDI file during playback through a MIDI player device
JP2001125568A (ja) * 1999-10-28 2001-05-11 Roland Corp 電子楽器
EP1855267B1 (fr) * 2000-01-11 2013-07-10 Yamaha Corporation Dispositif et méthode pour détecter le mouvement d'un artiste et commander une interprétation musicale de manière interactive
JP3646600B2 (ja) * 2000-01-11 2005-05-11 ヤマハ株式会社 演奏インターフェイス
JP4320766B2 (ja) * 2000-05-19 2009-08-26 ヤマハ株式会社 携帯電話機
DE20217751U1 (de) * 2001-05-14 2003-04-17 Schiller, Rolf, 88212 Ravensburg System zur Aufzeichnung und Wiedergabe von Musik
JP2003015648A (ja) * 2001-06-28 2003-01-17 Kawai Musical Instr Mfg Co Ltd 電子楽音発生装置及び自動演奏方法
DE10222315A1 (de) * 2002-05-18 2003-12-04 Dieter Lueders Elektronischer Midi-Taktstock
DE10222355A1 (de) * 2002-05-21 2003-12-18 Dieter Lueders Audio-Dynamik-Zusatzmodul
JP2004302011A (ja) * 2003-03-31 2004-10-28 Toyota Motor Corp 指揮棒の振りタイミングに同期させて演奏する装置
JP2005156641A (ja) * 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法
EP1550942A1 (fr) * 2004-01-05 2005-07-06 Thomson Licensing S.A. Interface utilisateur pour un dispositif de reproduction de fichiers audio
WO2006050512A2 (fr) * 2004-11-03 2006-05-11 Plain Sight Systems, Inc. Entraineur musical personnel
US7402743B2 (en) * 2005-06-30 2008-07-22 Body Harp Interactive Corporation Free-space human interface for interactive music, full-body musical instrument, and immersive media controller

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998019294A2 (fr) 1996-10-25 1998-05-07 Weinstock Frank M Procede et appareil de correlation en temps reel d'une performance avec une interpretation musicale

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102592485A (zh) * 2011-12-26 2012-07-18 中国科学院软件研究所 一种以动作方向变化控制音符播放的方法
CN102592485B (zh) * 2011-12-26 2014-04-30 中国科学院软件研究所 一种以动作方向变化控制音符播放的方法

Also Published As

Publication number Publication date
JP5945815B2 (ja) 2016-07-05
KR20110115174A (ko) 2011-10-20
WO2010092140A3 (fr) 2011-02-10
FR2942344A1 (fr) 2010-08-20
JP2012518192A (ja) 2012-08-09
CN102598117A (zh) 2012-07-18
US20120059494A1 (en) 2012-03-08
EP2396788A2 (fr) 2011-12-21
KR101682736B1 (ko) 2016-12-05
US8880208B2 (en) 2014-11-04
CN102598117B (zh) 2015-05-20
FR2942344B1 (fr) 2018-06-22

Similar Documents

Publication Publication Date Title
WO2010092140A2 (fr) Dispositif et procede de controle du defilement d'un fichier de signaux a reproduire
EP2396711A2 (fr) Dispositif et procede d'interpretation de gestes musicaux
TWI433027B (zh) 適應性使用者介面
KR101915120B1 (ko) 인공신경망을 이용한 오디오의 이퀄라이징 시스템
WO2020224322A1 (fr) Procédé et dispositif de traitement de fichier de musique, terminal et support d'informations
US20130032023A1 (en) Real time control of midi parameters for live performance of midi sequences using a natural interaction device
JP2006171664A (ja) 携帯及び通信可能な装置における電子音楽
WO2017028686A1 (fr) Procédé de traitement d'informations, dispositif de terminal et support de stockage informatique
WO2011133398A2 (fr) Commande en temps réel de paramètres midi pour la performance en direct de séquences midi
WO2019114015A1 (fr) Procédé de commande de performance de robot, et robot
FR2974226A1 (fr) Procede de generation d'effet sonore dans un logiciel de jeu, programme d'ordinateur associe et systeme informatique pour executer des instructions du programme d'ordinateur.
EP1652180B1 (fr) Procede de reproduction de documents audio a l'aide d'une interface presentant des groupes de documents, et appareil de reproduction associe
US9734809B2 (en) Digital control of the sound effects of a musical instrument
CN111105776A (zh) 有声播放装置及其播放方法
CN113674723A (zh) 一种音频处理方法、计算机设备及可读存储介质
Yoshii et al. INTER: D: a drum sound equalizer for controlling volume and timbre of drums
EP0978116A1 (fr) Procede et dispositif pour l'enregistrement en boucles cycliques de plusieurs sequences phoniques
Tanaka et al. MubuFunkScatShare: gestural energy and shared interactive music
EP3889958A1 (fr) Égalisation de lecture audio dynamique à l'aide de caractéristiques sémantiques
JP5338312B2 (ja) 自動演奏同期装置、自動演奏鍵盤楽器およびプログラム
FR2942345A1 (fr) Dispositif et procede d'interpretation de gestes musicaux
WO2024080009A1 (fr) Dispositif acoustique, procédé de commande acoustique et programme de commande acoustique
JP2004126934A (ja) 音楽選曲装置、音楽選曲方法、プログラム記録媒体及びプログラム
JP2024528894A (ja) ビデオクリップに基づくオーディオビジュアルコンテンツの生成
CN115278350A (zh) 一种渲染方法及相关设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080011162.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10706971

Country of ref document: EP

Kind code of ref document: A2

REEP Request for entry into the european phase

Ref document number: 2010706971

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010706971

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011549574

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20117021349

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13201175

Country of ref document: US