EP1554878A2 - Embrouillage adaptatif et progressif de flux audio - Google Patents

Embrouillage adaptatif et progressif de flux audio

Info

Publication number
EP1554878A2
EP1554878A2 EP03767936A EP03767936A EP1554878A2 EP 1554878 A2 EP1554878 A2 EP 1554878A2 EP 03767936 A EP03767936 A EP 03767936A EP 03767936 A EP03767936 A EP 03767936A EP 1554878 A2 EP1554878 A2 EP 1554878A2
Authority
EP
European Patent Office
Prior art keywords
digital audio
distribution
audio sequences
stream
modified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP03767936A
Other languages
German (de)
English (en)
Inventor
Daniel Lecomte
Daniela Parayre-Mitzova
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medialive SA
Original Assignee
Medialive SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medialive SA filed Critical Medialive SA
Publication of EP1554878A2 publication Critical patent/EP1554878A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • H04N21/23476Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption by partially encrypting, e.g. encrypting the ending portion of a movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/167Systems rendering the television signal unintelligible and subsequently intelligible
    • H04N7/1675Providing digital key or authorisation information for generation or regeneration of the scrambling sequence

Definitions

  • the present invention relates to the field of processing digital audio streams. It is proposed in the present invention to provide a system for auditory scrambling and recomposing digital audio content.
  • the present invention relates more particularly to a device capable of securely transmitting a set of audio streams of high auditory quality to a music or speech player to be recorded in the memory or on the hard drive of a decoder unit connecting the remote transmission network to the audio player, while preserving the auditory quality, but avoiding any fraudulent use such as the possibility of making pirated copies of audio programs recorded in the memory or on the hard disk of the decoder unit.
  • the invention relates to a method for distributing digital audio sequences according to a nominal stream format consisting of a succession of frames each comprising at least one digital audio block grouping together a certain number of coefficients corresponding to simple audio elements digitally coded in a mode. specified inside the stream concerned and used by all audio decoders capable of playing it in order to be able to decode it correctly.
  • This process includes:
  • Said complementary information is defined as a set consisting of data (for example coefficients describing the original digital stream or extracts from the original stream) and functions (for example, the substitution or permutation function).
  • a function is defined as containing at least one instruction relating data and operators. Said additional digital information describes the operations to be carried out to recover the original flow from the modified flow.
  • the original stream is reconstituted on the recipient equipment from the modified main stream already present or sent in real time to the recipient equipment and additional information, sent in real time at the time of listening, comprising data and functions executed using digital routines (set of instructions).
  • a first signal processing circuit for inserting a redundant portion into a portion between adjoining frames and compressing the frames in base time in response to the redundant portions during encoding, a circuit generating a signal for inserting a control signal other than audio information in the redundant portions, a control signal detection circuit for detecting the control signal during decoding and a second signal processing circuit for removing the redundant portions in synchronism with the signal control detected and decompressing the frames in base time in response to the redundant portions.
  • Multimedia Adaptive Scrambling System a system for scrambling digital samples representing multimedia data (audio and video), so that the content of these samples is degraded, but recognizable, or otherwise provided with the required quality.
  • the quality level is linked to an associated signal / noise ratio, and is determined using objective and subjective tests.
  • a given number of Least Significant Bits (LSBs) is scrambled frame by frame, adaptively according to the dynamics of the possible values.
  • All encryption keys are included in the audio / video stream and used by the decoder to descramble and restore the stream. After descrambling, the encryption key cannot be recovered, since it is itself scrambled by the decoder.
  • the state of the art demonstrates many audio stream protection systems, essentially based on data encryption, by adding encryption keys independent of the content of the audio stream, and which therefore modify the format of the structured stream.
  • a particular and different embodiment is that of the company Coding Technologies, which consists in protecting by scrambling a selected part of the bitstream (the bitstream at the output of the audio encoder is called "bitstream") and not the entire bitstream.
  • Protected areas represent spectral values of the audio signal, leading to the fact that during decoding without decryption, the audio stream is distorted and unpleasant to listen to.
  • the present invention intends to remedy the drawbacks of the prior art by proposing to apply adaptive and progressive scrambling as a function of the structure of the audio stream, the profile of the client and external events.
  • the term “scrambling” is understood to mean the modification of a digital audio stream by appropriate methods so that this stream remains in conformity with the standard or standard with which it has been digitally encoded, while making it audible by an audio player (or player), but altered from the point of view of human auditory perception.
  • the term “descrambling” is understood to mean the process of restitution by appropriate methods of the initial stream, the audio stream restored after descrambling being identical to the original original audio stream.
  • the original flow is reconstituted on the recipient equipment from the modified main flow already present or sent in real time to the recipient equipment and additional information, sent in real time at the time of listening, including data and functions executed using digital routines (set of instructions). All or part of the additional information is sent according to the client's profile and rights.
  • the quantity of information contained in said sub-part of the additional information is defined as the number of data and / or functions belonging to the additional information sent to the recipient during the connection.
  • the type of information contained in said subpart corresponds to a level of scalability determined in depending on the recipient's profile.
  • the type of data relates to the habits of the recipient (time of connection, duration of connection, regularity of connection and payments), his environment (lives in a big city, the weather right now ) and its characteristics (age, sex, religion, community).
  • Said additional information is composed of at least functions, which are personalized for each recipient in relation to the connection session.
  • a session is defined from the connection time, the duration, the type of said modified stream listened to and the connected elements (recipients, servers).
  • Said additional information is subdivided into at least two sub-parts, each of the sub-parts being able to be distributed by different media, or by the same media. For example, in the case of distribution of additional information by several media, we can ensure more complex management of the rights of recipients.
  • the “profile” of the user is understood to mean a digital file comprising descriptors and information specific to the user, for example his cultural preferences and his social and cultural characteristics, his usage habits such as the frequency of use.
  • audio means, the average duration of listening to a scrambled audio sequence, the frequency of listening to a scrambled sequence, the price that the user is ready to pay or any other behavioral characteristic with regard to exploitation audio clips.
  • This profile is formalized by a digital file or a digital table usable by computer means.
  • Many scrambling systems have an immediate effect, either the initial flow is fully scrambled, or the initial flow is not at all scrambled, so generally different audio sequences can be scrambled with the same algorithm and setting parameters. Many protections used do not change the scrambling of an audio stream according to its content.
  • adaptive and progressive scrambling is applied as a function of the structure of the audio bitstream and / or its content, by changing the algorithms and / or the scrambling parameters as a function of the characteristics of the audio stream. and the user application, and this in order to achieve reliable protection, from the point of view of the deterioration of the original lux and resistance to piracy, for a minimal cost, while ensuring in the end the quality of service required by the recipient or the customer.
  • Different adaptations of the scrambling are applied, such as those mentioned below.
  • the invention relates in its most general sense to a method for the distribution of digital audio sequences according to a nominal stream format constituted by a succession of frames each comprising at least one digital audio block grouping together a plurality of coefficients corresponding to simple audio elements digitally coded, the method comprising a step of modifying at least one block of the original flow characterized in that said modifying step acts adaptively on said original flow as a function of at least part of the characteristics representative of the structure, the content and parameters of the original audio stream, the recipient's profile, and external events.
  • the modification step consists in replacing part of said coefficients to produce on the one hand a main audio stream in nominal format and on the other hand complementary modification information allowing the reconstruction of the original stream by a decoder of the recipient equipment, the scope of the modifications being variable and determined by said representative characteristics.
  • the modified main stream is recorded on the recipient equipment before the transmission of the additional information on the recipient equipment.
  • the modified main stream is recorded on a physical medium to be transmitted to the recipient equipment prior to the transmission of the additional information on the recipient equipment.
  • the modified main stream and the additional information are transmitted together in real time.
  • said additional modification information comprises at least one digital routine capable of executing a function.
  • said additional modification information is subdivided into at least two sub-parts.
  • said sub-parts of the additional modification information are distributed by different media.
  • said sub-parts of the additional modification information are distributed by the same medium.
  • the additional information is transmitted on a physical vector.
  • the additional information is transmitted online.
  • said digital audio sequences are modified in a differentiated manner as a function of their audio content.
  • said digital audio sequences are modified in a differentiated manner as a function of the modified scalability layer.
  • said digital audio sequences are modified in a differentiated manner as a function of the bit rate in kilo bits per second (kbits / s) of the original stream.
  • said digital audio sequences are modified in a differentiated manner as a function of the profile and the digital level defined by the standard or standard with which or which they were encoded.
  • said digital audio sequences are modified in a differentiated manner as a function of the number of audio channels present in the stream.
  • said digital audio sequences are modified in a differentiated manner as a function of the coupling and the multiplexing between the different audio channels present in the stream.
  • said digital audio sequences are modified in a differentiated manner as a function of the sampling frequency with which the audio stream has been encoded.
  • said digital audio sequences are modified in a differentiated manner according to the psychoacoustic model used.
  • said digital audio sequences are modified in a differentiated manner as a function of their granular scalability.
  • said digital audio sequences are modified in a progressive manner increasing the degradation effect until the audio stream is completely scrambled.
  • said digital audio sequences are modified with a random generation of scrambling parameters and configurations.
  • the method comprises a prior step of analog / digital conversion in a structured format, the method being applied to an analog audio signal.
  • the present invention also relates to a system for the distribution of digital audio sequences comprising an audio server comprising means for broadcasting a stream modified in accordance with any one of the preceding methods, and a plurality of equipment provided with a circuit 'scrambling, characterized in that the server further comprises a means for recording the digital profile of each recipient and a means for controlling the modification means as a function of input variables corresponding to at least some of the characteristics representative of the structure, content and parameters of the original audio stream, the recipient's profile, and external events.
  • a digital audio stream is generally composed of sequences made up of frames or blocks, organized according to a specific digital format for each audio coder, including the headers of the frames with the different encoding parameters and coefficients relative to a specific representation of the digital audio samples. Knowing how the audio signal is modeled, compressed and encoded for the audio coder and / or the given standard or standard, it is always possible to extract from the bitstream the main parameters which describe it and which are sent to the decoder. Once these parameters have been identified, they are modified so that the audio stream generated by the coder and / or the given standard conforms to this coder and / or this standard. In addition, the modification ensures the stability of the sound signal, but makes it unusable by the user, because it is scrambled. However, it can be understood and interpreted in the decoder corresponding to its encoding and played by a player without the latter being disturbed.
  • the modification of one or more of the components of said audio signal will cause its degradation from the point of view auditory and transform it into a completely incomprehensible and unpleasant signal from the point of view of subjective auditory perception.
  • the part of the audio signal or the component describing it which will be modified depends on its encoding, for each coder-decoder given, and this whether for speech, music, noise or special effects, synthetic sounds or any signal audio of the same type. According to the way in which the encoding and the transmission of the resulting parameters are carried out, one can have direct or indirect information on the main characteristics of the audio signal and therefore modify them. This principle is applicable for all types of digital coders as well as for all their base and enhancement layers or the combination of both.
  • An adaptation of the scrambling parameters is applied as a function of the content of the audio stream: natural or synthetic speech, music, noise, natural or synthetic or compound sounds, special effects.
  • the HVXC (Harmonie Vector excitation Coding) encoder for speech, and the HILN (Harmonie and Individual Lines plus Noise) encoder for music defined by the MPEG-4 standard are parametric encoders that encode the audio signal separately or jointly depending on its content.
  • the bitstream coming from the HVXC contains the values of the LSP (Line Spectral Pairs) reflecting the LPC (Linear Predictive Coding) parameters.
  • the values of the LSPs of the current frame are vectorized in two stages, are stabilized in a value in order to ensure the stability of the LPC synthesis filter and are then stored in a bitstream in ascending order, with a minimum of distance between adjacent coefficients .
  • the indices of the vectorally quantified LSP pairs are transmitted to the decoder, which restores the values of the LSPs and therefore of the LPCs from standard tables. By replacing the original indices with other values taken from predefined tables in the standard, the bitstream will remain compliant, but the decoded LSP values will not correspond to the original LPC parameters. Consequently, the spectral envelope will be modified and the speech deteriorated.
  • the parameters for the base layer, for the improvement layer or for both layers are modified.
  • An adaptation is also applied as a function of the bit rate in number of kilo bits per second (kbits / s) of the audio stream, whether constant or variable.
  • kbits / s the bit rate in number of kilo bits per second (kbits / s) of the audio stream, whether constant or variable.
  • For some more complex audio streams such as those of the MPEG-4 type, which have a variable bit rate in very large proportions (from 2 kbits / s to 64 its / s), we choose the scrambling parameters according to the bit rate , since scrambling for a low bit rate of the order of 2 kbits / s is less effective for higher bit rates, where the encoding accuracy is much higher.
  • the AAC (Advanced Audio Coding) encoding scheme with BSAC (Bit Sliced Arithmetic Coding) provides the possibility of noise reduction encoding from an AAC bitstream to a bitstream with fine granular scalability between 16 kbits / s and 64 kbits / s per channel, whose bit rate is adjustable with a step of 1 kbits / s.
  • adaptive scrambling is applied according to the types of objects contained in the stream, the profile ("profile"), the level (“level”) , designating the complexity and the options used when building the audio stream. Indeed, in the context of MPEG-4 audio, there are a multitude of audio objects and profiles.
  • one of the profiles is the “Simple scalable” which contains the CELP (Code Excited Linear Prediction) and AAC (Advanced Audio Coding) tools. Scrambling is performed according to the parameters of these two encoders. The adaptive modification of the elements of the audio stream is carried out according to the types of audio objects that each profile and level contains. An adaptation of the scrambling parameters is also applied as a function of the number of audio channels present in the stream.
  • CELP Code Excited Linear Prediction
  • AAC Advanced Audio Coding
  • An adaptation of the scrambling parameters is applied as a function of the coupling and the multiplexing between the different audio channels present in the stream.
  • An adaptation of the scrambling parameters is applied as a function of the sampling frequency with which the audio stream has been encoded.
  • An adaptation of the scrambling parameters is applied as a function of the psychoacoustic model used, characterizing certain audio encoders.
  • the psycho-acoustic model estimates the thresholds determining the maximum quantization error which can be admitted during compression while preserving the audio quality.
  • the spectral data are quantified and coded according to these estimated thresholds.
  • the quantification is chosen according to the estimated thresholds, for example the quantification can be uniform or non-uniform, and it is carried out using scale factors. By modifying the values of these scale factors, coded in differential in the bit stream, one introduces a quantification error, because the scale factors no longer correspond to those defined by the estimates of the psychoacoustic model.
  • the first scale factor when we want to obtain a strong hearing impairment, we modify the first scale factor, since all the scale factors are coded in differential with respect to the first scale factor, all the values which follow are erroneous and the audio signal is highly disturbed. Progressive scrambling is also applied, so that the user begins to listen to the unscrambled audio stream. Then, we start with a light scrambling which we reinforce more and more, until the audio stream becomes completely scrambled. The aim is to arouse the user's interest in the audio stream, but by taking away their rights to listen to it if they have not purchased it.
  • One embodiment of this application is to scramble the audio stream with one or more of the algorithms given by gradually modifying the scrambling parameters over a determined period of time so as to increase the inconvenience, until arriving at a completely scrambled stream and inaudible.
  • Adaptive scrambling is generally carried out as a function of the content, characteristics, structure and composition of the digital stream defined by a given standard or standard.
  • Scrambling is also performed with a random generation of the parametric combinations to apply for scrambling the audio stream.
  • a robust protection is provided which is difficult to attack or which cannot be hacked by a malicious person.
  • An adaptation of the scrambling parameters and algorithms is also applied as a function of external events, such as the time of broadcast, the audience rate, social-political events, or disturbances during the broadcast.
  • FIG. 1 illustrates a particular embodiment of the client-server system according to the invention.
  • the MPEG-AAC type audio stream that one wishes to secure (1) is sent to an analysis (121) and scrambling (122) system which will generate a modified main stream and additional information at the output.
  • the original stream (1) can be directly in digital form (10) or in analog form (11). In the latter case, the analog stream (11) is converted by an encoder not shown in a digital format (10). In the following the text, we will note (1) the digital audio input stream.
  • the complementary information (123), in any format, contains the references of the parts of the audio samples which have been modified and is placed in the buffer (126).
  • the analysis (121) and scrambling (122) system decides which adaptive scrambling to apply and which parameters of the flow to modify and also according to the rights of the client, from which way to apply the modifications, for example progressive or not.
  • the MPEG-AAC stream (125) is then transmitted, either in physical form on a CD-ROM, non-volatile memory, DVD, etc., or via a network (4) of the telephone network type, DSL (Digital Subscriber Line) , BLR (Local Radio Loop), DAB (Digital Audio Broadcasting), RTC (Switched Telephone Network), digital mobiles (GSM, GPRS, UMTS), wireless, cable, satellite, etc., to the customer (8), and more specifically in its memory (81) of RAM, ROM, hard disk type.
  • DSL Digital Subscriber Line
  • BLR Land Radio Loop
  • DAB Digital Audio Broadcasting
  • RTC Switchched Telephone Network
  • GSM Global System for Mobile Communications
  • GPRS Portable Network
  • UMTS Universal Mobile Communications Service
  • the recipient (8) does not have the necessary rights to play the audio sequence.
  • the stream (125) generated by the scrambling system (122) present in its memory (81) is passed to the synthesis system (82), which does not modify it and transmits it identically to a reader.
  • classical audio (83) and its content, strongly hearing impaired, is played by the player (83) on the headphones or speakers (9). or, the recipient (8) has the rights to listen to the audio sequence.
  • the server (12) transmits the appropriate additional information (126) via the link (6), corresponding to the type of scrambling carried out.
  • the synthesis system makes a request for audition to the server (12) containing the information necessary (126) for the recovery of the original audio sequence (1).
  • the server (12) then sends via the link (6) via transmission networks such as analog or digital telephone lines, DSL (Digital Subscriber Line), BLR (Local Radio Loop), DAB (Digital Audio Broadcasting), PSTN (Telephone Network Switched), digital mobile networks (GSM, GPRS, UMTS), wireless, cable or satellite additional information (126) allowing the reconstruction of the audio sequence so that the client (8) can listen and / or store the audio sequence.
  • the synthesis system (82) then proceeds to descramble the audio sequence by reconstructing the original stream by combining the modified main stream (125) and the additional information (126).
  • the audio stream thus obtained at the output of the synthesis system (82) is then transmitted to the conventional audio player (83) and the original audio sequence is played on the headphones or the speakers (9).
  • More and more coders have the option of operating at variable bit rates in order to satisfy specific applications, such as for example to respond limited bandwidth constraints.
  • An example of an encoder intended to ensure acceptable quality for speech, while respecting low bandwidth is the AMR ("Adaptive Multi Rate" in English) encoder, designed for cell phones, which can operate in eight different modes, the speed of which varies between 4.75 kbits / s and 12.2 kbits / s.
  • the present invention makes differentiated modifications according to the mode with which the audio stream was encoded, that is to say according to the bit rate, the length of the respective components of the frame, as well as according to the degree of hearing impairment desired.
  • the structure of the AMR frame is as follows: - The indexes corresponding to the frequency spectral pairs, called LSF ("Line Spectral Frequencies" in English), relating to the LSP parameters ("Line Spectral Pairs "in English), therefore also with LPC parameters (" Linear Predictive Coding "in English), that is to say with the form of the formants filter, said indexes being common to the entire frame;
  • modifying the value of the fundamental delay by substitution with a different value causes a frequency shift: a lower value causes a distortion of the voice, the effect obtained is a muffled sound, with crackling sounds similar to an “extinction of the voice " .
  • the differentiated modifications of the LSF give little additional information, for significant hearing impairment. Preferably, they are combined with other modifications.
  • the signs of the pulsations relating to the construction of the excitation are modified.
  • the excitation is also changed and the sound is totally distorted.
  • the frame structure is similar with the difference that it contains a single set of three LSFs; differentiated modifications are then applied, taking account of this particularity and of the frame length corresponding to this mode.
  • the structure of the frame is slightly different, it does not contain the amplitude of the fundamental, nor the gain of the tables with fixed values, but a set of gains relating to the tables of fixed and adaptive values, used to scale the excitement built from the addition of adaptive and innovation vector codes.
  • the modifications applied take these specific features into account. Modifying the LSF produces significant degradation, however, since the audio bit rates are low, small modifications are enough to obtain a strong hearing degradation.
  • the differentiated modifications are made taking into account the desired bit rate for the additional information.
  • the present invention is not limited to the modifications cited as exemplary embodiments, said modifications guaranteeing that the amplitude values of the sound authorized are not exceeded and guaranteeing the conformity of the modified main stream with the original audio stream.
  • the reconstituted stream is auditory identical to the original, but different from the binary point of view of the original stream, and this in order to strengthen security.
  • the reconstituted flow is strictly identical to the original, the process is lossless.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

La présente invention se rapporte à un procédé pour la distribution de séquences audio numériques selon un format de flux nominal constituées par une succession de trames comprenant chacune au moins un bloc regroupant une pluralité de coefficients correspondant à des éléments auditifs simples codés numériquement, le procédé comportant une étape de modification d'au moins un bloc du flux originel caractérisé en ce que ladite étape de modification agit de façon adaptative sur ledit flux originel en fonction d'une partie au moins des caractéristiques représentatives de la structure, du contenu et des paramètres du flux audio originel, du profil du destinataire, et d'événements externes. Dans un mode de réalisation particulier, l'étape de modification consiste à remplacer une partie desdits coefficients pour produire d'une part un flux audio principal au format nominal et d'autre part une information complémentaire de modification permettant la reconstruction du flux originel par un décodeur de l'équipement destinataire, la portée des modifications étant variable et déterminée par lesdites caractéristiques représentatives. La présente invention se rapporte également à un système pour la mise en oeuvre du procédé.

Description

EMBROUILIAGE ADAPTATIF ET PROGRESSIF DE FLUX AUDIO
La présente invention se rapporte au domaine du traitement des flux audio numériques . On se propose dans la présente invention de fournir un système permettant d'embrouiller auditivement et de recomposer un contenu audio numérique.
La présente invention se rapporte plus particulièrement à un dispositif capable de transmettre de façon sécurisée un ensemble de flux audio de haute qualité auditive vers un lecteur (« player ») musical ou de parole pour être enregistré dans la mémoire ou sur le disque dur d'un boîtier décodeur reliant le réseau de télétransmission au lecteur audio, tout en préservant la qualité auditive, mais en évitant toute utilisation frauduleuse comme la possibilité de faire des copies pirates de programmes audio enregistrés dans la mémoire ou sur le disque dur du boîtier décodeur.
L'invention concerne un procédé pour la distribution de séquences audio numériques selon un format de flux nominal constitué par une succession de trames comprenant chacune au moins un bloc audio numérique regroupant un certain nombre de coefficients correspondant à des éléments audio simples codés numériquement selon un mode précisé à l'intérieur du flux concerné et utilisé par tous les décodeurs audio capables de le jouer afin de pouvoir le décoder correctement. Ce procédé comporte :
• une étape préparatoire consistant à modifier au moins un desdits coef icients, • une étape de transmission
- d'un flux principal conforme au format nominal, constitué par des trames contenant les blocs modifiés au cours de l'étape préparatoire et - par une voie séparée dudit flux principal d'une information numérique complémentaire permettant de reconstituer le flux originel à partir du calcul, sur l'équipement destinataire, en fonction dudit flux principal et de ladite information complémentaire. On définit ladite information complémentaire en tant qu'un ensemble constitué de données (par exemple des coefficients décrivant le flux numérique originel ou des extraits du flux originel) et de fonctions (par exemple, la fonction substitution ou permutation) . Une fonction est définie comme contenant au moins une instruction mettant en rapport des données et des opérateurs. Ladite information numérique complémentaire décrit les opérations à effectuer pour récupérer le flux originel à partir du flux modifié.
La reconstitution du flux originel s'effectue sur l'équipement destinataire à partir du flux principal modifié déjà présent ou envoyé en temps réel sur l'équipement destinataire et de l'in ormation complémentaire, envoyée en temps réel au moment de l'écoute, comprenant des données et des fonctions exécutées à l'aide de routines (ensemble d'instructions) numériques.
L'art antérieur connaît déjà par la demande de brevet internationale WO 0058963 (Liquid Audio) un système de sécurité pour les lecteurs de musique portables. Des données comme un morceau musical sont sauvegardées en tant que morceau portable sécurisé (SPT : secure portable trac ) , qui peut être lié à un ou plusieurs lecteurs (« players ») et peut être lié à un moyen de sauvegarde particulier, restreignant ainsi la lecture du SPT à des players spécifiques et assurant que la lecture est seulement effectuée à partir du moyen de sauvegarde original . Le SPT est lié à un player par encryptage de données du SPT en utilisant une clé de sauvegarde qui est unique au player, difficile à changer et est gardée par le lecteur dans des conditions de sécurité strictes. Le SPT est lié à un moyen particulier de sauvegarde en incluant des données identifiant uniquement le moyen de sauvegarde dans une forme résistante à la falsification, c'est-à-dire signée de façon cryptée .
On connaît également, par le brevet américain US 4600941 (Sony), un système d'embrouillage pour les signaux audio dans lequel un signal audio est divisé en blocs, chaque bloc étant formé d'une pluralité de trames, la pluralité de trames étant réarrangée sur une base de temps dans un ordre prédéterminé à chaque bloc de façon à être encodée, et le signal encodé est ré-arrangé sur une base de temps dans un ordre original de façon à être décodé. Dans ce système sont fournis un premier circuit de traitement du signal pour insérer une portion redondante dans une portion entre des trames contiguës et comprimer en temps de base les trames en réponse aux portions redondantes lors de l'encodage, un circuit générant un signal pour insérer un signal de contrôle autre qu'une information audio dans les portions redondantes, un circuit de détection de signal de contrôle pour détecter le signal de contrôle lors du décodage et un deuxième circuit de traitement du signal pour enlever les portions redondantes en synchronisme avec le signal de contrôle détecté et décompressant en temps de base les trames en réponse aux portions redondantes.
On cpnnaît également, par le brevet américain US 5058159 (Macrovision corporation) , une méthode et un système pour embrouiller et désembrouiller des signaux d'information audio. Les signaux audio sont embrouillés en inversant le spectre de fréquence original de telle sorte que les portions de fréquence qui sont à l'origine en bas dans la bande de fréquence audio sont déplacées en haut tandis que les portions à l'origine en haut de la bande sont déplacées en bas. Un son pilote d'une fréquence connue est enregistré avec les signaux audio aux fréquences déplacées . Lors de la reproduction, chaque variation en phase et en fréquence sont recherchées par le son pilote, qui est utilisé pour générer le signal de démodulation pour reconstituer le contenu original en fréquences des signaux audio.
L'art antérieur connaît également par la demande de brevet internationale WO 99/55089 « Multimedia Adaptive Scrambling System » (« Système Adaptatif d'E brouillage Multimédia ») un système pour l'embrouillage d'échantillons numériques représentant des données multimédias (audio et vidéo) , de manière à ce que le contenu de ces échantillons soit dégradé, mais reconnaissable, ou sinon fourni avec la qualité requise. Le niveau de qualité est relié à un rapport signal / bruit associé, et est déterminé à l'aide de tests objectifs et subjectifs. Un nombre donné de LSBs (« Least Significant Bits », bits de poids le plus faible) est embrouillé trame par trame, de manière adaptative en fonction de la dynamique des valeurs possibles. Toutes les clefs de cryptage sont incluses dans le flux audio/vidéo et utilisées par le décodeur pour désembrouiller et restituer le flux. Après le désembrouillage, la clef de cryptage n'est pas récupérable, car elle est elle-même embrouillée par le décodeur. L'état de l'art fait preuve de beaucoup de systèmes de protection de flux audio, essentiellement basés sur le cryptage des données, en rajoutant des clefs de cryptage indépendantes du contenu du flux audio, et qui donc modifient le format du flux structuré. Une réalisation particulière et différente est celle de la société Coding Technologies, qui consiste à protéger par embrouillage une partie sélectionnée du bitstream (on appelle « bitstream » le flux binaire à la sortie de l'encodeur audio) et non pas le bitstream entier. Les parties protégées représentent les valeurs spectrales du signal audio, menant à ce que lors du décodage sans décrypter, le flux audio est distordu et désagréable à l'écoute.
La présente invention entend remédier aux inconvénients de l'art antérieur en proposant d'appliquer un embrouillage adaptatif et progressif en fonction de la structure du flux audio, du profil du client et d'événements extérieurs .
Dans la présente invention, on entend sous le terme « embrouillage » la modification d'un flux audio numérique par des méthodes appropriées de manière à ce que ce flux reste conforme à la norme ou au standard avec lequel il a été encodé numériquement, tout en le rendant audible par un lecteur audio (ou player) , mais altéré du point de vue de la perception auditive humaine.
Dans la présente invention, on entend sous le terme « désembrouillage » le processus de restitution par des méthodes appropriées du flux initial, le flux audio restitué après le désembrouillage étant identique au flux audio originel initial. La reconstitution du flux originel s'effectue sur l'équipement destinataire à partir du flux principal modifié déjà présent ou envoyé en temps réel sur l'équipement destinataire et de l'information complémentaire, envoyée en temps réel au moment de l'écoute, comprenant des données et des fonctions exécutées à l' aide de routines (ensemble d'instructions) numériques. La totalité ou une sous-partie de l'information complémentaire est envoyée en fonction du profil et des droits du client. On définit comme quantité d' informations contenues dans ladite sous-partie de l'information complémentaire le nombre de données et/ou des fonctions appartenant à l'information complémentaire envoyée au destinataire pendant la connexion. Le type d'informations contenues dans ladite sous- partie, correspond à un niveau de scalabilité déterminé en fonction du profil du destinataire. On définit comme type, la nature des données et/ou fonctions appartenant à l'information complémentaire envoyée au destinataire pendant la connexion. Par exemple, le type de données est relatif aux habitudes du destinataire (heure de connexion, durée de la connexion, régularité de la connexion et des paiements) , de son environnement (habite une grande ville, le temps qu'il fait en ce moment) et à ses caractéristiques (âge, sexe, religion, communauté) . Ladite information complémentaire est composée au moins de fonctions, qui sont personnalisées pour chaque destinataire par rapport à la session de connexion. On définit une session à partir de l'heure de connexion, la durée, le type dudit flux modifié écouté et les éléments connectés (destinataires, serveurs) .
Ladite information complémentaire est subdivisée en au moins deux sous-parties, chacune des sous-parties pouvant être distribuée par différents médias, ou par le même média. Par exemple, dans le cas de distribution de l'information complémentaire par plusieurs médias, on peut assurer une gestion plus complexe des droits des destinataires.
On entend par « profil » de l'utilisateur, un fichier numérique comprenant des descripteurs et informations spécifiques à l'utilisateur, par exemple ses préférences culturelles et ses caractéristiques sociales et culturelles, ses habitudes d'utilisation telles que la périodicité de l'utilisation des moyens audio, la durée moyenne de l'écoute d'une séquence audio embrouillée, la fréquence d'écoute d'une séquence embrouillée, le prix que l'utilisateur est prêt à payer ou toute autre caractéristique comportementale au regard de l'exploitation de séquences audio. Ce profil se formalise par un fichier numérique ou une table numérique exploitable par des moyens informatiques . Beaucoup de systèmes d' embrouillage ont un effet immédiat, soit le flux initial est totalement embrouillé, soit le flux initial n'est pas du tout embrouillé, aussi généralement différentes séquences audio peuvent être embrouillées avec le même algorithme et les mêmes paramètres de réglage. De nombreuses protections utilisées ne changent pas l'embrouillage d'un flux audio en fonction de son contenu.
Dans la présente invention, on applique un embrouillage adaptatif et progressif en fonction de la structure du flux (bitstream) audio et/ou de son contenu, en changeant les algorithmes et/ou les paramètres de 1' embrouillage en fonction des caractéristiques du flux audio et de l'application utilisateur, et cela dans le but de réaliser une protection fiable, du point de vue de la détérioration du lux d' origine et de la résistance au piratage, pour un coût minimal, tout en assurant à la fin la qualité de service requise par le destinataire ou le client. On applique différentes adaptations de l'embrouillage, comme par exemple celles citées ci-dessous.
L'invention concerne dans son acception la plus générale un procédé pour la distribution de séquences audio numériques selon un format de flux nominal constituées par une succession de trames comprenant chacune au moins un bloc audio numérique regroupant une pluralité de coefficients correspondant à des éléments audio simples codés numériquement, le procédé comportant une étape de modification d'au moins un bloc du flux originel caractérisé en ce que ladite étape de modification agit de façon adaptative sur ledit flux originel en fonction d'une partie au moins des caractéristiques représentatives de la structure, du contenu et des paramètres du flux audio originel, du profil du destinataire, et d'événements externes. De préférence, l'étape de modification consiste à remplacer une partie desdits coefficients pour produire d'une part un flux audio principal au format nominal et d'autre part une information complémentaire de modification permettant la reconstruction du flux originel par un décodeur de l'équipement destinataire, la portée des modifications étant variable et déterminée par lesdites caractéristiques représentatives .
Selon une variante, le flux principal modifié est enregistré sur l'équipement destinataire préalablement à la transmission de l'information complémentaire sur l'équipement destinataire.
Selon une variante, le flux principal modifié est enregistré sur un support physique pour être transmis à l'équipement destinataire préalablement à la transmission de l'information complémentaire sur l'équipement destinataire.
Selon une autre variante, le flux principal modifié et l'information complémentaire sont transmis ensemble en temps réel. Avantageusement, ladite information complémentaire de modification comprend au moins une routine numérique apte à exécuter une fonction.
Selon un mode de mise en œuvre particulier, ladite information complémentaire de modification est subdivisée en au moins deux sous-parties.
Selon une variante, lesdites sous-parties de l'information complémentaire de modification sont distribuées par différents médias.
Selon une autre variante, lesdites sous-parties de l'information complémentaire de modification sont distribuées par le même média.
Selon un mode de mise en œuvre particulier, l'information complémentaire est transmise sur un vecteur physique. Selon une variante, l'information complémentaire est transmise en ligne.
Avantageusement, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de leur contenu audio.
Avantageusement, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de la couche de scalabilité modifiée.
Avantageusement, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du débit en kilo bits par seconde (kbits/s) du flux originel.
Selon une variante, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du profil et du niveau numérique défini par la norme ou le standard avec laquelle ou lequel elles ont été encodées.
Selon une autre variante, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du nombre de canaux audio présents dans le flux.
Avantageusement, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du couplage et du multiplexage entre les différents canaux audio présents dans le flux.
Selon une variante, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de la fréquence d'échantillonnage avec laquelle a été encodé le flux audio.
Selon une autre variante, lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du modèle psycho acoustique utilisé. Selon un mode de mise en œuvre particulier, lesdites séquences audio numériques sont modifiées de manière différenciée en fonction de leur scalabilité granulaire. Avantageusement, lesdites séquences audio numériques sont modifiées d'une manière progressive augmentant l'effet de dégradation jusqu'à l'embrouillage complet du flux audio.
De préférence, lesdites séquences audio numériques sont modifiées avec une génération aléatoire des paramètres et configurations d' embrouillage.
Selon une variante, le procédé comporte une étape préalable de conversion analogique/numérique sous un format structuré, le procédé étant appliqué à un signal audio analogique.
La présente invention se rapporte également à un système pour la distribution de séquences audio numériques comportant un serveur audio comprenant des moyens pour diffuser un flux modifié conformément à l'un quelconque des procédés précédents, et une pluralité d'équipements munis d'un circuit d' embrouillage, caractérisé en ce que le serveur comprend en outre un moyen d' enregistrement du profil numérique de chaque destinataire et un moyen d'asservissement des moyens de modification en fonction de variables d'entrée correspondant à une partie au moins des caractéristiques représentatives de la structure, du contenu et des paramètres du flux audio originel, du profil du destinataire, et d'événements externes.
Un flux audio numérique est généralement composé de séquences constituées de trames ou de blocs, organisés selon un format numérique spécifique pour chaque codeur audio, incluant les en-têtes des trames avec les différents paramètres d'encodage et des coefficients relatifs à une représentation spécifique des échantillons audio numériques. Connaissant la manière dont sont effectués la modélisation, la compression et l'encodage du signal audio pour le codeur audio et/ou le standard ou la norme donnés, il est toujours possible d'extraire à partir du bitstream les paramètres principaux qui le décrivent et qui sont envoyés au décodeur. Une fois ces paramètres identifiés, ils sont modifiés de manière à ce que le flux audio généré par le codeur et/ou le standard donnés soit conforme à ce codeur et/ou ce standard. De plus, la modification assure la stabilité du signal sonore, mais le rend inexploitable par l'utilisateur, car il est embrouillé. Cependant, il peut être compris et interprété dans le décodeur correspondant à son encodage et joué par un player sans que ce dernier ne soit perturbé.
La modification d'une ou de plusieurs des composantes dudit signal audio (enveloppe spectrale, fondamental ou harmoniques, modèle psycho-acoustique, évolution temporelle, Rapport Signal/Bruit, composition, compression, quantification, transformation) va provoquer sa dégradation du point de vue auditif et le transformer en un signal complètement incompréhensible et désagréable du point de vue de la perception auditive subjective. La partie du signal audio ou la composante le décrivant qui sera modifiée dépend de son encodage, pour chaque codeur-décodeur donné, et ceci que ce soit pour la parole, la musique, le bruit ou les effets spéciaux, les sons synthétiques ou tout signal audio du même type. Selon la manière dont sont réalisés l'encodage et la transmission des paramètres résultants, on peut avoir une information directe ou indirecte sur les principales caractéristiques du signal audio et donc les modifier. Ce principe est applicable pour tous les types de codeurs numériques ainsi que pour toutes leurs couches, de base ou d' amélioration (« base and enhancement layers ») ou la combinaison des deux.
On applique une adaptation des paramètres d' embrouillage en fonction du contenu du flux audio : parole naturelle ou synthétique, musique, bruits, sons naturels ou synthétiques ou composés, effets spéciaux. Par exemple, l'encodeur HVXC (Harmonie Vector excitation Coding) pour la parole, et l'encodeur HILN (Harmonie and Individual Lines plus Noise) pour la musique, définis par la norme MPEG-4 sont des codeurs paramétriques qui codent le signal audio séparément ou conjointement en fonction de son contenu. Par exemple dans le cas où la parole est prédominante, le bitstream provenant du HVXC contient les valeurs des LSP (Line Spectral Pairs) reflétant les paramètres LPC (Linear Prédictive Coding) . Les valeurs des LSP de la trame courante sont quantifiées vectoriellement en deux étapes, sont stabilisées dans une valeur afin d'assurer la stabilité du filtre de synthèse LPC et sont ensuite rangées dans un bitstream en ordre ascendant, avec un minimum de distance entre coefficients adjacents. Les indices des paires LSP quantifiées vectoriellement sont transmis au décodeur, qui restitue à partir de tables standards les valeurs des LSP et donc des LPC. En remplaçant les indices originels avec d' autres valeurs prises à partir de tables prédéfinies dans la norme, le bitstream restera conforme, mais les valeurs LSP décodées ne correspondront pas aux paramètres LPC originels. Par conséquent, l'enveloppe spectrale sera modifiée et la parole détériorée.
Beaucoup de codeurs audio se caractérisent par la scalabilité. On définit la notion de « scalabilité » à partir du mot anglais « scalability » qui caractérise un encodeur capable d'encoder ou un décodeur capable de décoder, un ensemble ordonné de flux binaires de façon à produire ou reconstituer une séquence multi couches. En fonction de la configuration de l'encodeur audio, on applique un embrouillage adaptatif par rapport à la couche de base ou aux couches d'amélioration. Par exemple, les encodeurs HVXC et HILN, possèdent chacun une couche de base et une couche d'amélioration, ce qui permet plusieurs 04/039053
13 configurations possibles. En fonction du degré d' embrouillage souhaité, on modifie les paramètres pour la couche de base, pour la couche d'amélioration ou pour les deux couches . On applique également une adaptation en fonction du débit en nombre de kilo bits par seconde (kbits/s) du flux audio, qu'il soit constant ou variable. Pour certains flux audio plus complexes (comme ceux du type MPEG-4, qui ont un débit variable dans de très larges proportions (de 2 kbits/s à 64 its/s), on choisit les paramètres de l'embrouillage en fonction du débit, étant donné qu'un embrouillage pour un faible débit de l'ordre de 2 kbits/s s'avère moins efficace pour des débits plus élevés, où la précision de l'encodage est beaucoup plus grande. On applique également une adaptation des paramètres de l'embrouillage en fonction de la scalabilité granulaire fine, provenant du terme anglais « fine granular scalability » caractérisant certains flux audio. On définit la notion de « scalabilité granulaire » à partir de l'expression en anglais « granular scalability » utilisée dans la norme MPEG-4 qui caractérise un encodeur capable d' encoder ou un décodeur capable de décoder un ensemble ordonné de flux binaires de façon à produire ou reconstituer une séquence multi couches. On définit la granularité comme la quantité d'informations susceptible d'être transmise par couche d'un système caractérisé par une scalabilité quelconque, le système est alors aussi granulaire. Par exemple, le schéma d'encodage AAC (Advanced Audio Coding) avec BSAC (Bit Sliced Arithmetic Coding) procure la possibilité d'un encodage avec réduction du bruit d'un bitstream AAC en un bitstream avec une scalabilité granulaire fine entre 16 kbits/s et 64 kbits/s par canal, dont le débit binaire est modulable avec un pas de 1 kbits/s . Pour certains flux audio plus complexes (comme ceux définis par la norme MPEG-4) , on applique un embrouillage adaptatif en fonction des types d'objets contenus dans le flux, du profil (« profile ») , du niveau (« level ») , désignant la complexité et les options utilisées lors de la construction du flux audio. En effet, dans le cadre de MPEG- 4 audio, on a une multitude d'objets et de profils audio. Par exemple, pour les objets audio naturels, un des profils est le « Simple scalable » qui contient les outils CELP (Code Excited Linear Prédiction) et AAC (Advanced Audio Coding) . L'embrouillage est effectué en fonction des paramètres de ces deux codeurs. La modification adaptative des éléments du flux audio est effectuée en fonction des types d'objets audio que contient chaque profil et level. On applique également une adaptation des paramètres de l'embrouillage en fonction du nombre de canaux audio présents dans le flux.
On applique une adaptation des paramètres de l'embrouillage en fonction du couplage et du multiplexage entre les différents canaux audio présents dans le flux.
On applique une adaptation des paramètres de l'embrouillage en fonction de la fréquence d'échantillonnage avec laquelle a été encodé le flux audio.
On applique une adaptation des paramètres de l'embrouillage en fonction du modèle psycho acoustique utilisé, caractérisant certains encodeurs audio.
Par exemple, dans la norme MPEG-4 AAC, le modèle psycho-acoustique estime les seuils déterminant l'erreur maximale de quantification qui peut être admise lors de la compression tout en préservant la qualité audio. Les données spectrales sont quantifiées et codées en fonction de ces seuils estimés. La quantification est choisie en fonction des seuils estimés, par exemple la quantification peut être uniforme ou non uniforme, et elle est effectuée à l'aide de facteurs d'échelle (« scale factors » en anglais) . En modifiant les valeurs de ces facteurs d'échelle, codés en différentiel dans le flux binaire, on introduit une erreur de quantification, car les facteurs d'échelle ne correspondent plus à ceux définis par les estimations du modèle psycho-acoustique. On adapte l'embrouillage en fonction de la dégradation auditive souhaitée, dans le cas où on souhaiterait un léger embrouillage, on modifie les derniers facteurs d'échelle. Avantageusement, lorsqu'on veut obtenir une forte dégradation auditive, on modifie le premier facteur d'échelle, étant donné que tous les facteurs d'échelle sont codés en différentiel par rapport au premier facteur d'échelle, toutes les valeurs qui suivent sont erronées et le signal audio est fortement perturbé. On applique aussi un embrouillage progressif, de manière à ce que l'utilisateur commence à écouter le flux audio non embrouillé. Ensuite, on commence par un embrouillage léger qu'on renforce de plus en plus, jusqu'à ce que le flux audio devienne entièrement embrouillé. Le but recherché est d'éveiller l'intérêt de l'utilisateur pour le flux audio, mais en lui enlevant les droits de l'écouter si ce dernier ne les a pas achetés. Une réalisation de cette application est d'embrouiller le flux audio avec un ou plusieurs des algorithmes donnés en modifiant progressivement les paramètres d' embrouillage pendant une durée de temps déterminée de manière à augmenter le désagrément, jusqu'à arriver à un flux complètement embrouillé et inaudible.
On réalise généralement un embrouillage adaptatif en fonction du contenu, des caractéristiques, de la structure et de la composition du flux numérique défini par une norme ou un standard donné .
On réalise également un embrouillage avec une génération aléatoire des combinaisons paramétriques à appliquer pour l'embrouillage du flux audio. De cette manière, on assure une protection robuste et difficilement attaquable ou ne pouvant pas être piratée par une personne mal intentionnée. On applique également une adaptation des paramètres et algorithmes d' embrouillage en fonction du profil du destinataire, en fonction du comportement du destinataire pendant la connexion au serveur (par exemple la régularité et l'acceptation des paiements), en fonction du prix qu'il est prêt à payer, en fonction de ses habitudes (par exemple temps, heure de connexion) , en fonction de ses caractéristiques (par exemple âge, sexe, religion, communauté) , ou en fonction de données communiquées par un tiers (par exemple appartenance à des associations ou figurant sur des bases de données de consommateurs) .
On applique également une adaptation des paramètres et algorithmes d' embrouillage en fonction d'événements externes, comme par exemple l'heure de diffusion, le taux d'audience, des événements sociaux-politiques, ou des perturbations durant la diffusion.
On comprendra mieux l'invention à l'aide de la description, faite ci-après à titre purement explicatif, d'un mode de réalisation de l'invention, en référence à la figure annexée : la figure 1 illustre un mode de réalisation particulier du système client-serveur selon l'invention. Le flux audio de type MPEG-AAC que l'on souhaite sécuriser (1) est envoyé à un système d'analyse (121) et d' embrouillage (122) qui va générer un flux principal modifié et une information complémentaire en sortie. Le flux d'origine (1) peut être directement sous forme numérique (10) ou sous forme analogique (11) . Dans ce dernier cas, le flux analogique (11) est converti par un codeur non représenté en un format numérique (10) . Dans la suite du texte, nous noterons (1) le flux numérique audio d' entrée.
Un premier flux (124) au format MPEG-AAC, de format identique au flux numérique d'entrée (1) en dehors de ce que certains de ses coefficients et/ou valeurs ont été modifiés, est placé dans une mémoire tampon de sortie (125) .
L'information complémentaire (123), de format quelconque, contient les références des parties des échantillons audio qui ont été modifiées et est placée dans le tampon (126) . En fonction des caractéristiques du flux d'entrée (1), le système d'analyse (121) et d' embrouillage (122) décide quel embrouillage adaptatif appliquer et quels paramètres du flux modifier et aussi en fonction des droits du client, de quelle manière appliquer les modifications, par exemple progressive ou pas.
Le flux MPEG-AAC (125) est ensuite transmis, soit sous forme physique sur un CD-ROM, une mémoire non volatile, DVD, etc., soit via un réseau (4) de type réseau téléphonique, DSL (Digital Subscriber Line) , BLR (Boucle Locale Radio) , DAB (Digital Audio Broadcasting) , RTC (Réseau Téléphonique Commuté) , mobiles numériques (GSM, GPRS, UMTS) , hertzien, câble, satellite, etc., au client (8), et plus précisément dans sa mémoire (81) de type RAM, ROM, disque dur. Lorsque le destinataire (8) fait la demande d'écouter une séquence audio présente dans sa mémoire (81) , deux éventualités sont possibles :
- soit le destinataire (8) ne possède pas les droits nécessaires pour jouer la séquence audio. Dans ce cas, le flux (125) généré par le système de brouillage (122) présent dans sa mémoire (81) est passé au système de synthèse (82) , qui ne le modifie pas et le transmet à l'identique à un lecteur audio classique (83) et son contenu, fortement dégradé auditivement, est joué par le player (83) sur le casque ou les hauts parleurs (9) . soit, le destinataire (8) possède les droits pour écouter la séquence audio. En fonction des droits du destinataire, le serveur (12) transmet l'information complémentaire (126) appropriée par la liaison (6) , correspondant au type d' embrouillage effectué. Dans ce cas, le système de synthèse fait une demande d' audition au serveur (12) contenant l'information nécessaire (126) à la récupération de la séquence audio originelle (1) . Le serveur (12) envoie alors par la liaison (6) via des réseaux de transmission type ligne téléphonique analogique ou numérique, DSL (Digital Subscriber Line) , BLR (Boucle Locale Radio) , DAB (Digital Audio Broadcasting) , RTC (Réseau Téléphonique Commuté) , réseaux mobiles numériques (GSM, GPRS, UMTS), hertzien, câble, ou satellite l'information complémentaire (126) permettant la reconstitution de la séquence audio de façon à ce que le client (8) puisse écouter et/ou stocker la séquence audio. Le système de synthèse (82) procède alors au désembrouillage de la séquence audio par la reconstruction du flux d' origine en combinant le flux principal modifié (125) et l'information complémentaire (126) . Le flux audio ainsi obtenu en sortie du système de synthèse (82) est alors transmis au lecteur audio classique (83) et la séquence audio originelle est jouée sur le casque ou les hauts parleurs (9) .
Nous allons également illustrer la présente invention à l'aide d'un deuxième exemple de réalisation, présentant des modifications différenciées en fonction du débit, de la structure, de la composition de la trame audio et aussi en fonction de l'effet de dégradation auditive à obtenir.
De plus en plus de codeurs possèdent l'option de fonctionner à des débits variables afin de satisfaire des applications spécifiques, comme par exemple pour répondre aux contraintes de bande passante limitée. Un exemple de codeur ayant pour but d' assurer une qualité acceptable pour la parole, tout en respectant une bande passante de faible débit est le codeur AMR (« Adaptive Multi Rate » en anglais), conçu pour la téléphonie cellulaire, pouvant fonctionner en huit modes différents, dont le débit varie entre 4,75 kbits/s et 12,2 kbits/s. La présente invention effectue des modifications différenciées en fonction du mode avec lequel a été encodé le flux audio, c'est-à-dire en fonction du débit, de la longueur des composantes respectives de la trame, ainsi qu'en fonction du degré de dégradation auditif souhaité.
Par exemple en mode 12,2 kbits/s, la structure de la trame AMR est la suivante : - Les index correspondant aux paires spectrales de fréquence, appelées LSF (« Line Spectral Frequencies » en anglais) , relatives aux paramètres LSP (« Line Spectral Pairs » en anglais) , donc aussi aux paramètres LPC (« Linear Prédictive Coding » en anglais), c'est-à-dire à la forme du filtre des formants, lesdits index étant communs à toute la trame ;
Quatre groupes de paramètres relatifs aux quatre sous-trames, contenues dans la trame complète, représentant cent soixante échantillons audio. Chaque groupe de paramètres par sous-trame est constitué de la manière suivante : retard du fondamental («pitch delay » en anglais) , amplitude du fondamental (« pitch gain » en anglais) , - données concernant le signe et la position fréquentielle des impulsions de l'excitation, index relatif au gain de la table de valeurs (« codebook » en anglais) . En fonction de la dégradation auditive souhaitée, on modifie ces paramètres de manière différenciée.
Par exemple, modifier la valeur du retard du fondamental par substitution avec une valeur différente provoque un décalage fréquentiel : une valeur plus faible provoque une déformation de la voix, l'effet obtenu est un son sourd, avec des grésillements similaires à une « extinction de la voix » .
Modifier l'amplitude du fondamental en le substituant avec une valeur plus grande provoque une déformation saccadée, certaines parties sont amplifiées, d'autres « étouffées ».
Plusieurs modification sont également effectuées sur les valeurs des LSF : - substituer les valeurs des LSF avec des valeurs fixes produit un effet sonore connu similaire à un canal radio brouillé ; substituer les valeurs des LSF en changeant aléatoirement les indices, casse entièrement le son, car cela rajoute des grésillements de différentes fréquences et amplitudes produisant un grand désagrément sonore, la parole devient inintelligible ; en modifiant une LSF, la dégradation audible est similaire à un bruit de fond type « sifflement », mais une partie du son reste perceptible, on adapte les modifications dans ce cas, par exemple pour des applications de ' pré audition (« teasing » en anglais) , quand on souhaite que l'utilisateur puisse percevoir le son et choisir d'en demander ou pas les droits. Par exemple, on modifie une LSF, et progressivement on rajoute des modifications sur la deuxième LSF, la troisième, la quatrième et la cinquième, jusqu'à modifier les valeurs de toutes les LSF, en substituant la valeur des indices avec une même valeur par exemple. Le résultat obtenu dans ce cas est la concentration du spectre autour d'une fréquence, par exemple si on pose les indices à un, on obtient un son inintelligible de basse fréquence .
Les modifications différenciées des LSF donnent une information complémentaire peu volumineuse, pour une dégradation auditive importante. De préférence, elles sont combinées avec d'autres modifications.
Avantageusement, on modifie les signes des pulsations relatives à la construction de l'excitation. De plus, en substituant la position des pulsations avec des « fausses » positions, on modifie également l'excitation et le son est totalement déformé .
Pour un mode à 7,95 kbits/s, la structure de la trame est similaire à la différence près qu'elle contient un seul jeu de trois LSF ; on applique alors des modifications différenciées en tenant compte de cette particularité et de la longueur de trame correspondante à ce mode.
Pour les autres modes du codeur AMR, la structure de la trame est légèrement différente, elle ne contient pas l'amplitude du fondamental, ni le gain des tables à valeurs fixes, mais un ensemble de gains relatifs aux tables de valeurs fixes et adaptatives, utilisés pour la mise à l'échelle de l'excitation construite à partir de l'addition des codes-vecteurs adaptatifs et d'innovation. Les modifications appliquées tiennent compte de ces spécificités. Modifier les LSF produit une dégradation importante, néanmoins, étant donné que les débits audio sont peu élevés, de petites modifications sont suffisantes pour obtenir une forte dégradation auditive.
De préférence, les modifications différenciées sont effectuées en tenant compte du débit souhaité pour l'information complémentaire. La présente invention ne se limite pas aux modifications citées à titre d'exemples de réalisation, lesdites modifications garantissant le non-dépassement des valeurs d'amplitude du son autorisées et garantissant la conformité du flux principal modifié avec le flux audio d' origine.
Avantageusement, après reconstitution sur l'équipement de l'utilisateur à partir du flux principal modifié et de l'information complémentaire, le flux reconstitué est auditivement identique à l'original, mais différent du point de vue binaire du flux d'origine, et cela dans le but de renforcer la sécurité.
Avantageusement, après reconstitution sur l'équipement de l'utilisateur à partir du flux principal modifié et de l'information complémentaire, le flux reconstitué est strictement identique à l'original, le procédé est sans perte .

Claims

REVENDICATIONS
1. Procédé pour la distribution de séquences audio numériques selon un format de flux nominal constituées par une succession de trames comprenant chacune au moins un bloc audio numérique regroupant une pluralité de coefficients correspondant à des éléments audio simples codés numériquement, le procédé comportant une étape de modification d' au moins un bloc du flux originel caractérisé en ce que ladite étape de modification agit de façon adaptative sur ledit flux originel en fonction d'une partie au moins des caractéristiques représentatives de la structure, du contenu et des paramètres du flux audio originel, du profil du destinataire, et d'événements externes.
2. Procédé pour la distribution de séquences audio numériques selon la revendication 1, caractérisé en ce que l'étape de modification consiste à remplacer une partie desdits coefficients pour produire d'une part un flux audio principal au format nominal et d' autre part une information complémentaire de modification permettant la reconstruction du flux originel par un décodeur de l'équipement destinataire, la portée des modifications étant variable et déterminée par lesdites caractéristiques représentatives.
3. Procédé pour la distribution de séquences audio numériques selon la revendication 2, caractérisé en ce que le flux principal modifié est enregistré sur l'équipement destinataire préalablement à la transmission de l'information complémentaire sur l'équipement destinataire.
4. Procédé pour la distribution de séquences audio numériques selon la revendication 2, caractérisé en ce que, le flux principal modifié est enregistré sur un support physique pour être transmis à l'équipement destinataire préalablement à la transmission de l'information complémentaire sur l'équipement destinataire.
5. Procédé pour la distribution de séquences audio numériques selon la revendication 2, caractérisé en ce que le flux principal modifié et l'information complémentaire sont transmis ensemble en temps réel.
6. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications 2 à 5, caractérisé en ce que ladite information complémentaire de modification comprend au moins une routine numérique apte à exécuter une fonction.
7. Procédé pour la distribution de séquences audio numériques selon l'une quelconque des revendications 2 à 6, caractérisé en ce que ladite information complémentaire de modification est subdivisée en au moins deux sous-parties.
8. Procédé pour la distribution de séquences audio numériques selon la revendication 7, caractérisé en ce que lesdites sous-parties de l'information complémentaire de modification sont distribuées par différents médias.
9. Procédé pour la distribution de séquences audio numériques selon la revendication 7, caractérisé en ce que lesdites sous-parties de l'information complémentaire de modification sont distribuées par le même média.
10. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications 2 à 9, caractérisé en ce que l'information complémentaire est transmise sur un vecteur physique.
11. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications 2 à 9, caractérisé en ce que l'information complémentaire est transmise en ligne.
12. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de leur contenu audio.
13. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de la couche de scalabilité modifiée.
14. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du débit en kbits par seconde du flux originel.
15. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du profil et du niveau numérique défini par la norme ou le standard avec laquelle ou avec lequel elles ont été encodées .
16. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du nombre de canaux audio présents dans le flux.
17. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du couplage et du multiplexage entre les différents canaux audio présents dans le flux.
18. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction de la fréquence d'échantillonnage avec laquelle a été encodé le flux audio .
19. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de façon différenciée en fonction du modèle psycho acoustique utilisé.
20. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de manière différenciée en fonction de leur scalabilité granulaire.
21. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de manière différenciée en fonction de l'effet de dégradation auditive souhaitée.
22. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées de manière différenciée en fonction du débit souhaité pour l'information complémentaire.
23. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que sont modifiées les valeurs des indices des LSP (« Line Spectral Pairs ») ou des indices des LSF (« Line Spectral Frequencies ») desdites séquences audio numériques.
24. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que sont modifiées les valeurs du délai et de l'amplitude du fondamental desdites séquences audio numériques .
25. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que sont modifiés les signes et la position des impulsions d' excitation desdites séquences audio numériques.
26. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites modifications garantissent le non-dépassement des valeurs d' amplitude du son autorisées.
27. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que ladite séquence audio reconstruite à partir du flux principal modifié et à partir de l'information complémentaire est auditivement identique au flux original mais différente du point de vue binaire du flux original.
28. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que ladite séquence audio reconstruite à partir du flux principal modifié et à partir de l'information complémentaire est identique auditivement et du point de vue binaire au flux original.
29. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées d'une manière progressive augmentant l'effet de dégradation jusqu'à l'embrouillage complet du flux audio .
30. Procédé pour la distribution de séquences audio numériques selon l'une au moins des revendications précédentes, caractérisé en ce que lesdites séquences audio numériques sont modifiées avec une génération aléatoire des paramètres et configurations d' embrouillage.
31. Procédé pour la distribution de séquences audio numériques selon l'une quelconque des revendications précédentes, caractérisé en ce qu' il comporte une étape préalable de conversion analogique/numérique sous un format structuré, le procédé étant appliqué à un signal audio analogique.
32. Système pour la distribution de séquences audio numériques comportant un serveur audio comprenant des moyens pour diffuser un flux modifié conformément à l'une quelconque des revendications précédentes, et une pluralité d'équipements munis d'un circuit d' embrouillage, caractérisé en ce que le serveur comprend en outre un moyen d'enregistrement du profil numérique de chaque destinataire et un moyen d'asservissement des moyens de modification en fonction de variables d'entrée correspondant à une partie au moins des caractéristiques représentatives de la structure, du contenu et des paramètres du flux audio originel, du profil du destinataire, et d'événements externes.
EP03767936A 2002-10-21 2003-10-21 Embrouillage adaptatif et progressif de flux audio Withdrawn EP1554878A2 (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0213091 2002-10-21
FR0213091A FR2846179B1 (fr) 2002-10-21 2002-10-21 Embrouillage adaptatif et progressif de flux audio
PCT/FR2003/050099 WO2004039053A2 (fr) 2002-10-21 2003-10-21 Embrouillage adaptatif et progressif de flux audio

Publications (1)

Publication Number Publication Date
EP1554878A2 true EP1554878A2 (fr) 2005-07-20

Family

ID=32050587

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03767936A Withdrawn EP1554878A2 (fr) 2002-10-21 2003-10-21 Embrouillage adaptatif et progressif de flux audio

Country Status (8)

Country Link
US (2) US8184809B2 (fr)
EP (1) EP1554878A2 (fr)
JP (2) JP5265075B2 (fr)
CN (1) CN1706192A (fr)
AU (1) AU2003292364A1 (fr)
BR (1) BR0315332A (fr)
FR (1) FR2846179B1 (fr)
WO (1) WO2004039053A2 (fr)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2849980B1 (fr) * 2003-01-15 2005-04-08 Medialive Procede pour la distribution de sequences video, decodeur et systeme pour la mise en oeuvre de ce prodede
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
KR101092438B1 (ko) * 2004-08-05 2011-12-13 엘지전자 주식회사 케이블 방송 수신기 및 그의 진단 방법
FR2898451B1 (fr) * 2006-03-13 2008-05-09 Medialive Procede et equipement de distribution de contenus audiovisuels numeriques securises par des solutions interoperables
FR2909507B1 (fr) * 2006-12-05 2009-05-22 Medialive Sa Procede et systeme de distribution securisee de donnees audiovisuelles par marquage transactionel
MX2012004564A (es) 2009-10-20 2012-06-08 Fraunhofer Ges Forschung Codificador de audio, decodificador de audio, metodo para codificar informacion de audio y programa de computacion que utiliza una reduccion de tamaño de intervalo interactiva.
SG182464A1 (en) * 2010-01-12 2012-08-30 Fraunhofer Ges Forschung Audio encoder, audio decoder, method for encoding and decoding an audio information, and computer program obtaining a context sub-region value on the basis of a norm of previously decoded spectral values
JP5380473B2 (ja) * 2011-01-24 2014-01-08 日立コンシューマエレクトロニクス株式会社 映像処理装置及び映像処理方法
US8700406B2 (en) * 2011-05-23 2014-04-15 Qualcomm Incorporated Preserving audio data collection privacy in mobile devices
JP5769748B2 (ja) * 2013-03-26 2015-08-26 京セラドキュメントソリューションズ株式会社 ネットワーク通信装置、ファクシミリ装置
PL3336839T3 (pl) 2013-10-31 2020-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dekoder audio i sposób dostarczania zdekodowanej informacji audio z wykorzystaniem maskowania błędów modyfikującego sygnał pobudzenia w dziedzinie czasu
EP3285254B1 (fr) 2013-10-31 2019-04-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Décodeur audio et procédé pour fournir des informations audio décodées au moyen d'un masquage d'erreur basé sur un signal d'excitation de domaine temporel

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5251041A (en) * 1991-06-21 1993-10-05 Young Philip L Method and apparatus for modifying a video signal to inhibit unauthorized videotape recording and subsequent reproduction thereof
JP3341291B2 (ja) * 1991-11-22 2002-11-05 ソニー株式会社 受信装置
US5331670A (en) * 1992-01-31 1994-07-19 At&T Bell Laboratories Synchronization scheme for a digital communications system
US7089212B2 (en) * 1992-12-15 2006-08-08 Sl Patent Holdings Llc System and method for controlling access to protected information
JPH07303103A (ja) 1994-05-10 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> 情報流通方式
US5748786A (en) * 1994-09-21 1998-05-05 Ricoh Company, Ltd. Apparatus for compression using reversible embedded wavelets
US5703887A (en) * 1994-12-23 1997-12-30 General Instrument Corporation Of Delaware Synchronization and error detection in a packetized data stream
US5852664A (en) * 1995-07-10 1998-12-22 Intel Corporation Decode access control for encoded multimedia signals
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US7177429B2 (en) * 2000-12-07 2007-02-13 Blue Spike, Inc. System and methods for permitting open access to data objects and for securing data within the data objects
JPH10190646A (ja) * 1996-12-27 1998-07-21 Hitachi Ltd デジタルネットワークにおける秘密情報配信方法ならびに受信装置および送信装置
CN1190081C (zh) * 1997-03-17 2005-02-16 松下电器产业株式会社 发送和接收动态图像数据的方法及其设备
FR2764454A1 (fr) * 1997-06-10 1998-12-11 Thomson Multimedia Sa Systeme d'acces conditionnel a mode d'acces programmable
US6181711B1 (en) * 1997-06-26 2001-01-30 Cisco Systems, Inc. System and method for transporting a compressed video and data bit stream over a communication channel
FR2771581B1 (fr) * 1997-11-26 1999-12-17 Thomson Multimedia Sa Procede d'embrouillage et procede de desembrouillage de donnees video numeriques et dispositifs mettant en oeuvre les procedes
JP3714789B2 (ja) 1998-02-26 2005-11-09 松下電器産業株式会社 ディジタル放送受信再生システム
JPH11298878A (ja) * 1998-04-08 1999-10-29 Nec Corp 画像スクランブル方法およびそれを実施する装置
US7336712B1 (en) * 1998-09-02 2008-02-26 Koninklijke Philips Electronics N.V. Video signal transmission
JP2000090567A (ja) 1998-09-09 2000-03-31 Sony Corp ディジタル信号の伝送装置、ディジタル信号の伝送方法及びディジタル信号の記録媒体
EP1005233A1 (fr) * 1998-10-12 2000-05-31 STMicroelectronics S.r.l. Contrôle de codage à débit constant dans un codeur vidéo par une préanalyse des tranches d'images
US6195394B1 (en) * 1998-11-30 2001-02-27 North Shore Laboratories, Inc. Processing apparatus for use in reducing visible artifacts in the display of statistically compressed and then decompressed digital motion pictures
JP2000195161A (ja) * 1998-12-25 2000-07-14 Victor Co Of Japan Ltd デ―タ配信システム
JP2000286835A (ja) * 1999-03-30 2000-10-13 Victor Co Of Japan Ltd コンテンツデータのスクランブル、デスクランブル方法、エンコード装置、記録媒体、配信方法及びユーザ端末
JP2000286837A (ja) * 1999-03-31 2000-10-13 Victor Co Of Japan Ltd コンテンツデータのエンコード装置、記録媒体、配信方法及びユーザ端末
US6597961B1 (en) * 1999-04-27 2003-07-22 Realnetworks, Inc. System and method for concealing errors in an audio transmission
JP2000339852A (ja) 1999-06-02 2000-12-08 Kowa Co 情報再生システム、情報変換装置、情報再生装置、情報再生方法並びに記録媒体
WO2001080546A2 (fr) * 1999-08-09 2001-10-25 Midbar Tech Ltd. Prevention du piratage de cd audio au moyen de canaux a sous-codes
GB2358565A (en) 2000-01-21 2001-07-25 Central Research Lab Ltd A method of scrambling a signal
JP2001251616A (ja) * 2000-03-02 2001-09-14 Media Glue Corp 多重化音響・動画圧縮符号化信号変換方法、装置および変換プログラムを記録した媒体
JP2001320363A (ja) * 2000-05-10 2001-11-16 Pioneer Electronic Corp 著作権保護方法、記録方法、記録装置、再生方法及び再生装置
JP2002108711A (ja) * 2000-09-29 2002-04-12 Tamura Electric Works Ltd データ処理装置及びデータ処理方法
JP3405336B2 (ja) * 2000-11-27 2003-05-12 株式会社日立製作所 ディジタル情報記録再生装置、記録再生方法及び送信方法
JP4012398B2 (ja) * 2000-12-15 2007-11-21 松下電器産業株式会社 蓄積型サービスを提供する放送装置及び受信装置
JP2002311996A (ja) 2001-02-09 2002-10-25 Sony Corp コンテンツ供給システム
US20020141582A1 (en) * 2001-03-28 2002-10-03 Kocher Paul C. Content security layer providing long-term renewable security
JP3946965B2 (ja) * 2001-04-09 2007-07-18 ソニー株式会社 無体財産権を保護する情報を記録する記録装置、記録方法、記録媒体、およびプログラム
JP3866538B2 (ja) * 2001-06-29 2007-01-10 株式会社東芝 動画像符号化方法及び装置
US7072291B1 (en) * 2001-08-23 2006-07-04 Cisco Technology, Inc. Devices, softwares and methods for redundantly encoding a data stream for network transmission with adjustable redundant-coding delay
JP2003069948A (ja) * 2001-08-28 2003-03-07 Sony Corp 画像処理装置および画像処理システム
US7088823B2 (en) * 2002-01-09 2006-08-08 International Business Machines Corporation System and method for secure distribution and evaluation of compressed digital information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004039053A3 *

Also Published As

Publication number Publication date
AU2003292364A8 (en) 2004-05-13
CN1706192A (zh) 2005-12-07
FR2846179A1 (fr) 2004-04-23
BR0315332A (pt) 2005-08-16
JP2013041661A (ja) 2013-02-28
WO2004039053A2 (fr) 2004-05-06
JP5265075B2 (ja) 2013-08-14
US9008306B2 (en) 2015-04-14
US20050289063A1 (en) 2005-12-29
WO2004039053A3 (fr) 2004-06-24
AU2003292364A1 (en) 2004-05-13
FR2846179B1 (fr) 2005-02-04
US20120201384A1 (en) 2012-08-09
JP5678020B2 (ja) 2015-02-25
JP2006504212A (ja) 2006-02-02
US8184809B2 (en) 2012-05-22

Similar Documents

Publication Publication Date Title
US8184809B2 (en) Adaptive and progressive audio stream scrambling
US7319756B2 (en) Audio coding
US20020009000A1 (en) Adding imperceptible noise to audio and other types of signals to cause significant degradation when compressed and decompressed
JP2006139306A (ja) アダプティブディザを減算し、埋没チャンネルビットを挿入し、フィルタリングすることによりマルチビット符号ディジタル音声を符号化する方法及び装置、及びこの方法のための符号化及び復号化装置
JP2014521112A (ja) 入力信号に透かし入れするための量子化インデックス変調の方法および装置
WO1998047134A1 (fr) Procede et dispositif de codage d&#39;un signal audiofrequence par analyse lpc &#39;avant&#39; et &#39;arriere&#39;
FR2889347A1 (fr) Systeme de diffusion sonore
US8200498B2 (en) Secure audio stream scramble system
EP1836699A1 (fr) Procede et dispositif de codage optimise entre deux modeles de prediction a long terme
US7702404B2 (en) Digital audio processing
EP1665234B1 (fr) Procede de transmission d un flux d information par insertion a l&#39;interieur d&#39;un flux de donnees de parole, et codec parametrique pour sa mise en oeuvre
FR2846178A1 (fr) Desembrouillage adaptatif et progressif de flux audio
JP4193100B2 (ja) 情報処理方法および情報処理装置、記録媒体、並びにプログラム
EP1582022B1 (fr) Systeme d&#39;embrouillage securise de flux audio
US20040083258A1 (en) Information processing method and apparatus, recording medium, and program
Kirbiz et al. Decode-time forensic watermarking of AAC bitstreams
JP4207109B2 (ja) データ変換方法およびデータ変換装置、データ再生方法、データ復元方法、並びにプログラム
WO2001088915A1 (fr) Addition d&#39;un bruit imperceptible a des signaux audio et a d&#39;autres types de signaux visant a provoquer une degradation significative de ces signaux lorsqu&#39;ils sont comprimes et decomprimes
Prasad et al. Speech Bandwidth Enhancement Based on Spectral-Domain Approach
JP2003308099A (ja) データ変換方法およびデータ変換装置、データ復元方法およびデータ復元装置、データフォーマット、記録媒体、並びにプログラム
JP2003308013A (ja) データ変換方法およびデータ変換装置、データ復元方法およびデータ復元装置、データフォーマット、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20050421

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

DAX Request for extension of the european patent (deleted)
RIN1 Information on inventor provided before grant (corrected)

Inventor name: PARAYRE-MITZOVA, DANIELA

Inventor name: LECOMTE, DANIEL

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20080503