EP1614290A2 - Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes - Google Patents

Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes

Info

Publication number
EP1614290A2
EP1614290A2 EP04742528A EP04742528A EP1614290A2 EP 1614290 A2 EP1614290 A2 EP 1614290A2 EP 04742528 A EP04742528 A EP 04742528A EP 04742528 A EP04742528 A EP 04742528A EP 1614290 A2 EP1614290 A2 EP 1614290A2
Authority
EP
European Patent Office
Prior art keywords
stream
video
secure distribution
video sequences
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP04742528A
Other languages
German (de)
English (en)
Inventor
Daniel Lecomte
Jérôme CAPOROSSI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medialive SA
Original Assignee
Medialive SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medialive SA filed Critical Medialive SA
Publication of EP1614290A2 publication Critical patent/EP1614290A2/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/62Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding by frequency transforming in three dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • H04N21/23476Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption by partially encrypting, e.g. encrypting the ending portion of a movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8355Generation of protective data, e.g. certificates involving usage data, e.g. number of copies or viewings allowed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/167Systems rendering the television signal unintelligible and subsequently intelligible
    • H04N7/1675Providing digital key or authorisation information for generation or regeneration of the scrambling sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding

Definitions

  • the present invention relates to the field of processing video sequences encoded using video coders based on wavelet technology.
  • the present invention relates more particularly to a device capable of securely transmitting a set of video streams of high visual quality to a viewing screen such as a television screen and / or to be recorded on the hard disk or on any other medium.
  • recording of a box connecting the remote transmission network to the display screen such as a television screen or a personal computer monitor while preserving the audiovisual quality but avoiding any fraudulent use such as the possibility of making pirated copies of films or audiovisual programs recorded on the hard disk or any other recording medium of the set-top box.
  • the invention also relates to a client-server system, the server providing the stream allowing viewing of the secure digital video film and the client reading and displaying the digital audiovisual stream.
  • patent application EP0734164 presenting a method and a device for increasing the coding efficiency, carried out by video encoders based on classified vector quantization by optimizing the coding so as not to have to transmit the classification information. in the encoded bit stream.
  • This prior art applies to video streams resulting from the transformation into DCT or wavelet.
  • the incoming video signal is divided into a plurality of sub-bands, for example the DC coefficients are arranged in a sub-band and the AC coefficients in remaining sub-bands, followed by formatting in size blocks. identical, each block including a DC coefficient and a multitude of AC coefficients.
  • a selection signal is then generated, representing the vector quantization class corresponding to each assembled block.
  • This step is followed by classification for vector quantization by the generation of parameters relating to the evolution of the DC coefficients in the horizontal and vertical direction, and of the differential entropy encoding of the DC coefficients relating to the assembled blocks to generate a first encoded video signal.
  • the AC coefficients are classified and encoded separately using entropy encoding based on the selection information to generate a second encoded video signal.
  • the two signals thus generated are formatted for transmission. For decoding, no classification information is transmitted, it is reconstructed from the DC coefficients encoded and transmitted to the decoder.
  • This solution relates to a process relating to digital compression and the encoding of video streams resulting from the transformation into DCT and wavelets.
  • the description of the process indicates the steps to be applied to implement a classified vector quantization, increasing the compression and the efficiency of the encoding. Only one stream is transmitted to the receiver.
  • the technical problem and the objective posed in this document are to optimize the digital format and it aims to obtain a digital stream formatted at the output of a digital encoder.
  • the process described in this solution does not make it possible to secure the video stream and does not provide any protection against illicit uses of video streams originating from wavelet encoding.
  • This prior art represents an encryption solution using keys, therefore, a single stream is transmitted to the receiver and all the elements constituting the original stream are inside the protected stream.
  • This document relates to a solution that does not respond satisfactorily to the protection of the transmitted video stream.
  • the statistical properties are modified and the size of the stream and the bit rate increase. Consequently, this prior art does not meet the high security objectives guaranteeing a lossless process which is the subject of the present invention.
  • a first part of the image is compressed at low quality, without encryption, and a second part of the image is encrypted.
  • the second part is encrypted and includes two sections, encrypted differently.
  • the decryption of the first section and its combination with the first part restores the initial image with average quality.
  • the decryption of the second section, its combination with the first section and the first part restore the image original at maximum quality.
  • the image can also be partitioned into multiple independent sections, each section being encrypted with its own method and its own key.
  • the protection method in this prior art is encryption, therefore, all the original elements of the flow remain inside the protected flow, the restitution of the entire content from the only protected flow is possible in the case where a person is ill. intentioned finds or simulates the encryption keys.
  • this solution does not provide satisfactory security against pirating of the video stream.
  • the size of the protected stream is different from the size of the original stream. This prior art therefore does not solve the problem of high security, while providing fine granularity in the quality of the reconstructed video sequences treated in the present invention.
  • US patent 2001/0053222 A1 proposes a method and a system for the protection of video streams encoded according to the MPEG-4 standard.
  • the audiovisual stream is composed of several audio and video objects, managed by a scenic composition.
  • One of the objects in the video stream is encrypted using a key generated in four encryption stages which is renewed periodically.
  • Protected objects are video objects.
  • the encrypted object is multiplexed with the other objects and the entire stream is sent to the user.
  • the MPEG-4 stream is reconstructed on the destination equipment by the decryption module, which reconstitutes the original video stream, from the encrypted video stream, and by regenerating the encryption key from encryption information sent beforehand and from information contained in the encrypted stream. Since all the content protected from video objects is in the stream sent to the user, a malicious person who finds the encryption keys can decrypt this protected content and view or broadcast it. This prior art therefore does not entirely solve the problem of securing the video stream.
  • the method according to the invention provides a high level of protection while reducing the volume of information necessary to access the original content from the protected content.
  • the protection carried out in accordance with the invention, is based on the principle of deletion and replacement of certain information coding the original visual signal by any method, namely: substitution, modification, permutation or displacement of the information. This protection is also based on knowledge of the structure of the bit stream at the output of the wavelet-based visual encoder.
  • the present invention relates to the general principle of a method for securing an audiovisual stream.
  • the objective is to authorize video-on-demand and pay-per-view services across all broadcasting networks and local recording in the user's digital set-top box, as well as live viewing of television channels .
  • the solution consists in permanently extracting and storing outside the user's home, in fact in the broadcasting and transmission network, part of the digital audiovisual stream recorded at the customer's premises or broadcast live, this part being essential for viewing said digital audiovisual stream on a television screen or monitor type, but being of a very low volume compared to the total volume of the stream digital audiovisual recorded at the user's home or received in real time.
  • the missing part will be transmitted via the broadcasting or transmission network when viewing said digital audiovisual stream.
  • modified main stream The digital audiovisual stream being modified and separated into two parts, most of the modified audiovisual stream, called “modified main stream” will therefore be transmitted via a conventional broadcasting network while the missing part called “additional information” will be sent to the request via a narrowband telecommunications network such as conventional telephone networks or cellular networks of the GSM, GPRS or UMTS type or by using a small part of a DSL or BLR type network, or even by using a subset of the shared bandwidth over a wired network.
  • the original digital audiovisual stream is reconstructed on the recipient equipment (decoder) by a synthesis module from the modified main stream and additional information.
  • the invention provides a protection system, comprising an analysis - scrambling and descrambling module based on a digital format resulting from the encoding of a video stream based on wavelet transforms.
  • the analysis and scrambling module proposed by the invention is based on the substitution by “decoys” or the modification of part of the coefficients resulting from the transformation into wavelets. The fact of having removed and substituted a part of the original data of the original digital stream during the generation of the modified main stream, does not allow the restitution of said original stream from only the data of said modified main stream.
  • the invention relates, in its most general sense, to a method for the secure distribution of video sequences according to a digital stream format resulting from an encoding based on wavelet processing, consisting of frames comprising blocks containing coefficients d wavelets describing the visual elements, characterized in that before the transmission to the client equipment, a flow analysis is carried out to generate a modified main flow, by deleting and replacing certain information coding the original flow and presenting the format of the original stream, and additional information of any format, comprising said digital information coding the original stream capable of allowing the reconstruction of said modified frames, then separately transmitting said modified main stream and said complementary information thus generated from the server to the destination equipment.
  • Protection is carried out by deleting the original elements and replacing them with decoys, the extracted original elements being stored separately in the additional information.
  • the fact of having removed and substituted part of the original data of the original video stream during the generation of the modified main stream does not allow the restitution of said original stream from only the data of said modified main stream.
  • the video stream is fully protected (all sub-bands) and fully transmitted via the network or via physical media to the user, regardless of their rights.
  • the partial reconstruction is carried out by sending part of the additional information, containing the original elements, either directly or in progressive mode.
  • the analysis and scrambling module decides how to visually degrade the video stream according to its structure and scalability properties resulting from the wavelet transform.
  • the study focuses on the impact of the modification of different parts of the flow (coefficients, sub-bands, scalability layers, areas of interest) on visual degradation.
  • the scrambling is carried out by modifying wavelet coefficients belonging to at least one temporal sub-band resulting from the temporal analysis.
  • the scrambling is performed by modifying wavelet coefficients belonging to at least one spatial sub-band resulting from the spatial analysis of a temporal sub-band.
  • scrambling is carried out by modifying wavelet coefficients belonging to at least one temporal sub-band resulting from a temporal analysis of a spatial sub-band.
  • the wavelet coefficients to be modified are chosen according to random laws and / or defined a priori.
  • the parameters for scrambling depend on the properties of temporal scalability and / or spatial scalability and / or qualitative scalability and / or flow scalability and / or scalability by regions of interest offered by digital streams generated by wavelet-based coders.
  • the visual intensity of the degradation of the video sequences obtained is determined by the quantity of wavelet coefficients modified in each space-time sub-band.
  • the intensity of the visual degradation of the video sequences decoded from the modified main stream is a function of the position within the original digital stream of the modified data, said data representing, according to their positions, the values quantified according to different precisions of the wavelet coefficients belonging to a space-time sub-band.
  • the intensity of the visual degradation of the video sequences decoded from the modified main stream is determined according to the membership in the quality layer of the wavelet coefficients modified in each space-time sub-band.
  • the modification of the wavelet coefficients is carried out directly in the bit stream.
  • the modification of the wavelet coefficients is carried out with partial decoding. According to another variant, the modification of the wavelet coefficients is carried out during coding or by carrying out a decoding then a complete re-encoding.
  • the size of the modified main stream is strictly identical to the size of the original digital video stream.
  • the substitution of the wavelet coefficients is carried out with random or calculated values.
  • the duration of the visual scrambling obtained within a group of frames is determined as a function of the time sub-band to which the modified wavelet coefficients belong.
  • the visual scrambling obtained within a group of frames is spatially limited in a region of interest of each frame.
  • the additional information is organized into layers of temporal and / or spatial and / or qualitative and / or flow and / or scalability scalability.
  • the stream is gradually descrambled with different levels of quality and / or resolution and / or frame-rate and / or according to a region of interest via the sending of certain parts of the additional information corresponding to the scalability layers respectively qualitative and / or spatial and / or temporal and / or for a region of interest.
  • the stream is partially descrambled according to different levels of quality and / or resolution and / or frame-rate and / or according to a region of interest via the sending of part of the additional information corresponding to the (aux) scalability layer (s) respectively qualitative and / or spatial and / or temporal and / or for this region of interest.
  • a summary of a digital stream in original format is calculated on the recipient equipment as a function of said modified main stream and of said additional information.
  • the transmission of said modified main stream is carried out through a physically distributed hardware medium [CD-ROM, DVD, hard disk, flash memory card].
  • the modified main stream undergoes transcoding, rearrangement and / or extraction of frames or groups of frames during its transmission.
  • the transmission of said additional information is carried out through a physically distributed hardware medium [flash memory card, smart card].
  • the modification of the wavelet coefficients is perfectly reversible (lossless process) and the digital stream reconstituted from the modified main stream and the additional information is strictly identical to the original stream.
  • the modification of the wavelet coefficients is perfectly reversible (lossless process) and the portion of the digital stream reconstructed from the modified main stream and the additional information is strictly identical to the corresponding portion in the original stream.
  • the reconstruction of a descrambled video stream is controlled and / or limited in terms of predefined frame-rate and / or resolution and / or bit rate and / or quality, according to the rights of
  • the reconstruction of a descrambled video stream is limited in terms of frame rate and / or resolution and / or bit rate and / or quality depending on the display device on which it is viewed.
  • the reconstitution of the descrambled video stream is carried out gradually in stages until the reconstruction of the original video stream.
  • the invention also relates to a system for manufacturing a video stream, comprising at least one multimedia server containing the video sequences. original and comprising a device for analyzing the video stream, a device for separating the original video stream into a main stream modified by deleting and replacing certain information coding the original visual signal and into additional information as a function of said analysis, and at at least one device on the recipient equipment for the reconstruction of the video stream as a function of said modified main stream and of said additional information.
  • a video coder based on wavelet processing performs a temporal and spatial decomposition of an initial video sequence in order to obtain a set of spatio-temporal wavelet coefficients. These coefficients are then quantified and then coded by an entropy coder in order to generate one or more nested bit streams which have properties of temporal scalability and / or spatial scalability (or resolution) and / or qualitative scalability and / or flow scalability and / or scalability of regions of interest.
  • temporal scalability is the possibility of decoding from a single or several nested bit streams, video sequences whose frame display frequency (number of frames per second) is variable.
  • the spatial scalability property is the possibility of decoding from a single or from several nested bit streams video sequences whose spatial resolution (size) of the frames is variable.
  • the qualitative scalability property is the possibility of decoding from a single or several nested bit streams video sequences whose visual quality of the frames, measured according to objective and / or subjective criteria, is variable.
  • the rate scalability property is the possibility of decoding from a single or several nested bit streams video sequences according to a variable average rate (average number of bits of information per second).
  • the region of interest scalability property is the possibility of decoding from one or more nested bit streams one or more targeted areas within the video sequence.
  • GOF Group Of Frames
  • the spatiotemporal wavelet coefficients are generated in two successive stages and according to a spatial and temporal analysis of the GOF frames.
  • the first step consists in carrying out a temporal analysis of the N frames of each GOF according to the estimated direction of movement (temporal analysis with motion estimation), this in order to remove the temporal redundancies and to focus spatially in the frames resulting from the temporal analysis energy and information due to movement.
  • This temporal analysis can be carried out according to different spatial resolutions and after decomposition into wavelets of each frame of the GOF, the motion estimation being carried out independently within each spatial sub-band (ulti-resolution motion estimation).
  • the second step consists in performing a spatial analysis of the N frames resulting from the temporal analysis using a wavelet decomposition in order to remove the spatial redundancies and to concentrate the energy due to the spatial discontinuities present in each frame.
  • the temporal analysis is carried out in several iterations.
  • p successive frames of the original GOF are analyzed by means of wavelet filters f L and f H predefined of length p and after estimation and compensation of the movement for each frame and with respect to one or more frames called reference frames.
  • a subset tL x of frames of type L of length N / 2 and a subset t-Hj are thus generated .
  • H type frames of length N / 2 such as tL- L ⁇ (L 0 , L x , ..., L N / 2 ), tH- L ⁇ (H 0 , E ⁇ , ..., H N 2 ).
  • the motion estimation / compensation and the time filtering are iterated over the subset of frames tL k-1 of type L obtained in iteration k-1 and are generated two new sub- sets of frames tL k and tH k whose length (number of frames) is reduced by a factor of 2 compared to tL k-1 .
  • the iteration also relates to the subset of frames tH ⁇ .
  • n ⁇ The total number of iterations during the time analysis is noted n ⁇ . It is between 1 and N / 2.
  • n ⁇ + l temporal sub-bands are generated.
  • Sub-band tL 4 1 frame of type L: LLLL 0
  • Sub-band tH 4 1 frame of type H: LLLH 0
  • Sub-band tH 3 2 frames of type H: LLH 0 , LLH ⁇
  • Sub-band tH 2 4 frames of type H: LH 0 , ..., LH 3
  • Sub-band tE ⁇ 8 frames of type H: H 0 , ..., H 7.
  • the spatial analysis is then carried out on each of the frames belonging to each temporal sub-band t-Li and t-Hi: each frame is decomposed using a discrete wavelet transform at D levels, thus generating 3xD + l spatial sub-bands of wavelet coefficients for each frame.
  • spatial sub-bands are denoted s-LL 0 , s- HL ⁇ S-LI ⁇ , s-HH lf s-HL 2 , s-LH 2 , s-HH 2 , ..., s — HL D , s — LH D , S — HH D. temporal and spatial analyzes,
  • space-time sub-bands of wavelet coefficients are available: tL nT (s-LL 0 ), tL nT (s-HL 1 ), tL nT (s- HHI), ..., tL nT (S HL-D), tL nT (S-D LH), tL nT (S-D HH), "Nos tH (s-LL 0) tH nT (s-HL 1 ), tH nT (s-LH x ), tH nT (s- 1 ), ..., tH nT (S-HL D ), tH nT (S-LH D ), tH nT ( S-HH D ), m ...
  • the wavelet coefficients of each space-time sub-band are then progressively compressed by bit plane using an entropy coder whose aim is to remove the statistical redundancies existing within a fixed set of wavelet coefficients.
  • the entropy coder generates, for each set of independently coded wavelet coefficients, a binary f lux which can be divided into several substreams distributed according to different quality layers.
  • the analysis and scrambling module makes modifications (by permutation and / or substitution and / or threshold threshold) of a subset coef f hereents d Wavelets belonging to one or more space-time sub-bands. These modifications introduce a visually perceptible degradation (scrambling) of the video sequence decoded from these modified coefficients.
  • the choice of the type of spatial sub-band to which the Wavelet coefficients belong makes it possible to control the visual aspect of the scrambling: for the s-HL sub-band of the vertical direction artifacts appear on the frames (degradation of vertical spatial discontinuities), for the s-LH subband of horizontal artefacts appear (degradation of horizontal spatial discontinuities) and for the s-HH subband of checkerboard type artifacts »Appear (joint degradations of horizontal and vertical spatial discontinuities).
  • the choice of the resolution level r to which the spatial sub-band belongs makes it possible to control the spatial extent of the scrambling generated by the modification coefficients wavelets: the closer r is to 0, the larger the spatial extent.
  • a modification of the wavelet coefficients belonging to a sub-band of resolution r ⁇ 0 generates a scrambling which will be visible on all the decoded frames with higher spatial resolution r + 1, r + 2, ...
  • a modification of the wavelet coefficients belonging to a quality layer q generates a scrambling which will be visible on all the decoded frames by considering at least the first q quality layers.
  • the modification of the spatio-temporal wavelet coefficients is carried out after a partial decoding of the bit stream generated according to a standard or norm or an algorithm or an encoding format. Once the modification has been carried out, a re-encoding of the coefficients is carried out in order to generate a bit stream of identical size and which respects the conformity with respect to the standard or the norm or the algorithm or the encoding format. having generated the original bitstream.
  • subsets of bits inside the original bit stream representing the coefficients of coded spatio-temporal wavelets are modified without decoding and without disturbing the conformity of the stream vis-à-vis the standard or norm or of the algorithm or encoding format that generated the original bitstream.
  • the choice of the space-time wavelet coefficients to be modified within a space-time sub-band is conducted randomly and / or according to rules defined a priori.
  • the modified main stream has a size identical to that of the original video stream.
  • the scrambling thus generated has properties of temporal, spatial, qualitative, flow and area of interest scalability.
  • the additional information relating to said scrambling thus generated is organized into layers of temporal, spatial, qualitative, flow rate scalability and on area of interest.
  • the scrambling has a temporal scalability between: "all the frames of all the GOFs (maximum scrambling)" and "no frame of no GOF ”(sequence not scrambled).
  • the scrambling has a qualitative scalability ranging from: “the whole of each frame is scrambled”, “certain spatial regions of each frames are scrambled ”(regions of interest) and“ no scrambling is applied to the frames ”.
  • said descrambling will make it possible to address the various stated scalabilities (temporal, spatial, qualitative, bit rate and area of interest), by sending certain parts of the additional information corresponding to different layers of scalability (temporal, spatial, qualitative, bit rate and area of interest), thus giving access to different levels of quality / resolution / frame-rate for the video sequence decoded from the partially descrambled stream.
  • the different levels of quality / resolution / frame rate of the video sequence are obtained from the partially descrambled flow by sending part of the additional information by scalability layer (temporal, spatial, qualitative, bit rate and area of interest).
  • the figure represents a particular preferred embodiment of the client-server system according to the invention.
  • the original stream (1) is directly in digital form or in analog form. In the latter case, the analog stream is converted by a wavelet-based encoder not shown in a digital format (2).
  • the video stream that we want to secure (2) is passed to an analysis and scrambling module (3) which will generate a modified main stream (5) in the same format as the input stream (2) outside that some of the coefficients have been replaced by values different from the original ones, and is stored in the server (6).
  • the additional information (4), of any format, is also placed in the server (6) and contains information relating to the elements of the images which have been modified, replaced, substituted or moved, and their value or location in the original feed.
  • the stream (5) in the format identical to the original stream is then transmitted, via a broadband network (9) of the radio type, cable, satellite, etc., to the viewer's terminal (8), and more precisely to its hard disk ( 10).
  • a broadband network (9) of the radio type, cable, satellite, etc. When the viewer (8) requests to view the film on his hard drive (10), two possibilities are possible: either the viewer (8) does not have all the rights necessary to see the film, in this case, the video stream (5) generated by the scrambling module (3) present on the hard disk (10) is passed to the synthesis system (13), via a read buffer memory (11), which does not modify it and transmits identically to a display reader capable of decoding it (14) and its content, visually degraded by the scrambling module (3), is displayed on the display screen (15).
  • the video stream (5) generated by the scrambling module (3) is passed directly via a network (9) to the read buffer memory (11) then to the synthesis system (13).
  • the video stream (5) undergoes in the network (9) a series of operations for transcoding and rearranging its frames or groups of frames.
  • the server decides that the viewer (8) has the rights to correctly view the film.
  • the synthesis module (13) makes a viewing request to the server (6) containing the additional information necessary (4) for the reconstruction of the original video (2).
  • the server (6) then sends via the telecommunication network (7) of analog or digital telephone line type, DSL (Digital Subscriber Line) or BLR (Local Radio Loop), via DAB (Digital Audio Broadcasting) networks or via networks.
  • the synthesis module (13) restores the scrambled video stream which it reads in its playback buffer memory (11), modified fields of which it knows the positions as well as the original values are restored, thanks to the content of the additional information read in the descrambling buffer (12).
  • the amount of information contained in the additional information (4) which is sent to the descrambling module is specific, adaptive and progressive for each spectator and depends on their rights, for example single or multiple use, right to make one or more copies private, late or anticipated payment.
  • the level (quality, quantity, type) of the additional information is also determined according to the visual quality required by the user. Wavelet-based video coding characterized by the previously described scalability enables the video stream to be reproduced with different quality, resolution and frame rate levels.
  • the modified main stream (5) is passed directly via a network (9) to the read buffer memory (11) then to the synthesis module (13).
  • the modified main stream (5) is written (recorded) on a physical medium such as a CD-ROM, DVD, hard disk, flash memory card, etc. (9a).
  • the modified main stream (5) will then be read from the physical medium (9bis) by the disk drive (10bis) of the box (8) to be transmitted to the read buffer memory (11) then to the synthesis module (13) .
  • the additional information (4) is recorded on a physical medium (7bis) of credit card format, consisting of a chip card or a flash memory card. This card (7bis) will be read by the module (12) of the device (8) which includes a card reader (7ter).
  • the card (7bis) contains the applications and the algorithms which will be executed by the synthesis system (13).
  • the device (8) is an autonomous, portable and mobile system.
  • Sub-band tL 4 1 frame of type L: LLLL 0
  • Sub-band tH 4 1 frame of type H: LLLH 0
  • Sub-band tH 3 2 frames of type H: LLH 0 , LLH X
  • Sub -band tH 2 4 frames of type H: LH 0 / LH 1 ( LH 2 LH 3
  • Sub-band tH 1 8 frames of type H: H 0 , H x , H 2 , H 3 , H 4 , H 5 , H 6 , H 7.
  • the decomposition into five time sub-bands offers the possibility of reconstructing the initial video sequence according to five different “frame rates”
  • the video sequence is scrambled for each GOF as follows:
  • the wavelet coefficients of the spatial sub-bands s-HH 2 and s-HH 3 resulting from the spatial decomposition into wavelets of the frame LLLL 0 are extracted and replaced by random or calculated values.
  • the wavelet coefficients of the spatial sub-band s-HH 3 resulting from the spatial decomposition into wavelets of the frame LLH 0 are extracted and replaced by random or calculated values.
  • the wavelet coefficients of the spatial sub-band s-HH 3 resulting from the decomposition into wavelets of the frame LH 0 are extracted and replaced by random or calculated values.
  • the wavelet coefficients of the spatial subband s-HH 3 resulting from the decomposition into wavelets of the frame H 0 are extracted and replaced by random or calculated values.
  • descrambling is then carried out for example in five stages, corresponding to different levels of quality obtained after each descrambling stage.
  • a descrambling of one or more scalability layers is carried out, the quality of the film viewed being controlled by the server according to the rights of the user and the quality required by him.
  • the first descrambling step consists in restoring the wavelet coefficients of the spatial sub-band s-HH 2 for the time sub-band tL 4 .
  • the scrambling of the decoded video sequence for a maximum resolution R and at a maximum frame rate of fr 0 is then less spatially extended and more concentrated around the spatial discontinuities of each frame.
  • the visual quality of the partially descrambled film is minimal, the film is visually unusable at full resolution and at its original frame rate.
  • This step serves to identify the additional information server when establishing the connection.
  • the second descrambling step consists in restoring the wavelet coefficients of the spatial sub-band s-HH 3 for the temporal sub-band tL 4 .
  • the scrambling of the decoded video sequence for a resolution R and at a frame rate of fr 0 is then much less spatially extended and more concentrated around the spatial discontinuities of each frame.
  • the video sequence is now scrambled only for a duration equivalent to half a GOF (8 frames out of 16).
  • This step is used for the user (8) to view the video film partially, in order to decide whether he wants to obtain rights to watch the film.
  • steps three, four or five are executed.
  • the third descrambling step consists in restoring the wavelet coefficients of the spatial sub-band s-HH 3 for the temporal sub-band tH 3 .
  • the video sequence is now scrambled only for a period equivalent to a quarter of a GOF (4 frames out of 16).
  • the decoded video sequence for the frame rates l / 16xfr 0 , l / 8xfr 0 , l / 4xfr 0 and for the resolutions r R / 16, R / 8, R / 4 is not scrambled.
  • the film can be viewed visually, but it is of low quality.
  • the fourth descrambling step consists in restoring the wavelet coefficients of the spatial sub-band s-HH 3 for the temporal sub-band tH 2 .
  • the video sequence is now scrambled only for a period equivalent to one eighth of a GOF (2 frames out of 16).
  • the decoded video sequence for frame rates l / 16xfr 0 , l / 8xfr 0 , l / 4xfr 0 , l / 2xfr 0 and for resolutions r R / 16, R / 8, R / 4 is not scrambled .
  • the visual quality of the film returned is average.
  • the fifth descrambling step consists in restoring the wavelet coefficients of the spatial sub-band s-HH 3 for the temporal sub-band tH x .
  • the yideo sequence is then completely descrambled, whatever the decoding frame-rate and the resolution.
  • the reconstructed video stream is strictly identical to the original video stream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

La présente invention propose un procédé et un système permettant d'embrouiller visuellement une séquence vidéo et de recomposer (désembrouiller) son contenu original à partir d'un flux vidéo numérique obtenu par un encodage reposant sur une transformée en ondelettes. Le procédé pour la distribution sécurisée de séquences vidéos selon un format de flux numérique est issu d'un encodage basé ondelettes, constitué de trames (frames) comprenant des blocs contenant des coefficients d'ondelettes décrivant les éléments visuels. On procède, avant la transmission à l'équipement client, à une analyse du flux pour générer un flux principal modifié, par suppression et remplacement de certaines informations codant le flux original et présentant le format du flux original, , et une information complémentaire d'un format quelconque, comportant les informations numériques codant le flux original, aptes à permettre la reconstruction desdites trames modifiées, puis on transmet séparément ledit flux principal modifié et ladite information complémentaire ainsi générés depuis le serveur vers l'équipement destinataire, et on calcule sur l'équipement. destinataire une synthèse d'un flux au format naninal en fonction dudit flux principal modifié et de ladite information complémentaire. L'invention concerne également un système comportant au moins un serveur multimédia contenant les séquences vidéos originales, un dispositif d'analyse du flux vidéo, un dispositif de séparation du flux vidéo original en un flux principal modifié et en une information complémentaire en fonction de ladite analyse et au moins un dispositif sur l'équipement destinataire pour la reconstruction du flux vidéo en fonction dudit flux principal modifié et de ladite information complémentaire.

Description

EMBROUILLAGE, DESEMBROUILLAGE ET DISTRIBUTION SECURISEE DE SEQUENCES AUDIOVISUELLES ISSUES DE CODEURS VIDEOS BASES SUR UN TRAITEMENT PAR ONDELETTES
La présente invention se rapporte au domaine du traitement de séquences vidéos encodées à l'aide de codeurs vidéos basés sur la technologie des ondelettes.
On se propose dans la présente invention de fournir un procédé et un système permettant d'embrouiller visuellement une séquence vidéo et de recomposer ultérieurement (desembrouiller) son contenu original à partir d'un flux vidéo numérique obtenu par un encodage reposant sur une transformée en ondelettes.
La présente invention se rapporte plus particulièrement à un dispositif capable de transmettre de façon sécurisée un ensemble de flux vidéos de haute qualité visuelle vers un écran de visualisation type écran de télévision et/ou pour être enregistré sur le disque dur ou sur tout autre support d'enregistrement d'un boîtier reliant le réseau de télétransmission à l'écran de visualisation tel qu'un écran de télévision ou un moniteur d'ordinateur personnel, tout en préservant la qualité audiovisuelle mais en évitant toute utilisation frauduleuse comme la possibilité de faire des copies pirates de films ou de programmes audiovisuels enregistrés sur le disque dur ou tout autre support d'enregistrement du boîtier décodeur. L'invention concerne également un système client-serveur, le serveur fournissant le flux permettant le visionnage du film vidéo numérique sécurisé et le client lisant et affichant le flux audiovisuel numérique .
Avec les solutions actuelles, il est possible de transmettre des films et des programmes audiovisuels sous forme numérique via des réseaux de diffusion de type hertzien, câble, satellite, etc. ou via des réseaux de télécommunication type DSL (Digital Subscriber Line) ou BLR (boucle locale radio) ou via des réseaux DAB (Digital Audio Broadcasting) , etc. Par ailleurs, pour éviter le piratage des œuvres ainsi diffusées, ces dernières sont souvent cryptées ou brouillées par divers moyens bien connus de l'homme de l'art.
Concernant le traitement de séquences vidéo encodées avec la technologie des ondelettes, l'art antérieur connaît le brevet référencé US 6370197 et intitulé « Video Compression Sche e using wavelets » dans lequel les auteurs détaillent une méthode de codage d'une séquence vidéo basée sur une transformée en ondelettes et générant un flux numérique emboîté. Cet art antérieur ne propose aucune méthode de protection du flux et/ou d'embrouillage de la séquence vidéo.
On connaît également la demande de brevet EP0734164 présentant un procédé et un dispositif pour augmenter l'efficacité de codage, effectué par des encodeurs vidéo basés sur la quantification vectorielle classifiée en optimisant le codage de manière à ne pas avoir à transmettre l'information de classification dans le flux binaire encodé. Cet art antérieur s'applique à des flux vidéos issus de la transformée en DCT ou en ondelettes. Dans ce but, le signal vidéo entrant est divisé en une pluralité de sous-bandes, par exemple les coefficients DC sont rangés dans une sous-bande et les coefficients AC dans des sous-bandes restantes, suivi d'un formatage en blocks de taille identique, chaque block incluant un coefficient DC et une multitude de coefficients AC. Un signal de sélection est ensuite généré, représentant la classe de quantification vectorielle correspondante à chaque block assemblé. Cette étape est suivie de classification pour la quantification vectorielle par la génération de paramètres relatifs à l'évolution des coefficients DC dans le sens horizontal et vertical, et de l'encodage entropique différentiel des coefficients DC relatifs aux blocks assemblés pour générer un premier signal vidéo encodé. Les coefficients AC sont classifiés et encodés séparément à l'aide d'encodage entropique en fonction de l'information de sélection pour générer un second signal vidéo encodé. Les deux signaux ainsi générés sont formatés pour la transmission. Pour le décodage, aucune information de classification n'est transmise, elle est reconstruite à partir des coefficients DC encodés et transmis au décodeur. Cette solution concerne un procédé relatif à la compression numérique et l'encodage de flux vidéos issus de la transformée en DCT et ondelettes. La description du procédé indique les étapes à appliquer pour mettre en œuvre une quantification vectorielle classifiée, augmentant la compression et l'efficacité de l'encodage. Un seul flux est transmis vers le récepteur. Le problème technique et l'objectif posés dans ce document sont d'optimiser le format numérique et il vise l'obtention d'un flux numérique formaté à la sortie d'un encodeur numérique. Le procédé décrit dans cette solution ne permet pas de sécuriser le flux vidéo et n'apporte aucune protection contre des utilisations illicites de flux vidéos issus de l'encodage en ondelettes .
En ce qui concerne la protection d'images codées en ondelettes, l'art antérieur connaît le document EP 1 033 880 qui est relatif à un procédé et un dispositif de protection par des modifications appliquées aux coefficients spatio-fréquentiels. Ces modifications sont de type : modification des bits de signe des coefficients, modification des bits d'amélioration des coefficients, choix des coefficients appropriés appartenant à une sous- bande fréquentielle pour les permuter, rotation d'un block regroupant des coefficients fréquentiels rangés par ordre croissant, tout en essayant de respecter au maximum les propriétés statistiques et l'entropie du signal original. Chaque type de modifications est conditionné à l'aide d'une clé. Les données ainsi protégées sont ensuite passées par un encodeur entropique et un bitstream conforme à la norme est généré. Cet art antérieur représente une solution de cryptage à l'aide de clés, par conséquent, un seul flux est transmis vers le récepteur et tous les éléments constituant le flux original se trouvent à l'intérieur du flux protégé. Ce document concerne une solution ne répondant pas de manière satisfaisante à la protection du flux vidéo transmis. De plus, suite aux modifications avant l'encodage entropique, les propriétés statistiques sont modifiées et la taille du flux et le débit augmentent. Par conséquent, cet art antérieur ne répond pas aux objectifs de haute sécurité garantissant un procédé sans perte, objet de la présente invention.
Une autre référence de l'art antérieur est le document WO 00 31964 A relatif à une méthode et à un équipement pour le cryptage partiel d'images dans le but de les protéger et d'optimiser la place de stockage. Une première partie de l'image est compressée à faible qualité, sans cryptage, et une seconde partie de l'image est cryptée. Quand la première et la deuxième partie sont réunies, on obtient l'image de qualité maximale. La deuxième partie est cryptée et comprend deux sections, cryptées de manière différente. Le décryptage de la première section et sa combinaison avec la première partie restitue l'image initiale avec une qualité moyenne. Le décryptage de la seconde section, sa combinaison avec la première section et la première partie restituent l'image originale à qualité maximale. L'image peut également être partitionnée en multiples sections indépendantes, chaque section étant cryptée avec sa propre méthode et sa propre clé. La méthode de protection dans cet art antérieur est le cryptage, par conséquent, tous les éléments originaux du flux restent à l'intérieur du flux protégé, la restitution du contenu entier à partir du seul flux protégé est possible dans le cas où une personne mal intentionnée trouve ou simule les clés de cryptage. Comme pour le document précédent, cette solution n'apporte pas une sécurité satisfaisante contre le piratage du flux vidéo. Aussi, la taille du flux protégé est différente de la taille du flux original. Cet art antérieur ne résout donc pas le problème de haute sécurité, tout en procurant une fine granularité dans la qualité des séquences vidéos reconstituées, traité dans la présente invention.
Parmi l'art antérieur concernant la distribution sécurisée de flux audiovisuels organisés en multicouches basés sur le principe client — serveur, le brevet US 2001/0053222 Al propose un procédé et un système pour la protection de flux vidéos encodés selon la norme MPEG-4. Le flux audiovisuel est composé de plusieurs objets audio et vidéos, gérés par une composition scénique. Un des objets du flux vidéo est crypté à l'aide d'une clé générée en quatre étapes de cryptage qui est renouvelée périodiquement. Les objets protégés sont les objets vidéos. L'objet crypté est multiplexe avec les autres objets et le flux entier est envoyé à l'utilisateur. Le flux MPEG-4 est recomposé sur l'équipement destinataire par le module de décryptage, qui reconstitue le flux vidéo original, à partir du flux vidéo crypté, et en régénérant la clé de cryptage à partir d'informations de cryptage envoyées au préalable et à partir d'informations contenues dans le flux crypté. Etant donné que tout le contenu protégé des objets vidéo se trouve dans le flux envoyé à l'utilisateur, une personne mal intentionnée qui retrouve les clés de cryptage pourra décrypter ce contenu protégé et le visualiser ou diffuser. Cet art antérieur ne résout donc pas entièrement le problème de la sécurisation du flux vidéo.
A l'inverse de la plupart de ces systèmes
« classiques » de protection, le procédé conforme à l'invention assure un haut niveau de protection tout en réduisant le volume d'information nécessaire pour avoir accès au contenu original à partir du contenu protégé.
La protection, réalisée de façon conforme à l'invention, est basée sur le principe de suppression et de remplacement de certaines informations codant le signal visuel original par une méthode quelconque, soit : substitution, modification, permutation ou déplacement de l'information. Cette protection est également basée sur la connaissance de la structure du flux binaire à la sortie de l'encodeur visuel basé ondelettes.
La présente invention concerne le principe général d'un procédé de sécurisation d'un flux audiovisuel. L'objectif est d'autoriser les services de vidéo à la demande et à la carte à travers tous les réseaux de diffusion et l'enregistrement local dans le boîtier décodeur numérique de l'usager, ainsi que la visualisation en direct des chaînes de télévision. La solution consiste à extraire et conserver en permanence à l'extérieur de l'habitation de l'usager, en fait dans le réseau de diffusion et de transmission, une partie du flux audiovisuel numérique enregistré chez le client ou diffusé en direct, cette partie étant primordiale pour visualiser ledit flux audiovisuel numérique sur un écran de télévision ou de type moniteur, mais étant d'un volume très faible par rapport au volume total du flux audiovisuel numérique enregistré chez l'usager ou reçu en temps réel. La partie manquante sera transmise via le réseau de diffusion ou de transmission au moment de la visualisation dudit flux audiovisuel numérique.
Le flux audiovisuel numérique étant modifié et séparé en deux parties, la plus grande partie du flux audiovisuel modifié, appelé «flux principal modifié» sera donc transmise via un réseau de diffusion classique alors que la partie manquante appelée «information complémentaire» sera envoyée à la demande via un réseau de télécommunication bande étroite comme les réseaux téléphoniques classiques ou les réseaux cellulaires de type GSM, GPRS ou UMTS ou en utilisant une petite partie d'un réseau de type DSL ou BLR, ou encore en utilisant un sous-ensemble de la bande passante partagée sur un réseau câblé. Le flux audiovisuel numérique original est reconstitué sur l'équipement destinataire (décodeur) par un module de synthèse à partir du flux principal modifié et de l'information complémentaire. L'invention réalise un système de protection, comprenant un module d'analyse - embrouillage et de désembrouillage basé sur un format numérique issu de l'encodage d'un flux vidéo basé sur des transformées en ondelettes. Le module d'analyse et d' embrouillage proposé par l'invention repose sur la substitution par des « leurres » ou la modification d'une partie des coefficients issus de la transformation en ondelettes. Le fait d'avoir enlevé et substitué une partie des données originales du flux numérique d'origine lors de la génération du flux principal modifié, ne permet pas la restitution dudit flux d'origine à partir des seules données dudit flux principal modifié. De par les caractéristiques de « scalabilité » de la transformée en ondelettes, la notion de « scalabilité» étant définie à partir de l'expression en anglais « scalability » qui caractérise un encodeur capable d'encoder ou un décodeur capable de décoder un ensemble ordonné de flux numériques de façon à produire ou reconstituer une séquence multi couches, plusieurs variantes du procédé d' embrouillage et de désembrouillage sont mises en œuvre et sont illustrées avec des exemples de réalisation.
L'invention concerne selon son acception la plus générale un procédé pour la distribution sécurisée de séquences vidéos selon un format de flux numérique issu d'un encodage basé sur un traitement par ondelettes, constitué de trames (frames) comprenant des blocs contenant des coefficients d' ondelettes décrivant les éléments visuels, caractérisé en ce que l'on procède, avant la transmission à l'équipement client, à une analyse du flux pour générer un flux principal modifié, par suppression et remplacement de certaines informations codant le flux original et présentant le format du flux original, et une information complémentaire d'un format quelconque, comportant lesdites informations numériques codant le flux original aptes à permettre la reconstruction desdites trames modifiées, puis à transmettre séparément ledit flux principal modifié et ladite information complémentaire ainsi générés depuis le serveur vers l'équipement destinataire.
La protection est effectuée par suppression des éléments originaux et leur substitution par des leurres, les éléments originaux extraits étant stockés séparément dans l'information complémentaire. Le fait d'avoir enlevé et substitué une partie des données originales du flux vidéo d'origine lors de la génération du flux principal modifié, ne permet pas la restitution dudit flux d'origine à partir des seules données dudit flux principal modifié. Le flux vidéo est entièrement protégé (toutes les sous-bandes) et entièrement transmis via le réseau ou via un support physique à l'utilisateur, indépendamment de ses droits. La reconstitution partielle est effectuée via l'envoi d'une partie de l'information complémentaire, contenant les éléments originaux et cela directement ou en mode progressif.
Le module d'analyse et d'embrouillage décide comment dégrader visuellement le flux vidéo en fonction de sa structure et de ses propriétés de scalabilité résultant de la transformée en ondelettes. L'étude se porte sur l'impact de la modification de différentes parties du flux (coefficients, sous-bandes, couches de scalabilité, zones d'intérêt) sur la dégradation visuelle. De préférence, 1 'embrouillage est effectué en modifiant des coefficients ondelettes appartenant à au moins une sous-bande temporelle résultant de l'analyse temporelle.
Avantageusement, l' embrouillage est effectué en modifiant des coefficients d' ondelettes appartenant à moins une sous-bande spatiale résultant de l'analyse spatiale d'une sous-bande temporelle.
Avantageusement, l' embrouillage est effectué en modifiant des coefficients d' ondelettes appartenant à moins une sous-bande temporelle résultant d'une analyse temporelle d'une sous-bande spatiale.
Avantageusement les coefficients ondelettes à modifier sont choisis selon des lois aléatoires et/ou définies a priori. Selon un mode de réalisation particulier, les paramètres pour l'embrouillage dépendent des propriétés de scalabilité temporelle et/ou de scalabilité spatiale et/ou de scalabilité qualitative et/ou de scalabilité en débit et/ou de scalabilité par régions d'intérêt offertes par les flux numériques générés par les codeurs basés ondelettes .
Avantageusement, l'intensité visuelle de la dégradation des séquences vidéo obtenue est déterminée par la quantité de coefficients d Ondelettes modifiés dans chaque sous-bande spatio-temporelle.
Avantageusement, l'intensité de la dégradation visuelle des séquences vidéos décodées à partir du flux principal modifié est fonction de la position au sein du flux numérique original des données modifiées, lesdites données représentant, selon leurs positions, les valeurs quantifiées selon des précisions différentes des coefficients ondelettes appartenant à une sous-bande spatio-temporelle . Avantageusement, l'intensité de la dégradation visuelle des séquences vidéo décodées à partir du flux principal modifié est déterminée selon l'appartenance à la couche de qualité des coefficients d' ondelettes modifiés dans chaque sous-bande spatio-temporelle. Selon un mode de mise en œuvre particulier, la modification des coefficients d' ondelettes est effectuée directement dans le flux binaire.
Selon une variante, la modification des coefficients d' ondelettes est effectuée avec un décodage partiel. Selon une autre variante, la modification des coefficients ondelettes est effectuée pendant le codage ou en effectuant un décodage puis un ré-encodage complet.
Avantageusement, la taille du flux principal modifié est strictement identique à la taille du flux vidéo numérique original.
Selon une autre variante, la substitution des coefficients d' ondelettes est effectuée avec des valeurs aléatoires ou calculées . De préférence, la durée de l' embrouillage visuel obtenu au sein d'un groupe de trames est déterminée en fonction de la sous-bande temporelle à laquelle appartiennent les coefficients d' ondelettes modifiés. Avantageusement, l' embrouillage visuel obtenu au sein d'un groupe de trames est limité spatialement dans une région d'intérêt de chaque trame.
De plus, l'information complémentaire est organisée en couches de scalabilité temporelle et/ou spatiale et/ou qualitative et/ou de débit et/ou sur zone d'intérêt.
Dans une variante, le flux est désembrouillé progressivement avec différents niveaux de qualité et/ou résolution et/ou frame-rate et/ou selon une région d'intérêt via l'envoi de certaines parties de l'information complémentaire correspondant aux couches de scalabilité respectivement qualitative et/ou spatiale et/ou temporelle et/ou pour une région d'intérêt.
Selon une autre variante, le flux est désembrouillé partiellement selon différents niveaux de qualité et/ou résolution et/ou frame-rate et/ou selon une région d'intérêt via l'envoi d'une partie de l'information complémentaire correspondant à la (aux) couche(s) de scalabilité respectivement qualitative et/ou spatiale et/ou temporelle et/ou pour cette région d'intérêt. Selon un mode de mise en œuvre particulier, on calcule sur l'équipement destinataire une synthèse d'un flux numérique au format original en fonction dudit flux principal modifié et de ladite information complémentaire. Selon un mode de mise en œuvre particulier, la transmission dudit flux principal modifié est réalisée à travers un support matériel distribué physiquement [CD- ROM, DVD, disque dur, carte à mémoire flash] .
Avantageusement, le flux principal modifié subit des opérations de transcodage, de réarrangement et/ou d'extraction de trames ou de groupes de trames pendant sa transmission.
Avantageusement, la transmission de ladite information complémentaire est réalisée à travers un support matériel distribué physiquement [carte à mémoire flash, carte à puce].
De préférence, la modification des coefficients d' ondelettes est parfaitement réversible (procédé sans perte) et le flux numérique reconstitué à partir du flux principal modifié et de l'information complémentaire est strictement identique au flux original.
Avantageusement, la modification des coefficients d' ondelettes est parfaitement réversible (procédé sans perte) et la portion du flux numérique reconstituée à partir du flux principal modifié et de l'information complémentaire est strictement identique à la portion correspondante dans le flux original.
Selon une variante particulière, la reconstitution d'un flux vidéo désembrouillé est contrôlée et/ou limitée en termes de frame-rate et/ou de résolution et/ou de débit et/ou de qualité prédéfinis, en fonction des droits de
1 'utilisateur.
Selon une autre variante, la reconstitution d'un flux vidéo désembrouillé est limitée en termes de frame- rate et/ou de résolution et/ou de débit et/ou de qualité en fonction de l'appareil de visualisation sur lequel il est visualisé.
Selon une autre variante, la reconstitution du flux vidéo désembrouillé est effectuée de manière progressive par étapes jusqu'à la reconstitution du flux vidéo original.
L ' invention concerne également un système pour la fabrication d' un flux vidéo, comportant au moins un serveur multimédia contenant les séquences vidéos originales et comportant un dispositif d'analyse du flux vidéo, un dispositif de séparation du flux vidéo original en un flux principal modifié par suppression et remplacement de certaines informations codant le signal visuel original et en une information complémentaire en fonction de ladite analyse, et au moins un dispositif sur l'équipement destinataire pour la reconstruction du flux vidéo en fonction dudit flux principal modifié et de ladite information complémentaire.
La présente invention sera mieux comprise à la lecture de la description d'un exemple non limitatif de réalisation qui suit, se référant à la figure décrivant l'architecture d'ensemble d'un système pour la mise en œuvre du procédé selon l'invention.
La protection des flux visuels décrite est élaborée en se basant sur la structure des flux binaires et leurs caractéristiques dues à l'encodage basé ondelettes. Nous rappelons ci-après cette structure. Un codeur vidéo basé sur un traitement par ondelettes réalise une décomposition temporelle et spatiale d'une séquence vidéo initiale afin d'obtenir un ensemble de coefficients d' ondelettes spatio-temporels. Ces coefficients sont ensuite quantifiés puis codés par un codeur entropique afin de générer un ou plusieurs flux binaires emboîtés qui possèdent des propriétés de scalabilité temporelle et/ou scalabilité spatiale (ou de résolution) et/ou scalabilité qualitative et/ou scalabilité de débit et/ou scalabilité de régions d'intérêt.
La propriété de scalabilité temporelle est la possibilité de décoder à partir d'un unique ou plusieurs flux binaires emboîtés, des séquences vidéos dont la fréquence d'affichage des trames (nombre de trames par seconde) est variable.
Dans la littérature bien connue par l'homme de l'art, sont employées les notions en anglais « frames » (trames) et « frame rate» (nombre de trames par seconde), notions qui seront utilisées par la suite pour décrire la présente invention.
La propriété de scalabilité spatiale est la possibilité de décoder à partir d'un unique ou à partir de plusieurs flux binaires emboîtés des séquences vidéos dont la résolution spatiale (taille) des frames est variable.
La propriété de scalabilité qualitative est la possibilité de décoder à partir d'un unique ou plusieurs flux binaires emboîtés des séquences vidéos dont la qualité visuelle des frames, mesurée selon des critères objectifs et/ou subjectifs, est variable.
La propriété de scalabilité de débit est la possibilité de décoder à partir d'un unique ou plusieurs flux binaires emboîtés des séquences vidéos selon un débit moyen (nombre moyen de bits d'information par seconde) variable.
La propriété de scalabilité sur région d'intérêt est la possibilité de décoder à partir d'un unique ou plusieurs flux binaires emboîtés une ou plusieurs zones ciblées au sein de la séquence vidéo.
A l'encodage, une séquence vidéo originale est segmentée en groupes de N frames successives appelé GOF (Group Of Frames), chaque GOF étant ensuite traité de manière indépendante durant l'encodage. On note un GOF de longueur N GOF=(F0,F1,...,FH_1) , F± étant les frames pour i = 0,1, 2,... N-l). Les coefficients d'ondelettes spatiotemporels sont générés en deux étapes successives et selon une analyse spatiale et temporelle des frames du GOF. La première étape consiste à effectuer une analyse temporelle des N frames de chaque GOF selon la direction estimée du mouvement (analyse temporelle avec estimation de mouvement), ceci afin de supprimer les redondances temporelles et de concentrer spatialement dans les frames issues de l'analyse temporelle l'énergie et les informations dues au mouvement. Cette analyse temporelle peut être réalisée selon des résolutions spatiales différentes et après décomposition en ondelettes de chaque frame du GOF, l'estimation de mouvement étant réalisée indépendamment au sein de chaque sous-bande spatiale (estimation de mouvement ulti-résolution) .
La seconde étape consiste à effectuer une analyse spatiale des N frames résultant de l'analyse temporelle à l'aide d'une décomposition en ondelettes afin de supprimer les redondances spatiales et de concentrer l'énergie due aux discontinuités spatiales présentes dans chaque frame .
L'analyse temporelle est réalisée en plusieurs itérations.
A la première itération, p frames successives du GOF original sont analysées au moyen de filtres ondelettes fL et fH prédéfinis de longueur p et après estimation et compensation du mouvement pour chaque frame et par rapport à une ou plusieurs frames dites frames de référence. Généralement p=2 et deux frames successives (F2i,F2i+1) ,i=0,...,N/2, sont filtrées et engendrent une frame dite de « basse fréquence » ou « moyenne » et notée Li=fL(F2i,F2i+1) et une frame dite de « haute fréquence » ou « différence » et notée Hi=fH(F2i,F2i+1) . A la première itération de l'étape d'analyse temporelle sont ainsi générés un sous-ensemble t-Lx de frames de type L de longueur N/2 et un sous-ensemble t-Hj. de frames de type H de longueur N/2, tels que t-L-L≈ ( L0 , Lx , ... , LN/2 ) , t-H-L≈ ( H0 , E± , ... , HN 2 ) . A chaque itération k>l suivante, l'estimation/compensation de mouvement et le filtrage temporel sont itérés sur le sous-ensemble de frames t-Lk-1 de type L obtenues à l'itération k-1 et sont générés deux nouveaux sous-ensembles de frames t-Lk et t-Hk dont la longueur (nombre de frames) est diminuée d'un facteur 2 par rapport à t-Lk-1. Dans certains cas, l'itération porte aussi sur le sous-ensemble de frames t-H^.
Le nombre total d'itérations durant l'analyse temporelle est noté nτ. Il est compris entre 1 et N/2. A l'issue de l'analyse temporelle, nτ+l sous-bandes temporelles sont générées .
Par exemple, avec N=16 et nτ≈4 :
L'analyse temporelle d'un GOF de longueur N=16 avec nτ=4 génère ainsi 16 nouvelles frames réparties dans nτ+l=4+l=5 sous-bandes temporelles :
" Sous-bande t-L4 : 1 frame de type L : LLLL0, " Sous-bande t-H4 : 1 frame de type H : LLLH0, " Sous-bande t-H3 : 2 frames de type H : LLH0, LLH^,
" Sous-bande t-H2 : 4 frames de type H : LH0,...,LH3 " Sous-bande t-E^ : 8 frames de type H : H0,...,H7. L'analyse spatiale est réalisée ensuite sur chacune des frames appartenant à chaque sous-bande temporelle t-Li et t-Hi : chaque frame est décomposée à l'aide d'une transformée en ondelettes discrète à D niveaux, générant ainsi 3xD+l sous-bandes spatiales de coefficients d' ondelettes pour chaque frame. Ces sous-bandes spatiales sont notées s-LL0, s-HL^ S-LI^, s-HHlf s-HL2, s-LH2, s-HH2, ..., s—HLD, s—LHD, S—HHD. A l'issue des analyses temporelles et spatiales,
(nτ+l ) x ( 3D+1 ) sous-bandes spatio-temporelles de coefficients d' ondelettes sont disponibles : t-LnT(s-LL0), t-LnT(s-HL1), t-LnT(s- HHi), ..., t-LnT( S-HLD) , t-LnT( S-LHD) , t-LnT( S-HHD) , " t-H(s-LL0) , t-HnT(s-HL1) , t-HnT(s-LHx) , t-HnT(s- 1 ) , ..., t-HnT( S-HLD) , t-HnT( S-LHD) , t-HnT( S-HHD) , m ... t-Hi ( S-LL0 ) , t-H^ ( S-HLi ) , t-Hx ( S-L^ ) , t-Hx ( S-HH ) , ... , Les coef ficients ondelettes de chaque sous-bande spatio-temporelle sont ensuite compressés progressivement par plan de bits à l ' aide d' un codeur entropique dont le but est de supprimer les redondances statistiques existant au sein d ' un ensemble fixé de coefficients ondelettes . Le codeur entropique génère , pour chaque ensemble de coefficients ondelettes codés indépendamment , un f lux binaire qui peut être découpé en plusieurs sous-flux répartis selon différentes couches de qualité .
Après une analyse de la structure en sous-bandes décrite précédemment , le module d ' analyse et d ' embrouillage conforme à l ' invention ef fectue des modifications ( par permutation et/ou substitution et/ou seuil lage ) d ' un sous -ensemble des coef f icients d Ondelettes appartenant à une ou plusieurs sous-bandes spatio-temporelles. Ces modifications introduisent une dégradation perceptible visuellement (embrouillage) de la séquence vidéo décodée à partir de ces coefficients modifiés. En fonction du nombre de coefficients modifiés, de leurs localisations dans une sous-bande spatiale, de leurs appartenances aux sous-bandes spatio-temporelles, de leurs appartenances à une ou plusieurs couches de qualité, de leur position au sein de l'ensemble des coefficients appartenant à une seule sous-bande spatio-temporelle et du type de modification, un contrôle de l'étendue spatiale et/ou temporelle et/ou selon les couches de qualité de l' embrouillage, ainsi qu'un contrôle de l'intensité de la dégradation due à l' embrouillage sont possibles. En modifiant des coefficients d ' ondelettes dans des sous-bandes spatiales d'une sous-bande temporelle t-X de longueur lx (i.e. contenant lx frames), les N/lx frames consécutives du GOF sont embrouillées.
Le choix du type de sous-bande spatiale à laquelle appartient les coefficients d Ondelettes (s-HL ou s-LH ou s-HH) permet de contrôler l'aspect visuel de l'embrouillage : pour la sous-bande s-HL des artefacts de direction verticale apparaissent sur les frames (dégradation des discontinuités spatiales verticales), pour la sous-bande s-LH des artefacts horizontaux apparaissent (dégradation des discontinuités spatiales horizontales) et pour la sous-bande s-HH des artefacts de type « damier » apparaissent (dégradations conjointes des discontinuités spatiales horizontales et verticales). Le choix du niveau de résolution r auquel appartient la sous-bande spatiale (s-LLr ou s-HLr ou s-LHr ou s-HHr) permet de contrôler l'étendue spatiale de l'embrouillage engendré par la modification des coefficients d' ondelettes : plus r est proche de 0, plus l'étendue spatiale sera importante.
Une modification des coefficients d Ondelettes appartenant à une sous-bande de résolution r ≥ 0 génère un embrouillage qui sera visible sur toutes les frames décodées de résolution spatiales supérieure r+1, r+2, ...
,R.
Une modification des coefficients ondelettes appartenant à une couche de qualité q génère un embrouillage qui sera visible sur toutes les frames décodées en considérant au moins les q premières couches de qualité.
La modification des coefficients d' ondelettes spatio-temporels est réalisée après un décodage partiel du flux binaire généré selon un standard ou une norme ou un algorithme ou un format d'encodage. Une fois la modification effectuée, un ré-encodage des coefficients est réalisé afin de générer un flux binaire de taille identique et qui respecte la conformité vis-à-vis du standard ou de la norme ou de l'algorithme ou du format d'encodage ayant généré le flux binaire original.
Avantageusement, des sous-ensembles de bits à l'intérieur même du flux binaire original représentant les coefficients d' ondelettes spatio-temporels codés sont modifiés sans décodage et sans perturber la conformité du flux vis-à-vis du standard ou de la norme ou de l'algorithme ou du format d'encodage ayant généré le flux binaire original.
Le choix des coefficients ondelettes spatio- temporels à modifier au sein d'une sous-bande spatiotemporelle est conduit de manière aléatoire et/ou selon des règles définies a priori.
Avantageusement, le flux principal modifié a une taille identique à celle du flux vidéo original. L' embrouillage ainsi généré présente des propriétés de scalabilité temporelle, spatiale, qualitative, de débit et sur zone d'intérêt.
Avantageusement, l'information complémentaire relative audit embrouillage ainsi généré est organisée en couches de scalabilité temporelle, spatiale, qualitative, de débit et sur zone d'intérêt.
En fonction du nombre de GOF et/ou du nombre de frames embrouillées au sein d'un GOF, l' embrouillage présente une scalabilité temporelle comprise entre : « toutes les frames de tous les GOF (embrouillage maximal) » et « aucune frame d'aucun GOF » (séquence non embrouillée) .
En fonction des résolutions des sous-bandes spatiales auxquelles appartiennent les coefficients d Ondelettes modifiés, l' embrouillage présente une scalabilité spatiale comprise entre : « toutes les résolutions sont embrouillées » (i.e. de la résolution r≈O à la résolution r=R) et « aucune des résolutions n'est embrouillée ».
En fonction du nombre de coefficients d' ondelettes modifiés et des résolutions des sous-bandes spatiales auxquelles ils appartiennent, l' embrouillage présente une scalabilité qualitative s 'échelonnant de : « la totalité de chaque frame est embrouillée », « certaines régions spatiales de chaque frame sont embrouillées » (régions d'intérêts) et « aucun embrouillage n'est appliqué sur les frames » .
Réciproquement, le désembrouillage présentera lui aussi les différentes scalabilités énoncées (temporelle, spatiale, qualitative, de débit et de zone d'intérêt).
Avantageusement, ledit désembrouillage permettra d'adresser les différentes scalabilités énoncées (temporelle, spatiale, qualitative, de débit et de zone d'intérêt), grâce à l'envoi de certaines parties de l'information complémentaire correspondant à différentes couches de scalabilité (temporelle, spatiale, qualitative, de débit et de zone d'intérêt), donnant ainsi accès à des niveaux différents de qualité/résolution/frame-rate pour la séquence vidéo décodée à partir du flux désembrouillé partiellement .
Avantageusement, les différents niveaux de qualité/résolution/frame rate de la séquence vidéo sont obtenus à partir du flux désembrouillé partiellement via l'envoi d'une partie de l'information complémentaire par couche de scalabilité (temporelle, spatiale, qualitative, de débit et de zone d'intérêt).
On comprendra mieux le principe d' embrouillage et de désembrouillage se basant sur ces différentes scalabilités à l'aide de l'exemple non limitatif de réalisation préféré qui suit.
Sur le dessin en annexe, la figure représente un mode de réalisation préféré particulier du système client- serveur conforme à l'invention.
Le flux d'origine (1) est directement sous forme numérique ou sous forme analogique. Dans ce dernier cas, le flux analogique est converti par un codeur basé ondelettes non représenté en un format numérique (2). Le flux vidéo que l'on souhaite sécuriser (2) est passé à un module d'analyse et d'embrouillage (3) qui va générer un flux principal modifié (5) au format identique au flux d'entrée (2) en dehors de ce que certains des coefficients ont été remplacés par des valeurs différentes de celles d'origine, et est stocké dans le serveur (6). L'information complémentaire (4), de format quelconque, est également placée dans le serveur (6) et contient des informations relatives aux éléments des images qui ont été modifiés, remplacés, substitués ou déplacés, et leur valeur ou emplacement dans le flux original.
Le flux (5) au format identique au flux original est ensuite transmis, via un réseau haut débit (9) de type hertzien, câble, satellite, etc., au terminal du spectateur (8), et plus précisément sur son disque dur (10). Lorsque le spectateur (8) fait la demande de visionnage du film présent sur son disque dur (10), deux éventualités sont possibles : soit le spectateur (8) ne possède pas tous les droits nécessaires pour voir le film, dans ce cas, le flux vidéo (5) généré par le module d' embrouillage (3) présent sur le disque dur (10) est passé au système de synthèse (13), via une mémoire tampon de lecture (11), qui ne le modifie pas et le transmet à l'identique à un lecteur afficheur capable de le décoder (14) et son contenu, dégradé visuellement par le module d' embrouillage (3), est affiché sur l'écran de visualisation (15). Avantageusement, le flux vidéo (5) généré par le module d' embrouillage (3) est passé directement via un réseau (9) à la mémoire tampon de lecture (11) puis au système de synthèse (13).
Avantageusement, le flux vidéo (5) subit dans le réseau (9) une série d'opérations de transcodage et de réarrangement de ses trames ou groupes de trames. Soit le serveur décide que le spectateur (8) possède les droits pour visualiser correctement le film. Dans ce cas, le module de synthèse (13) fait une demande de visionnage au serveur (6) contenant l'information complémentaire nécessaire (4) à la reconstitution de la vidéo originale (2). Le serveur (6) envoie alors via le réseau de télécommunication (7) de type ligne téléphonique analogique ou numérique, DSL (Digital Subscriber Line) ou BLR (Boucle Locale Radio), via des réseaux DAB (Digital Audio Broadcasting) ou via des réseaux de télécommunications mobiles numériques (GSM, GPRS, UMTS), l'information complémentaire (4), permettant la reconstitution de la vidéo originale, de façon à ce que le spectateur (8) puisse la stocker dans une mémoire tampon (12). Le module de synthèse (13) procède alors à la restauration du flux vidéo embrouillé qu'il lit dans sa mémoire tampon de lecture (11), des champs modifiés dont il connaît les positions ainsi que les valeurs d'origine sont restituées, grâce au contenu de l'information complémentaire lue dans la mémoire tampon (12) de désembrouillage. La quantité d'informations contenue dans l'information complémentaire (4) qui est envoyée au module de désembrouillage est spécifique, adaptative et progressive pour chaque spectateur et dépend de ses droits, par exemple utilisation unique ou multiple, droit de faire une ou plusieurs copies privées, retard ou anticipation de paiement. Le niveau (qualité, quantité, type) de l'information complémentaire est déterminé également en fonction de la qualité visuelle requise par l'utilisateur. Le codage vidéo basé ondelettes se caractérisant par les scalabilités précédemment décrites permet la restitution du flux vidéo avec des niveaux de qualité, de résolution, de fréquence de trames différents.
Avantageusement, le flux principal modifié (5) est passé directement via un réseau (9) à la mémoire tampon de lecture (11) puis au module de synthèse (13).
Avantageusement, le flux principal modifié (5) est inscrit (enregistré) sur un support physique comme un disque de type CD-ROM, DVD, disque dur, carte à mémoire flash, etc. (9bis). Le flux principal modifié (5) sera ensuite lu depuis le support physique (9bis) par le lecteur de disque (lObis) du boîtier (8) pour être transmis à la mémoire tampon de lecture (11) puis au module de synthèse (13). Avantageusement, l'information complémentaire (4) est enregistrée sur un support physique (7bis) de format carte de crédit, constitué par une carte à puce ou une carte à mémoire flash. Cette carte (7bis) sera lue par le module (12) du dispositif (8) qui comprend un lecteur de carte (7ter) .
Avantageusement, la carte (7bis) contient les applications et les algorithmes qui seront exécutés par le système de synthèse (13). Avantageusement, le dispositif (8) est un système autonome, portable et mobile.
Nous allons détailler le fonctionnement du module d'analyse et d' embrouillage (3) illustrant le choix de l'embrouillage effectué. La séquence vidéo originale est segmentée en GOF de N=16 frames. L'analyse temporelle avec nτ=4 itérations génère nτ+l=5 sous-bandes temporelles possédant respectivement :
" Sous-bande t-L4 : 1 frame de type L : LLLL0 " Sous-bande t-H4 : 1 frame de type H : LLLH0 " Sous-bande t-H3 : 2 frames de type H : LLH0, LLHX " Sous-bande t-H2 : 4 frames de type H : LH0/ LH1( LH2 LH3
" Sous-bande t-H1 : 8 frames de type H : H0, Hx, H2, H3, H4, H5, H6, H7. La décomposition en cinq sous-bandes temporelles offre la possibilité de reconstituer la séquence vidéo initiale selon cinq différents « frame rate » Chaque frame de résolution R dans chaque sous-bande temporelle t-X est ensuite décomposée spatialement par une transformée en ondelettes à D=4 niveaux, ce qui donne la possibilité de reconstituer l'image avec cinq résolutions différentes, générant ainsi pour chacune 3 x D + 1 = 13 sous-bandes spatiales : LL0, LHlf HLX, HHl LH2, HL2, HH2, LH3, HL3, HH3, LH4, HL4, HH4. Suite à un tel encodage, la séquence vidéo peut donc être décodée selon des frame-rates allant de 1/16 x fr0 à fr0, fr0 étant le frame-rate de la séquence vidéo originale ainsi que selon D+l=5 résolutions. L' embrouillage de la séquence vidéo est réalisée pour chaque GOF de la manière suivante :
Dans la sous-bande temporelle t-L4, les coefficients d Ondelettes des sous-bandes spatiales s-HH2 et s-HH3 résultant de la décomposition spatiale en ondelettes de la frame LLLL0 sont extraits et remplacés par des valeurs aléatoires ou calculées.
Dans la sous-bande temporelle t-H3, les coefficients d' ondelettes de la sous-bande spatiale s-HH3 résultant de la décomposition spatiale en ondelettes de la frame LLH0 sont extraits et remplacés par des valeurs aléatoires ou calculées.
Dans la sous-bande temporelle t-Hlf les coefficients d' ondelettes de la sous-bande spatiale s-HH3 résultant de la décomposition en ondelettes de la frame LH0 sont extraits et remplacés par des valeurs aléatoires ou calculées.
Dans la sous-bande temporelle t-H0, les coefficients d' ondelettes de la sous-bande spatiale s-HH3 résultant de la décomposition en ondelettes de la frame H0 sont extraits et remplacés par des valeurs aléatoires ou calculées.
La séquence vidéo décodée à partir du flux principal modifié est donc embrouillée totalement, sauf si elle est décodée à des frame-rates égaux à l/16xfr0 et l/8xfr0 (décodage uniquement à partir respectivement des sous- bandes temporelles t-L4 et (t-L4ft-H4)) et à des résolutions spatiales r=R/16 ou r=R/8 (décodage uniquement à partir respectivement des sous-bandes spatiales s-LL0, s-LHx, s-HL! et s-H^ qui n'ont pas été modifiées). On effectue ainsi des modifications dans toutes les bandes temporelles, mais pas à toutes les résolutions. Le fait de laisser des résolutions non modifiées permet de pouvoir reconstituer le flux vidéo à partir du flux embrouillé, mais à une qualité nettement inférieure que celle du flux vidéo original.
Le flux ainsi embrouillé est transmis au client
(8) à sa demande, le désembrouillage est ensuite réalisé par exemple en cinq étapes, correspondant à différents niveaux de qualité obtenus après chaque étape de désembrouillage. De cette manière, on effectue un désembrouillage d'une ou plusieurs couches de scalabilité, la qualité du film visualisé étant contrôlée par le serveur en fonction des droits de l'utilisateur et de la qualité requise par lui.
Avantageusement, ce désembrouillage se traduit par une atténuation progressive de la dégradation dans le temps jusqu'à reconstituer le contenu original de haute qualité visuelle. Par exemple, la première étape de désembrouillage consiste à restituer les coefficients d' ondelettes de la sous-bande spatiale s-HH2 pour la sous- bande temporelle t-L4. L' embrouillage de la séquence vidéo décodée pour une résolution maximale R et à un frame-rate maximal de fr0 est alors moins étendu spatialement et plus concentré autour des discontinuités spatiales de chaque frame. La séquence vidéo décodée pour les frame-rate l/16xfr0 ou l/8xfr0 et pour les résolutions r=R/16, R/8, R/4 n'est en revanche pas du tout embrouillée. La qualité visuelle du film partiellement désembrouillé est minimale, le film est inexploitable visuellement à sa pleine résolution et à son frame-rate original. Cette étape sert d'identification du serveur d'information complémentaire lors de l'établissement de la connexion. La deuxième étape de désembrouillage consiste à restituer les coefficients d' ondelettes de la sous-bande spatiale s-HH3 pour la sous-bande temporelle t-L4. L' embrouillage de la séquence vidéo décodée pour une résolution R et à un frame-rate de fr0 est alors beaucoup moins étendu spatialement et plus concentré autour des discontinuités spatiales de chaque frame. De plus, la séquence vidéo n'est maintenant embrouillée que sur une durée équivalente à la moitié d'un GOF (8 frames sur 16). La séquence vidéo décodée pour les frame-rate l/16xfr0 ou l/8xfrQ et pour les résolutions r=R/16, R/8, R/4 n'est pas embrouillée. Cette étape sert à ce que l'utilisateur (8) aperçoive le film vidéo partiellement, afin de décider s'il veut obtenir des droits pour regarder le film. Après confirmation du client, et en fonction du paiement effectué, sont exécutées les étapes trois, quatre ou cinq. La troisième étape de désembrouillage consiste à restituer les coefficients d' ondelettes de la sous-bande spatiale s- HH3 pour la sous-bande temporelle t-H3. La séquence vidéo n'est maintenant embrouillée que sur une durée équivalente au quart d'un GOF (4 frames sur 16). La séquence vidéo décodée pour les frame-rate l/16xfr0, l/8xfr0, l/4xfr0 et pour les résolutions r=R/16, R/8, R/4 n'est pas embrouillée. Le film peut être regardé visuellement, mais il est de basse qualité.
La quatrième étape de désembrouillage consiste à restituer les coefficients d' ondelettes de la sous-bande spatiale s-HH3 pour la sous-bande temporelle t-H2. La séquence vidéo n'est maintenant embrouillée que sur une durée équivalente au huitième d'un GOF (2 frames sur 16). La séquence vidéo décodée pour les frame-rate l/16xfr0, l/8xfr0, l/4xfr0 , l/2xfr0 et pour les résolutions r=R/16, R/8, R/4 n'est pas embrouillée. La qualité visuelle du film restitué est moyenne. Pour ces 3iême et 4ième étapes de désembrouillage, le film vidéo pleine résolution et pour le frame rate original reste partiellement embrouillé, mais à partir de ces étapes, on peut extraire des flux vidéo avec des résolutions et frame-rate inférieurs à ceux du film original. Cela donne la possibilité de fournir des versions du même flux vidéo de moindre résolution, donc à plus faible prix et de mieux contrôler l'accès.
La cinquième étape de désembrouillage consiste à restituer les coefficients d' ondelettes de la sous-bande spatiale s-HH3 pour la sous-bande temporelle t-Hx. La séquence yidéo est alors totalement désembrouillée, quel que soit le frame-rate de décodage et la résolution. Le flux vidéo reconstitué est strictement identique au flux vidéo original.

Claims

REVENDICATIONS
1. Procédé pour la distribution sécurisée de séquences vidéos selon un format de flux numérique issu d'un encodage basé sur un traitement par ondelettes, constitué de trames (frames) comprenant des blocs contenant des coefficients d' ondelettes décrivant les éléments visuels, caractérisé en ce que l'on procède, avant la transmission à l'équipement client, à une analyse du flux pour générer un flux principal modifié par suppression et remplacement de certaines informations codant le flux original et présentant le format du flux original, et une information complémentaire d'un format quelconque, comportant lesdites informations numériques codant le flux original aptes à permettre la reconstruction desdites trames modifiées, puis à transmettre séparément ledit flux principal modifié et ladite information complémentaire ainsi générés depuis le serveur vers l'équipement destinataire.
2. Procédé pour la distribution sécurisée de séquences vidéos selon la revendication 1, caractérisé en ce que l' embrouillage est effectué en modifiant des coefficients d' ondelettes appartenant à au moins une sous- bande temporelle résultant de l'analyse temporelle.
3. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que l' embrouillage est effectué en modifiant des coefficients d Ondelettes appartenant à moins une sous-bande spatiale résultant de l'analyse spatiale d'une sous-bande temporelle.
4. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que l' embrouillage est effectué en modifiant des coefficients d' ondelettes appartenant à moins une sous-bande temporelle résultant de l'analyse temporelle d'une sous-bande spatiale.
5. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que les coefficients ondelettes à modifier sont choisis selon des lois aléatoires et/ou définies a priori.
6. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que les paramètres pour l'embrouillage dépendent des propriétés de scalabilité temporelle et/ou de scalabilité spatiale et/ou de scalabilité qualitative et/ou de scalabilité temporelle, de scalabilité en débit et/ou de scalabilité par régions d'intérêt offertes par les flux numériques générés par les codeurs basés ondelettes.
7. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que l'intensité visuelle de la dégradation des séquences vidéo obtenue est déterminée par la quantité de coefficients d' ondelettes modifiés dans chaque sous-bande spatio-temporelle.
8. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que l'intensité de la dégradation visuelle des séquences vidéos décodées à partir du flux principal modifié est fonction de la position au sein du flux numérique original des données modifiées, lesdites données représentant, selon leurs positions, les valeurs quantifiées selon des précisions différentes des coefficients ondelettes appartenant à une sous-bande spatio-temporelle.
9. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que l'intensité de la dégradation visuelle des séquences vidéo décodées à partir du flux principal modifié est déterminée selon l'appartenance à une couche de qualité des coefficients d' ondelettes modifiés dans chaque sous-bande spatio- temporelle.
10. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la modification des coefficients d' ondelettes est effectuée directement dans le flux binaire.
11. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la modification des coefficients d' ondelettes est effectuée avec un décodage partiel.
12. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la modification des coefficients ondelettes est réalisée pendant le codage ou en effectuant un décodage puis un ré-encodage complet.
13. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caradtérise en ce que la taille du flux principal modifié est strictement identique à la taille du flux vidéo numérique original.
14. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la substitution des coefficients d' ondelettes est effectuée avec des valeurs aléatoires ou calculées.
15. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la durée de l'embrouillage visuel obtenu au sein d'un groupe de trames est déterminée en fonction de la sous-bande temporelle à laquelle appartiennent les coefficients d1 ondelettes modifiés.
16 . Procédé pour la distribution sécurisée de séquences vidéos selon l ' une des revendications précédentes , caractérisé en ce que 1 ' embrouillage visuel obtenu au sein d ' un groupe de trames est limité spatialement dans une région d'intérêt de chaque trame.
17 . Procédé pour la distribution sécurisée de séquences vidéos selon l ' une des revendications précédentes , caractérisé en ce que l ' information complémentaire est organisée en couches de scalabilité temporelle et/ou spatiale et/ou qualitative et/ou de débit et/ou sur zone d' intérêt.
18. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que le flux est désembrouillé progressivement avec différents niveaux de qualité et/ou résolution et/ou frame-rate et/ou selon une région d'intérêt via l'envoi de certaines parties de l'information complémentaire correspondant aux couches de scalabilité respectivement qualitative et/ou spatiale et/ou temporelle et/ou pour une région d'intérêt.
19. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que le flux est désembrouillé partiellement selon différents niveaux de qualité et/ou résolution et/ou frame-rate et/ou selon une région d'intérêt via l'envoi d'une partie de l'information complémentaire correspondant à la (aux) couche(s) de scalabilité respectivement qualitative et/ou spatiale et/ou temporelle et/ou pour cette région d'intérêt.
20. Procédé pour la distribution sécurisée de séquences audiovisuelles selon l'une des revendications précédentes, caractérisé en ce que l'on calcule sur l'équipement destinataire une synthèse d'un flux numérique au format original en fonction dudit flux principal modifié et de ladite information complémentaire.
21. Procédé pour la distribution sécurisée de séquences audiovisuelles selon l'une des revendications précédentes, caractérisé en ce que la transmission dudit flux principal modifié est réalisée à travers un support matériel distribué physiquement [CD-ROM, DVD, disque dur, carte à mémoire flash] .
22. Procédé pour la distribution sécurisée de séquences audiovisuelles selon l'une des revendications précédentes, caractérisé en ce que le flux principal modifié subit des opérations de transcodage, de réarrangement et/ou d'extraction de trames ou de groupes de trames pendant sa transmission.
23. Procédé pour la distribution sécurisée de séquences audiovisuelles selon l'une des revendications précédentes, caractérisé en ce que la transmission de ladite information complémentaire est réalisée à travers un support matériel distribué physiquement [carte à mémoire flash, carte à puce].
24. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la modification des coefficients d Ondelettes est parfaitement réversible (procédé sans perte) et que le flux numérique reconstitué à partir du flux principal modifié et de l'information complémentaire est strictement identique au flux original.
25. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications précédentes, caractérisé en ce que la modification des coefficients d 'ondelettes est parfaitement réversible (procédé sans perte) et que la portion du flux numérique reconstituée à partir du flux principal modifié et de l'information complémentaire est strictement identique à la portion correspondante dans le flux original.
26. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications 24 ou 25, caractérisé en ce que la reconstitution d'un flux vidéo désembrouillé est contrôlée et/ou limitée en termes de frame-rate et/ou de résolution, et/ou de débit et/ou de qualité prédéfinis en fonction des droits de l'utilisateur.
27. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications 24 ou 25, caractérisé en ce que la reconstitution d'un flux vidéo désembrouillé est contrôlée et/ou limitée en terme de frame-rate et/ou de résolution, et/ou de débit et/ou de qualité prédéfinis en fonction de l'appareil de visualisation sur lequel il est visualisé.
28. Procédé pour la distribution sécurisée de séquences vidéos selon l'une des revendications 24, 25, 26 ou 27, caractérisé en ce que la reconstitution du flux vidéo désembrouillé est effectuée de manière progressive par étapes jusqu'à la reconstitution du flux vidéo original.
29. Système pour la fabrication d'un flux vidéo pour la mise en œuvre du procédé selon l'une des revendications précédentes, comportant au moins un serveur multimédia contenant les séquences vidéos originales et caractérisé en ce qu'il comporte un dispositif d'analyse du flux vidéo, un dispositif de séparation du flux vidéo original en un flux principal modifié par suppression et remplacement de certaines informations codant le flux visuel original et en une information complémentaire en fonction de ladite analyse, et au moins un dispositif sur l'équipement destinataire pour la reconstruction du flux vidéo en fonction dudit flux principal modifié et de ladite information complémentaire.
EP04742528A 2003-04-16 2004-04-16 Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes Withdrawn EP1614290A2 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0350110A FR2854019B1 (fr) 2003-04-16 2003-04-16 Embrouillage, desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes
PCT/FR2004/000947 WO2004095840A2 (fr) 2003-04-16 2004-04-16 Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes

Publications (1)

Publication Number Publication Date
EP1614290A2 true EP1614290A2 (fr) 2006-01-11

Family

ID=33042057

Family Applications (1)

Application Number Title Priority Date Filing Date
EP04742528A Withdrawn EP1614290A2 (fr) 2003-04-16 2004-04-16 Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes

Country Status (4)

Country Link
US (2) US7668312B2 (fr)
EP (1) EP1614290A2 (fr)
FR (1) FR2854019B1 (fr)
WO (1) WO2004095840A2 (fr)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2849980B1 (fr) * 2003-01-15 2005-04-08 Medialive Procede pour la distribution de sequences video, decodeur et systeme pour la mise en oeuvre de ce prodede
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
FR2854019B1 (fr) * 2003-04-16 2005-09-16 Medialive Embrouillage, desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes
US7505589B2 (en) * 2003-09-09 2009-03-17 Temarylogic, Llc Ternary and higher multi-value digital scramblers/descramblers
KR20060066626A (ko) * 2004-12-13 2006-06-16 엘지전자 주식회사 컨텐트의 암호/해독을 위한 키를 기록하고 사용하는 방법및 장치와 그 방법에 의해 키가 기록되어 있는 기록매체
US20090067626A1 (en) * 2005-11-04 2009-03-12 Emittall Surveillance S.A. Region-based transform domain video scrambling
US9202210B2 (en) * 2005-11-23 2015-12-01 Sandisk Il Ltd. Digital rights management device and method
TWI288892B (en) * 2005-12-28 2007-10-21 Inst Information Industry Content protection method for vector graph format
US8552891B2 (en) 2006-05-27 2013-10-08 Samsung Electronics Co., Ltd. Method and apparatus for parallel data interfacing using combined coding and recording medium therefor
KR100782327B1 (ko) * 2006-05-27 2007-12-06 삼성전자주식회사 반도체 장치 사이의 단일형 병렬데이터 인터페이스 방법,기록매체 및 반도체 장치
US8752199B2 (en) * 2006-11-10 2014-06-10 Sony Computer Entertainment Inc. Hybrid media distribution with enhanced security
US8739304B2 (en) * 2006-11-10 2014-05-27 Sony Computer Entertainment Inc. Providing content using hybrid media distribution scheme with enhanced security
FR2909507B1 (fr) * 2006-12-05 2009-05-22 Medialive Sa Procede et systeme de distribution securisee de donnees audiovisuelles par marquage transactionel
US8046838B1 (en) * 2007-04-30 2011-10-25 Hewlett-Packard Development Company, L.P. Using a modulation transfer function of a device to create digital content for the device
US8068608B2 (en) * 2007-12-17 2011-11-29 Broadcom Corporation Video processing system for scrambling video streams with dependent portions and methods for use therewith
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
US9648372B2 (en) * 2009-07-23 2017-05-09 Fmr Llc Inserting personalized information into digital content
US20110317770A1 (en) * 2010-06-24 2011-12-29 Worldplay (Barbados) Inc. Decoder for multiple independent video stream decoding
US8743967B2 (en) * 2011-03-09 2014-06-03 Vixs Systems, Inc. Multi-format video decoder with vector processing instructions and methods for use therewith
WO2014062934A1 (fr) * 2012-10-19 2014-04-24 Visa International Service Association Procédés de diffusion numérique mettant en œuvre des réseaux maillés et des ondelettes sécurisés
EP2874396A1 (fr) * 2013-11-15 2015-05-20 Everseen Ltd. Procédé et système pour sécuriser un flux de données
MX2016015022A (es) 2014-08-07 2018-03-12 Sonic Ip Inc Sistemas y metodos para proteger corrientes de bits elementales que incorporan tejas codificadas independientemente.

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0181028B1 (ko) * 1995-03-20 1999-05-01 배순훈 분류 디바이스를 갖는 개선된 비디오 신호 부호화 시스템
WO1998042098A1 (fr) * 1997-03-14 1998-09-24 Cryptoworks, Inc. Technique de gestion des droits sur des produits numeriques
AUPP340698A0 (en) * 1998-05-07 1998-05-28 Canon Kabushiki Kaisha Method and apparatus for highly efficient representation and compression of images
SE513356C2 (sv) * 1998-11-20 2000-08-28 Ericsson Telefon Ab L M Förfarande och anordning för kryptering av bilder
US6505299B1 (en) * 1999-03-01 2003-01-07 Sharp Laboratories Of America, Inc. Digital image scrambling for image coding systems
US6370197B1 (en) * 1999-07-23 2002-04-09 Memorylink Corporation Video compression scheme using wavelets
JP2001359070A (ja) * 2000-06-14 2001-12-26 Canon Inc データ処理装置、データ処理方法及びコンピュータ可読記憶媒体
WO2001097520A2 (fr) 2000-06-15 2001-12-20 France Telecom Installation d'interface video, systeme de distribution et procede permettant de transferer des programmes et sequences video codes via un reseau longue distance
US7382969B2 (en) * 2003-02-19 2008-06-03 Sony Corporation Method and system for preventing the unauthorized copying of video content
FR2854019B1 (fr) * 2003-04-16 2005-09-16 Medialive Embrouillage, desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004095840A2 *

Also Published As

Publication number Publication date
US20060216003A1 (en) 2006-09-28
WO2004095840A2 (fr) 2004-11-04
US8433092B2 (en) 2013-04-30
US20100142621A1 (en) 2010-06-10
US7668312B2 (en) 2010-02-23
WO2004095840A3 (fr) 2005-07-14
FR2854019A1 (fr) 2004-10-22
FR2854019B1 (fr) 2005-09-16

Similar Documents

Publication Publication Date Title
EP1614290A2 (fr) Embrouillage et desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases sur un traitement par ondelettes
EP1593268A1 (fr) Methode et appareil de transmission securisee d'images code jpeg
EP1470722B1 (fr) Dispositif pour la diffusion securisee, l acces conditionnel , la visualisation controlee, la copie privee et la gestion des droits de contenus audiovisuels de type mpeg-4
FR2860122A1 (fr) Embrouillage, desembrouillage et distribution securisee de sequences audiovisuelles issues de codeurs videos bases dct
EP1477009A1 (fr) Dispositif pour securiser la transmission, l'enregistrement et la visualisation de programmes audiovisuels
EP1470714B1 (fr) Dispositif securise pour le traitement des oeuvres audiovisuelles de haute qualite
EP1588561B2 (fr) Procede et systeme adaptatif et progressif de distribution securisee d images fixes codees en ondelettes
EP1588563B1 (fr) Protection adaptative et progressive d'images fixes codees en ondelettes
FR2843517A1 (fr) Dispositif pour le brouillage de contenus multimedias et audiovisuels de type mpeg-4
FR2851112A1 (fr) Dispositif securise pour la diffusion, l'enregistrement et la visualisation a la demande des oeuvres audiovisuelles au format de type mpeg-2ts
EP1547364B1 (fr) Desembrouillage adaptatif et progressif de flux video
EP1623578A1 (fr) Procede et systeme pour securiser l embrouillage, le desembrouillage et la distribution de sequences visuelles vectorielles
EP1554879B1 (fr) Dispositif pour la transformation de contenus multimedias et audiovisuels de type mpeg-2 en contenus securises de meme type
EP1590961A2 (fr) Procede et dispositif de protection pour la diffusion securisee d'oeuvres audiovisuelles
EP1559270A1 (fr) Embrouillage adaptatif et progressif de flux video
FR2850514A1 (fr) Desembrouillage adaptatif et progressif d'images fixes codees en ondelettes

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20051011

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL HR LT LV MK

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20070817

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20071228