EP3289763A1 - Method for analysing a video sequence and equipment for implementing said method - Google Patents

Method for analysing a video sequence and equipment for implementing said method

Info

Publication number
EP3289763A1
EP3289763A1 EP16721199.4A EP16721199A EP3289763A1 EP 3289763 A1 EP3289763 A1 EP 3289763A1 EP 16721199 A EP16721199 A EP 16721199A EP 3289763 A1 EP3289763 A1 EP 3289763A1
Authority
EP
European Patent Office
Prior art keywords
video sequence
sequence
analysis
subsequences
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP16721199.4A
Other languages
German (de)
French (fr)
Inventor
Pierre Larbier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ateme SA
Original Assignee
Ateme SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ateme SA filed Critical Ateme SA
Publication of EP3289763A1 publication Critical patent/EP3289763A1/en
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Definitions

  • the present invention relates to a method for analyzing video sequences and a device for implementing this method. It applies in particular to the analysis of a video sequence for processing (video coding, compression, denoising, etc.) to be performed on the sequence.
  • the video data is generally subject to source coding to compress them in order to limit the resources required for their transmission and / or storage.
  • source coding There are many coding standards, such as H.264 / AVC, H.265 / HEVC and MPEG-2, that can be used for this purpose.
  • a video sequence comprising a set of images is considered.
  • Many automatic processes on video sequences require prior analysis. This is the case, for example, of two-pass variable rate compression where a first pass corresponding to a prior analysis phase mainly makes it possible to determine the complexity of the sequence before encoding it properly in a corresponding second pass. at a treatment phase.
  • the operations of the analysis phase are often as complex as those of the subsequent treatment phase. Therefore, the overall time of treatment with prior analysis is found to be significantly higher than that of a treatment without prior analysis.
  • the duration of the prior analysis phase thus plays a preponderant role for the determination of the total duration necessary for the encoding, in other words of the processing speed of the processed sequence. It is therefore desirable to reduce as much as possible the duration of the prior analysis phase to achieve high processing speeds that are compatible with the requirements of video catalog processing containing for example several thousand films.
  • the processing first-pass analysis may also consist of a video encoding which makes it possible to extract for each image or subsequence of images a relationship between the video quality (taking into account the compression distortion) and the bit rate obtained after compression.
  • the second pass all these relationships are used by the encoder to regulate the flow optimally.
  • the prior analysis phase generally makes it possible to extract the characteristics of the noise in order to guide the denoising that is carried out during the second phase.
  • a method of estimating the noise characteristics consists in removing it and then measuring statistics of the signal from which the noise has been extracted to determine a difference between the noisy signal and the signal after extraction of the noise characterizing the noise extracted. This operation generally presents the complexity of a complete denoising, and as in the case of video compression, almost doubles the processing time compared to a treatment done without prior analysis.
  • the document US 2010/0027622 proposes to reduce the spatial and / or temporal resolution of a video stream prior to a first encoding pass in order to reduce the calculation time in the particular case of a two-pass video encoding. .
  • Reducing the spatial resolution involves decreasing the size of the analyzed images, linearly or by selecting a portion of each image.
  • the statistics extracted in the first pass are then extrapolated to obtain an estimate of what would have been achieved if the entire images had been analyzed.
  • the image flow is reduced in a regular or irregular manner and only the stored images are analyzed during the first pass. As before, the statistics of images that are not analyzed are extrapolated.
  • Both methods can be combined, thus reducing the analysis time even further. Both are based on the idea that it is possible to extrapolate missing data from the analyzed data.
  • An object of the present invention is to provide an improved method of analysis of a video sequence as part of a multi-pass processing.
  • a method of analyzing a set of images of a video sequence for a processing to be performed on the sequence comprising determining in the video sequence a plurality consecutive subsequences disjoint from one or more successive images, and analyzing the images of each subsequence determined in the video sequence, wherein the subsequences are determined according to the type of processing to be performed and according to the content of the video sequence.
  • the images are not spatially homogeneous. Their center for example, which is the point of interest privileged, does not have the same complexity as their edges.
  • the analysis results which may include statistical data extracted after spatial subsampling, often have only a distant relationship with the results of an analysis performed on the initial images.
  • a typical example is noise, which changes characteristics when the size of the images is reduced.
  • the temporal subsampling also poses the problem of homogeneity of the content which makes the extrapolation of the statistics difficult. Indeed, all the treatments based on the temporal coherence of the video sequences lose in effectiveness or even become inapplicable when the sequences are subsampled temporally. This is the case, for example, of the motion estimation of a video compressor which loses in precision as the time distance between the images increases.
  • the proposed method has the advantage of favoring temporal sub-sampling, in order to avoid the pitfalls inherent in spatial subsampling mentioned above.
  • the proposed method also advantageously takes into account the content of the video sequence for its analysis, the inventors having identified the problem homogeneity of the content mentioned above.
  • the proposed method therefore facilitates the extrapolation of the statistics when a temporal subsampling is implemented during a phase of analysis of a video sequence.
  • the proposed method can thus for example take into account the type of content (film, sport, musical show, etc.) analyzed in the context of the first pass of a multipass processing.
  • the proposed method advantageously takes into account the type of treatment to be performed. on the video sequence (compression, denoising, etc.) during a processing phase using the analysis results generated during an analysis phase using the proposed method.
  • the proposed method therefore has the advantage that it can be adapted according to the processing to be performed for a video sequence, taking into account for the analysis phase of the sequence of the type of processing (compression, filtering, etc.) carried out later. on the sequence.
  • the proposed method is particularly well, although not exclusively, for encoding or compressing a video sequence according to a H.264, H. 265, H. 262, MPEG-2, AVC, or HEVC. But it is also suitable for encoding images according to any video encoding scheme in two passes (an analysis pass and an encoding pass), or for any treatment of a video sequence in two passes.
  • the respective sizes of the subsequences and the respective gaps between two neighboring subsequences are determined according to the type of processing to be performed and according to the content of the video sequence.
  • the subsequences may have an identical size, with the exception of the last subsequence of the plurality of consecutive subsequences.
  • the size of the last sub-sequence will be chosen greater than or equal to the size of the other subsequences, whether the other subsequences have a single size or not.
  • the proposed method further comprises generating, by extrapolation of the results of analysis of the subsequences of the video sequence, the results of analysis of the video sequence.
  • At least one of the subsequences may contain only one image.
  • the subsequences are further determined as a function of the analysis speed or the accuracy of the analysis.
  • a device for analyzing a set of images of a video sequence for a processing to be performed on the sequence comprising an input interface configured to receive the video sequence, and a sequence analysis unit, comprising a processor operatively coupled to a memory, configured to determine in the video sequence a plurality of consecutive subsequences disjoint from one or more successive images, depending on the type of processing to be performed. perform and according to the content of the video sequence and analyze the images of each subsequence determined in the video sequence.
  • a computer program loadable in a memory associated with a processor, and comprising portions of code for implementing the steps of the proposed method during the execution of said program by the processor, and a set of data representing, for example by compression or encoding, said computer program.
  • Another aspect relates to a non-transient storage medium of a computer executable program, comprising a data set representing one or more programs, said one or more programs including instructions for executing said one or more programs.
  • a computer comprising a processing unit operatively coupled to memory means and an input / output interface module, driving the computer to analyze the images of a video sequence according to the proposed method.
  • FIG. 1 is a diagram illustrating the architecture of a video sequence analysis device according to an embodiment of the proposed method
  • FIG. 2 is a diagram illustrating the architecture of a video sequence processing device according to an embodiment of the proposed method
  • FIG. 3 is a diagram illustrating the proposed method according to one embodiment
  • FIGS. 4a and 4b are diagrams illustrating subsampling of a video sequence according to an embodiment of the proposed method
  • FIGS. 5a, 5b, 5c and 5d are diagrams illustrating subsampling of a video sequence according to an embodiment of the proposed method
  • FIG. 6 shows an embodiment of a computer system for implementing the proposed method.
  • subsampling is meant here any operation carrying out the extraction or selection of subsequences within a video sequence, without limitation relating to the particular method or to a particular sub-sampling parameter (period, recurrence , etc.), unless expressly stated. Subsampling is thus distinguished from decimation, which assumes regular extraction of subsequences (for example, extraction of an image every n frames of the video sequence).
  • the video sequence analysis device 100 receives at input 102 an input video sequence 101 to be analyzed as part of a multi-pass processing.
  • the analysis device 100 comprises a controller 103, operatively coupled to the input interface 102, which controls a subsampling unit 104 and an analysis unit 105.
  • the data received on the interface of input 102 are input to the subsampling unit.
  • the sub-sampling unit 104 sub-samples the video sequence according to the proposed method by determining in the video sequence a plurality of consecutive subsequences disjoint from one or more images successive.
  • the unit 104 generates, after downsampling, data representing the plurality of consecutive and disjoint subsequences of images of the determined sequence, which are processed by the controller 103 which supplies, at the input of the analysis unit 105, the images of the plurality of disjoint sub-sequences of images of the video sequence selected by the sub-sampling unit 104.
  • the analysis unit 105 generates, after analysis, images of the plurality of sub-sequences of images of the video sequence received as input of the statistical data 107 relating to the input video sequence 101, which is provided by the controller 103 on an output interface 106 of the analysis device 100.
  • the generation of the statistical data 107 may include an extrapolation of extracted statistical data using image analysis results from the plurality of received image sequence subsequences. at the input to obtain analysis results for all the images of the video sequence, and not only for those that have actually been analyzed.
  • extrapolation is meant here any operation for generating statistical data for the images that have not been analyzed (ie the images that have not been selected during the subsampling of the sequence) using in particular extracted statistical data for the scanned images (i.e., the images of the plurality of image subsequences of the video sequence).
  • the analysis device 100 can thus output a set of statistics that do not show the subdivision into subsequences of the initial video sequence. Subsequent processing can then be carried out using the results of the analysis phase generated by the analysis device 100 without having to know the division of the video sequence produced by the analysis device 100.
  • the controller 103 is configured to drive the subsampling unit 104 and the analysis unit 105, and in particular the inputs / outputs of these units.
  • the architecture of the analysis device 100 illustrated in FIG. 1 is however not limiting.
  • the input interface 102 of the analysis device 100 could be operably coupled to an input interface of the subsampling unit 104.
  • the subsampling unit 104 could include an output operatively coupled to an input of the analysis unit 105
  • the analysis unit 105 could include an output operatively coupled to the output interface 106.
  • the analysis device100 can be a computer, a computer network, an electronic component, or other apparatus having a processor operatively coupled to a memory, and, depending on the embodiment selected, a data storage unit, and other associated hardware elements such as a network interface and a hardware interface. support reader for reading a non-transitory removable storage medium and writing on such a medium (not shown in the figure).
  • the removable storage medium may be, for example, a compact disc (CD), a digital video / versatile disc (DVD), a flash disk, a USB key, etc.
  • the memory, the data storage unit, or the removable storage medium contains instructions that, when executed by the controller 103, cause the controller 103 to perform or control the interface portions. 102, subsampling 104, analysis 105 and / or output interface 106 of the exemplary embodiments of the proposed method described herein.
  • the controller 103 may be a component implementing a processor or a calculation unit for the image analysis according to the proposed method and the control of the units 102, 104, 105 and 106 of the analysis device 100.
  • the analysis device 100 can thus be put into the form of software which, when loaded into a memory and executed by a processor, implements the analysis of a video sequence according to the proposed method.
  • analysis device 100 can be implemented in software form, as described above, or in hardware form, as an application specific integrated circuit (ASIC), or in the form of a combination of hardware elements. and software, such as for example a software program intended to be loaded and executed on a FPGA (Field Programmable Gate Array) type component.
  • FPGA Field Programmable Gate Array
  • Fig. 2 is a diagram illustrating a video sequence processing device.
  • the video sequence processing device 200 receives as input 202 an input video sequence 201 to be processed as part of a multi-pass processing.
  • the analysis device 100 comprises a controller 203, operably coupled to the input interface 202, which controls a processing unit 204 and an analysis unit 205.
  • the data received on the input interface 202 are inputted to the analysis unit 205.
  • the output data 207 of the processing device 200 is generated on an output interface 206.
  • the controller assembly 203, analysis unit 205 and input and output interfaces output 202/206 forms an analysis unit that can correspond to the analysis unit 100 described with reference to FIG. 1, and configured to implement the proposed method.
  • the analysis unit 205 generates, after sub-sampling of the video sequence according to the proposed method, data representing a plurality of sub-sequences of images of the sequence determined by the sub-sampling, which are processed by the controller 203 or by a controller of the analysis unit, for analyzing the images of the subsequences.
  • the sub-sampling subsequence image analysis results may be extrapolated to generate analysis results of all the images in the video sequence.
  • the controller 203 is configured to drive the analysis unit 205 and the processing unit 204, and in particular the inputs / outputs of these units.
  • the analysis results produced by the analysis unit 205 are provided, under the supervision of the controller 205, at the input of the processing unit 204 for processing the video sequence 201 of entry in the context of a multi-pass processing, the analysis performed by the analysis unit 205 corresponding to a first pass and the processing performed by the processing unit corresponding to a second pass.
  • the architecture of the processing device 200 illustrated in FIG. 2 is however not limiting.
  • the input interface 202 of the processing device 200 could be operably coupled to an input interface of the analysis unit 205 and to an input interface of the processing unit 204.
  • the analysis unit 205 could include an output operably coupled to an input of the processing unit 204
  • the processing unit 204 could include an output operably coupled to the output interface. 206 to produce data corresponding to the video sequence 201 processed.
  • processing device 200 may be a multi-pass video encoder, a video denoising device, or any other multi-video video processing device in which at least one pass comprises an analysis of an input video sequence. prior to treatment.
  • the processing device 200 may be a computer, a computer network, an electronic component, or another apparatus comprising a processor operatively coupled to a memory, and, depending on the embodiment chosen, a storage unit data, and other elements associated hardware such as a network interface and a media player for reading and writing removable media on such media (not shown in the figure).
  • the memory, the data storage unit, or the removable storage medium contains instructions that, when executed by the controller 203, cause the controller 203 to perform or control the interface portions.
  • the controller 203 may be a component implementing a processor or a calculation unit for image processing comprising an analysis according to the proposed method and the control of the units 202, 204, 205 and 206 of the processing device 200.
  • processing device 200 may be implemented in software form, as described above, or in hardware form, such as an application specific integrated circuit (ASIC), or in the form of a combination of hardware and software, such as a software program intended to be loaded and executed on a FPGA (Field Programmable Gate Array) type component.
  • ASIC application specific integrated circuit
  • FPGA Field Programmable Gate Array
  • Figure 3 shows a diagram illustrating the proposed method according to one embodiment.
  • One or more parameters relating to the type of processing to be performed on the input video sequence are input (301) to be taken into account during the sub-sampling phase.
  • one or more parameters relating to the content of the video sequence to be analyzed are entered (302) in order to be taken into account during the sub-sampling phase.
  • the video sequence to be analyzed is inputted (303) for analysis.
  • This video sequence is then subsampled (304) to determine a plurality of consecutive subsequences disjoint images of one or more successive images depending on the type of processing to be performed and the content of the video sequence, on the base of the parameter (s) relating to the type of processing and the parameter (s) relating to the content of the video sequence.
  • each subsequence thus determined are then analyzed (305) according to a predetermined analysis method corresponding to the processing to be performed on the sequence, to provide sub-sequence analysis results.
  • the image analysis of the subsequences can be followed by the extrapolation (306) of the results of this analysis to generate analysis results of all the images of the video sequence of 'Entrance.
  • Figures 4a and 4b illustrate subsampling of a video sequence according to an embodiment of the proposed method.
  • FIG. 4a schematically represents a video sequence (400) comprising a set of N images distributed over a duration D s between the first image (401) of the sequence and the last image (402) of the sequence.
  • Figure 4b shows the video sequence (400) after subsampling.
  • Sub-sampling of the sequence (400) made a determination of consecutive and disjoint subsequences (403a, 403b, 403c, 403d) of the sequence, sometimes referenced in the present application under the terms “chunk", "sub- together "or” package ".
  • the subsequences (403a, 403b, 403c, 403d) determined are disjoint, in that two neighboring subsequences are respectively separated by "holes" (404a, 404b, 404c), each hole containing at least one image of the video sequence (400).
  • holes (404a, 404b, 404c) correspond to the groups of images of the initial sequence (400) which, according to the proposed method, will not be analyzed.
  • the subsequences (403a, 403b, 403c, 403d) determined are consecutive, in that they result from the sampling of a video sequence corresponding to a duration.
  • the sampling of the video sequence may be performed according to the sequence of the sequence, to determine a sequence of subsequences, among which a first sequence corresponds to the beginning of the video sequence, and a last sequence corresponds to the end of the sequence. video sequence.
  • the subsequences determined by the sub-sampling are not necessarily equal in size, in that they do not contain, for example, not all the same number of images.
  • the subsequences 403a, 403b and 403c are of equal size, this size being less than or equal to that of the last subsequence (403d) of the sequence (400).
  • the method realizes a temporal division into "chunks" of the video sequence to be analyzed.
  • Chunks are subsequences of consecutive images that do not necessarily contain the same number of images. Images that are not in chunks will not be scanned.
  • the respective sizes of the video sequence and the subsequences can be expressed in number of images, or in the form of a duration, the two measurements being linked by the number of images per second of the sequence video considered. It is the same of the difference between two neighboring subsequences, which can be, according to the implementation, expressed in number of images or as a duration.
  • Subsampling can be done on the basis of different parameters, depending on the implementation.
  • the sub-sequences derived from the sub-sampling can be determined as a function of a subsequence size, for example expressed by a number of images, which is identical for all sub-sequences, if any. the exception of a subsequence (preferably the last one), and a sub-sampling frequency or a subsampling period defining the difference between two neighboring subsequences.
  • the subsequences can be determined according to a subsequence size and a subsampling rate.
  • sub-sequences can be determined by setting a single size (possibly with the exception of the last subsequence) equal to one image, and a sub-sampling rate of 1/6.
  • the subsequences will therefore be determined by selecting an image every 6 images of the video sequence to be processed for analysis. For a video sequence lasting one hour, the analysis time will be reduced to 10 minutes. Analysis results for the unanalyzed (i.e., non-subsequence) portions may be inferred from the subsequence analysis results, for example by an extrapolation method.
  • the sub-sequences derived from the sub-sampling can be determined as a function of a subsequence size, for example expressed by a number of images, which is identical for all sub-sequences, if any. except for a subsequence, a number of subsequences, and the size of the sequence.
  • the proposed method may determine downsampling parameters taking into account the type of processing to be performed and the content of the video sequence to be processed.
  • the size of the last subsequence, corresponding to the end of the video sequence to be processed may be chosen greater than or equal to those of the other subsequences.
  • the proposed method could merge the last two subsequences in the case where the size of the last subsequence would otherwise be less than a predetermined threshold, the size of the other subsequences if it is unique, or the size of at least one other subsequence.
  • Figure 5a illustrates the case of a subsampling period (501) containing a chunk (500) positioned at the beginning of the period.
  • Figure 5b illustrates the case of a subsampling period (503) containing a chunk (502) positioned at the end of the period.
  • the size of the last chunk of the sequence can be chosen greater than or equal to that of the other chunks.
  • the last chunk (504) can be extended to cover the entire period (505), so as to ensure a more accurate analysis of the end. of the video sequence.
  • the last chunk (506) can be extended to cover the entire period (507), so as to ensure a more accurate analysis of the end of the video sequence.
  • the distribution of the chunks as well as their size expressed in number of images makes it possible to deduce a speed gain of the analysis method. Indeed, if the computational load is proportional to the number of images analyzed (which is generally the case in most applications), the proportion of images constituting the chunks can directly provide an estimate of this gain.
  • the size of the chunks and their distribution is dependent on the application (of the processing performed on the sequence). If, depending on the application, the analysis method uses temporal information such as the movement of objects in the scene, the chunks will preferably consist of a significant number of consecutive images. For example, a chunk can be considered large when it includes several thousand consecutive images. For example, as part of an analysis for a video compression application, some chunks might have about 3000 images. On the contrary, if the analysis processes the images independently, such as for example a brightness measurement, the chunks may be reduced in size, and for example be reduced to a single image.
  • the analysis results are extrapolated for sub-sequences of images that are not analyzed. It is preferable in this case that the skipped images be of the same nature as the analyzed images from the point of view of the statistics returned. Thanks to this extrapolation, the analysis method can provide the next processing stage with a complete set of statistics, that is to say including statistics corresponding to the images that have not been analyzed.
  • statistics can be extrapolated linearly. We will estimate that their values are placed on a line that connects the last image of a chunk to the first image of the next chunk.
  • the size of the last chunk will preferably be chosen greater than or equal to that of the other chunks, and for example large enough to correct the analysis errors of the input video sequence.
  • the size of this end analysis window can indeed influence the quality of analysis of all the content, and it is preferable to choose a sufficient size to be able to compensate for the analysis errors at the beginning of the sequence attributable to the downsampling and at the chosen size for the start analysis windows of the sequence.
  • the sub-sampling operation of a video sequence taking into account the type of processing to be performed and the content of the video sequence is illustrated by the following two examples: the filtering of a video sequence in the context of video compression , and video compression in two passes.
  • the video quality will be higher as the defects inherent in the compression are uniform during the compressed video sequence.
  • it should preferably be removed homogeneously throughout the video sequence denoising.
  • a denoising method consists in analyzing all the video sequence beforehand so as to identify noise characteristics (for example statistical noise characteristics), and then, in a second step, to filter using the characteristics collected. reduce the noise.
  • This denoising method thus comprises a first phase of noise analysis, followed by denoising treatment, for example by noise filtering, which uses the results. of the preliminary analysis phase.
  • different characteristics can be acquired during the preliminary analysis phase, such as for example the noise energy and its spectral amplitude when it is considered to be a Gaussian additive white noise.
  • the content type of the video sequence to be denoised is taken into account in order to determine in the video sequence a plurality of consecutive subsequences disjoined from one or more successive images, during the phase analysis prior to denoising.
  • the noise to be removed will typically be film grain (film or artificially added in the case of digital cinema).
  • the characteristics of this noise can be considered as being homogeneous throughout the film.
  • it is not added in a linear way. It can also be more important in dark scenes than in bright scenes for example.
  • nonlinear parameters can be calculated. They can allow a complete identification of the noise, using for example the technique described in the US patent application US 2004/005365.
  • non-linear parameters such as those transported in the H.264 and HEVC video compression standards may be calculated. These can indeed be used to model multiplicative noises with coefficients depending on the luminous intensity.
  • a video sequence whose content is a film of cinema
  • measures of statistical characteristics of the noise preferably at regular intervals, using -Sequences, or "chunks", of some images.
  • Subsampling of the video sequence is performed by determining in the video sequence a plurality of consecutive subsequences disjoined, the subsequences comprising one or more successive images. These subsequences are determined according to the type of processing to be performed (in this example a noise filtering) and according to the content of the video sequence (in this example a movie film).
  • the size (expressed in number of frames or time unit) of the last subsequence, as well as the difference between the latter sub-sequence and the previous sub-sequence, may be chosen differently.
  • other subsequences determined by downsampling may be chosen differently.
  • Nc size of size 1
  • Nc size greater than or equal to Nc 2
  • Sampling can be done every second which will allow to calculate the total number of chunks according to the total duration D s of the video sequence.
  • an extrapolation of the chunks analysis results is performed.
  • Different methods of extrapolation of the acquired statistics can, if necessary, be used. For example, one can consider that these statistics on the unanalyzed images are identical to those of the images of the ends of the adjacent chunks. This method is particularly valid when chunks are composed of few images, as is the case in the embodiment described above where they are limited to 4 images.
  • the analysis method may be configured to perform measurements on 4 consecutive images (the chunks will therefore be of equal size 4 images, possibly with the exception of the last chunk) all 24 images that represent a second of film. The analysis is thus carried out 6 times faster than if all the images of the sequence were analyzed.
  • the division of the sequence is adapted to the content as to the type of processing performed later. Indeed, the period of chunks as their durations proposed above are well adapted to video sequences of film type.
  • the invention makes it possible to optimize the analysis speed according to the type of content, which is an important advantage in the case of batch processes.
  • Two-pass video compression usually aims to ensure consistent video quality over the entire compressed video sequence, while maintaining a specified total size.
  • the first pass is an analysis phase, having for example the purpose of determining the complexity of the sequence.
  • the second pass is the actual compression phase. The latter uses the results of the analysis phase, in the above example the complexities obtained, to optimize the flow locally and maintain both a constant quality and a total size.
  • the analysis phase may comprise determining each image a relationship between a compression parameter, a quantizer, and a corresponding bit rate. This relationship is generally obtained by compressing the video sequence, so that the analysis phase proves to be almost as expensive as the processing phase (compression) itself.
  • the statistical summary produced at the end of the analysis phase is constituted for each image of a quantizer relationship, Flow.
  • it is determined in the video sequence to be compressed a plurality of consecutive sub-sequences disjoint from one or more successive images.
  • the images of each subsequence are analyzed to produce, for each image of each sub-sequence analyzed, Quantifier relationship, Flow.
  • statistics of unparsed portions may be generated by extrapolation using the subsequence analysis results.
  • subsampling is carried out which takes into account the type of treatment to be performed (in this example a compression) and the contents of the video sequence.
  • subsampling parameters are selected taking into account the type of processing to be performed and the content of the video sequence to be processed.
  • the video sequence to be compressed is a movie film (for example in the context of a video-on-demand application)
  • the relationship between the compression parameter (s) and the bit rate obtained varies little.
  • the films have substantially homogeneous characteristics, at least locally. Therefore, it is not necessary to perform the analysis on the entire film because sub-sequences of a few seconds correctly distributed enough to provide the necessary information for the second pass.
  • the video sequence containing a film may for example be cut into subsequences of duration equal to ten seconds, the analysis being performed only every minute of content, which determines the difference between two neighboring subsequences.
  • Analysis results for example complexity
  • the extreme end of the sequence is completely analyzed, choosing a size for the last subsequence larger than that of the other subsequences.
  • the last subsequence can be chosen corresponding to the last minutes of the sequence, in the case where the content thereof is a film. This last sequence can in particular be composed of the last two minutes of the sequence, ie about 3000 images.
  • an objective of speed of the analysis, precision of the analysis, or a criterion representing a compromise between the speed and accuracy of the analysis is also taken into account. . It is indeed possible to modify the distribution of the zones analyzed to further accelerate the analysis phase, or improve the accuracy of the analysis. For example, a compromise is made between the speed of the analysis and its accuracy, and the distribution of the subsequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed is modified according to whether we want to focus on the speed of analysis, or the quality of it.
  • the duration of the respective subsequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed can be reduced, for example by a predetermined factor corresponding to the gain. of analysis speed sought. In a particular embodiment, this can be achieved by reducing the duration of the sub-sequences analyzed by half, for example by reducing the duration of the subsequences from 10 s to 5 s.
  • the respective duration sub-sequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed can be increased, for example by a predetermined factor corresponding to the gain of analysis accuracy sought. In a particular embodiment, this can be obtained by increasing the duration of the sub-sequences analyzed or by increasing the duration of the final sub-sequence.
  • Embodiments of the method of analyzing a video sequence may be, at least in part, implemented on virtually any type of computer, regardless of the platform used.
  • a computer system 600
  • Figs. 6 a computer system (600)
  • Figs. 6 which may correspond to the video sequence analysis and video sequence processing units shown in Figs.
  • a data processing unit (601) which comprises one or more processors (602), such as a central processing unit (CPU) or another hardware processor, an associated memory (603) (for example, a random access memory (RAM), a cache memory, a flash memory, etc.), a storage device (604) (for example a hard disk, an optical disk such as a CD or a DVD, a flash memory key, etc.), and many other elements and features typical of current computers (not shown).
  • processors (602) such as a central processing unit (CPU) or another hardware processor, an associated memory (603) (for example, a random access memory (RAM), a cache memory, a flash memory, etc.), a storage device (604) (for example a hard disk, an optical disk such as a CD or a DVD, a flash memory key, etc.), and many other elements and features typical of current computers (not shown).
  • processors such as a central processing unit (CPU) or another hardware processor
  • an associated memory for example, a random access memory (
  • the data processing unit (601) also comprises an input / output interface module (605) which controls the different interfaces between the unit (601) and input and / or output means of the system (600). ).
  • the system (600) may indeed also include input means, such as a keyboard (606), a mouse (607), or a microphone (not shown).
  • the computer (600) may include output means, such as a monitor (608) (for example, a liquid crystal display (LCD) monitor, an LED display monitor, or a tube monitor cathodic (CRT)).
  • a monitor 608 (for example, a liquid crystal display (LCD) monitor, an LED display monitor, or a tube monitor cathodic (CRT)).
  • the computer system (600) can be connected to a network (609) (for example, a local area network (LAN), a wide area network (WAN) such as the Internet, or any other similar type of network) via a network interface connection (not shown).
  • a network for example, a local area network (LAN), a wide area network (WAN) such as the Internet, or any other similar type of network
  • LAN local area network
  • WAN wide area network
  • the Internet Internet
  • the computer system (600) comprises at least the minimal means of processing, input and / or output necessary to practice one or more embodiments of the proposed analysis method.
  • the processor (602) is adapted to be configured to execute a computer program including portions of code for implementation an analyzer, configured to perform the analysis of an input video sequence according to the different embodiments of the proposed analysis method.
  • the storage device (604) will preferably be chosen to store the data corresponding to the results of the analysis and processing of the video sequence.
  • one or more elements of the aforementioned computer system (600) may be at a remote location and be connected to other elements on a network.
  • one or more embodiments may be implemented on a distributed system having a plurality of nodes, where each portion of the implementation may be located on a different node within the distributed system.
  • the node corresponds to a computer system.
  • the node may correspond to a processor with associated physical memory.
  • the node may also correspond to a processor with shared memory and / or shared resources.
  • software instructions for performing one or more embodiments may be stored on a computer-readable non-transitory medium such as a compact disc (CD), floppy disk, tape, or any other readable storage device. computer.

Abstract

The invention relates to a method for analysing a set of images of a video sequence with a view to performing a processing of the sequence. The method comprises: determining, in the video sequence, a plurality of disjointed consecutive sub-sequences of at least one successive image according to the type of processing to be carried out and according to the content of the video sequence; and analysing the images of each sub-sequence determined in the video sequence.

Description

PROCEDE D'ANALYSE D'UNE SEQUENCE VIDEO ET EQUIPEMENT POUR LA  METHOD FOR ANALYZING A VIDEO SEQUENCE AND EQUIPMENT FOR
MISE EN ŒUVRE DU PROCEDE  IMPLEMENTATION OF THE PROCESS
La présente invention se rapporte à un procédé d'analyse de séquences vidéo et un dispositif pour la mise en œuvre de ce procédé. Elle s'applique notamment à l'analyse d'une séquence vidéo en vue de traitements (codage vidéo, compression, débruitage, etc.) à effectuer sur la séquence. The present invention relates to a method for analyzing video sequences and a device for implementing this method. It applies in particular to the analysis of a video sequence for processing (video coding, compression, denoising, etc.) to be performed on the sequence.
Les données vidéo font en général l'objet d'un codage source visant à les compresser afin de limiter les ressources nécessaires à leur transmission et/ou à leur stockage. Il existe de nombreux standards de codage, tels que H.264/AVC, H.265/HEVC et MPEG-2, qui peuvent être utilisés à cette fin.  The video data is generally subject to source coding to compress them in order to limit the resources required for their transmission and / or storage. There are many coding standards, such as H.264 / AVC, H.265 / HEVC and MPEG-2, that can be used for this purpose.
On considère une séquence vidéo comprenant un ensemble d'images. Nombre de traitements automatiques sur des séquences vidéo requièrent une analyse préalable. C'est le cas par exemple de la compression en deux passes à débit variable où une première passe correspondant à une phase d'analyse préalable permet principalement de déterminer la complexité de la séquence avant de l'encoder à proprement parler dans une seconde passe correspondant à une phase de traitement. Les opérations de la phase d'analyse sont bien souvent aussi complexes que celles de la phase de traitement qui suit. Par conséquent, le temps global de traitement avec analyse préalable se trouve être nettement supérieur à celui d'un traitement sans analyse préalable.  A video sequence comprising a set of images is considered. Many automatic processes on video sequences require prior analysis. This is the case, for example, of two-pass variable rate compression where a first pass corresponding to a prior analysis phase mainly makes it possible to determine the complexity of the sequence before encoding it properly in a corresponding second pass. at a treatment phase. The operations of the analysis phase are often as complex as those of the subsequent treatment phase. Therefore, the overall time of treatment with prior analysis is found to be significantly higher than that of a treatment without prior analysis.
Dans le cas d'un traitement par encodage vidéo, la durée de la phase d'analyse préalable joue ainsi un rôle prépondérant pour la détermination de la durée totale nécessaire à l'encodage, autrement dit de la vitesse de traitement de la séquence traitée. Il est donc souhaitable de diminuer autant que possible la durée de la phase d'analyse préalable pour atteindre des vitesses de traitement élevées qui soient compatibles avec des impératifs de traitements de catalogue vidéo contenant par exemple plusieurs milliers de films.  In the case of video encoding processing, the duration of the prior analysis phase thus plays a preponderant role for the determination of the total duration necessary for the encoding, in other words of the processing speed of the processed sequence. It is therefore desirable to reduce as much as possible the duration of the prior analysis phase to achieve high processing speeds that are compatible with the requirements of video catalog processing containing for example several thousand films.
Les techniques existantes d'analyse de séquence vidéo préalablement à un traitement consistent généralement à balayer successivement les images qui composent la séquence vidéo à traiter. A chaque image, des statistiques sont extraites, puis à l'issue de la phase d'analyse, un résumé contenant des informations synthétiques sur la séquence est calculé. La phase de traitement qui s'ensuit prend en entrée la séquence vidéo ainsi que le résumé calculé précédemment.  Existing techniques for analyzing video sequences prior to processing generally consist of successively scanning the images that make up the video sequence to be processed. At each image, statistics are extracted, and at the end of the analysis phase, a summary containing synthetic information about the sequence is calculated. The treatment phase that follows takes as input the video sequence and the summary calculated previously.
Dans le cas d'une compression vidéo en deux passes, le traitement d'analyse effectué en première passe peut aussi consister en un encodage vidéo qui permet d'extraire pour chaque image ou chaque sous-séquence d'images une relation entre la qualité vidéo (tenant compte de la distorsion de compression) et le débit obtenu après compression. Lors de la seconde passe, l'ensemble de ces relations est utilisé par l'encodeur de manière à réguler le débit de façon optimale. In the case of two-pass video compression, the processing first-pass analysis may also consist of a video encoding which makes it possible to extract for each image or subsequence of images a relationship between the video quality (taking into account the compression distortion) and the bit rate obtained after compression. During the second pass, all these relationships are used by the encoder to regulate the flow optimally.
Dans le cas d'un débruiteur vidéo en deux passes, la phase d'analyse préalable permet généralement d'extraire les caractéristiques du bruit afin de guider le débruitage qui est réalisé lors de la seconde phase. Une méthode d'estimation des caractéristiques du bruit consiste à le retirer puis à mesurer des statistiques du signal dont on a extrait le bruit pour déterminer une différence entre le signal bruité et le signal après extraction du bruit caractérisant le bruit extrait. Cette opération présente généralement la complexité d'un débruitage complet, et comme dans le cas de la compression vidéo, double quasiment le temps de traitement par rapport à un traitement fait sans analyse préalable.  In the case of a two-pass video denoiser, the prior analysis phase generally makes it possible to extract the characteristics of the noise in order to guide the denoising that is carried out during the second phase. A method of estimating the noise characteristics consists in removing it and then measuring statistics of the signal from which the noise has been extracted to determine a difference between the noisy signal and the signal after extraction of the noise characterizing the noise extracted. This operation generally presents the complexity of a complete denoising, and as in the case of video compression, almost doubles the processing time compared to a treatment done without prior analysis.
Le document US 2010/0027622 propose de réduire la résolution spatiale et/ou temporelle d'un flux vidéo préalablement à une première passe d'encodage dans le but de réduire le temps de calcul dans le cas particulier d'un encodage vidéo à deux passes.  The document US 2010/0027622 proposes to reduce the spatial and / or temporal resolution of a video stream prior to a first encoding pass in order to reduce the calculation time in the particular case of a two-pass video encoding. .
La réduction de la résolution spatiale suppose de diminuer la taille des images analysées, de manière linéaire ou par sélection d'une portion de chaque image. Les statistiques extraites lors de la première passe sont ensuite extrapolées pour obtenir une estimation de ce qui aurait été obtenu si les images entières avaient été analysées.  Reducing the spatial resolution involves decreasing the size of the analyzed images, linearly or by selecting a portion of each image. The statistics extracted in the first pass are then extrapolated to obtain an estimate of what would have been achieved if the entire images had been analyzed.
Lorsque la résolution temporelle est modifiée, le flux d'image est réduit de manière régulière ou irrégulière et seules les images conservées sont analysées pendant la première passe. Comme précédemment, les statistiques des images qui ne sont pas analysées sont extrapolées.  When the temporal resolution is changed, the image flow is reduced in a regular or irregular manner and only the stored images are analyzed during the first pass. As before, the statistics of images that are not analyzed are extrapolated.
Les deux méthodes peuvent être combinées, permettant ainsi de réduire encore plus le temps d'analyse. Elles sont toutes deux basées sur l'idée qu'il est possible d'extrapoler les données manquantes à partir des données analysées.  Both methods can be combined, thus reducing the analysis time even further. Both are based on the idea that it is possible to extrapolate missing data from the analyzed data.
On observe cependant qu'une opération d'échantillonnage combinée à une extrapolation peut conduire à des statistiques d'une qualité faible, ce qui conduit à ne pas utiliser ce procédé dans l'immense majorité des applications pratiques.  However, it is observed that a sampling operation combined with an extrapolation can lead to statistics of a low quality, which leads to not using this method in the vast majority of practical applications.
Il existe ainsi un besoin pour un procédé d'analyse d'une séquence vidéo amélioré ne présentant pas les inconvénients exposés ci-dessus.  There is thus a need for a method for analyzing an improved video sequence that does not have the disadvantages set forth above.
Il existe en outre un besoin pour un procédé d'analyse de séquence vidéo amélioré dans la diminution du temps de calcul d'une phase d'analyse de la séquence dans le cadre d'un traitement multi-passe. There is also a need for a video sequence analysis method improved in the reduction of the calculation time of a phase of analysis of the sequence in the context of a multi-pass processing.
Un objet de la présente invention est de proposer un procédé d'analyse amélioré d'une séquence vidéo dans le cadre d'un traitement multi-passe.  An object of the present invention is to provide an improved method of analysis of a video sequence as part of a multi-pass processing.
Selon un premier aspect, il est proposé un procédé d'analyse d'un ensemble d'images d'une séquence vidéo en vue d'un traitement à effectuer sur la séquence, le procédé comprenant la détermination dans la séquence vidéo d'une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives, et l'analyse des images de chaque sous-séquence déterminée dans la séquence vidéo, dans lequel les sous-séquences sont déterminées en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo.  According to a first aspect, there is provided a method of analyzing a set of images of a video sequence for a processing to be performed on the sequence, the method comprising determining in the video sequence a plurality consecutive subsequences disjoint from one or more successive images, and analyzing the images of each subsequence determined in the video sequence, wherein the subsequences are determined according to the type of processing to be performed and according to the content of the video sequence.
On constate que les méthodes d'analyse conventionnelles méconnaissent plusieurs aspects importants, ce qui nuit fortement à leur mise en œuvre :  It is found that conventional methods of analysis ignore several important aspects, which greatly impedes their implementation:
Dans le cas général, les images ne sont pas homogènes spatialement. Leur centre par exemple, qui est le point d'intérêt privilégié, n'a pas la même complexité que leurs bords. Les résultats d'analyse, pouvant comprendre des données statistiques extraites après un sous-échantillonnage spatial, n'ont souvent qu'un rapport lointain avec les résultats d'une analyse effectuée sur les images initiales. Un exemple typique est le bruit, qui change de caractéristiques lorsque la taille des images est réduite.  In the general case, the images are not spatially homogeneous. Their center for example, which is the point of interest privileged, does not have the same complexity as their edges. The analysis results, which may include statistical data extracted after spatial subsampling, often have only a distant relationship with the results of an analysis performed on the initial images. A typical example is noise, which changes characteristics when the size of the images is reduced.
Le sous-échantillonnage temporel pose également le problème d'homogénéité du contenu qui rend difficile l'extrapolation des statistiques. En effet, tous les traitements se basant sur la cohérence temporelle des séquences vidéo perdent en efficacité voire deviennent inapplicables lorsque les séquences sont sous-échantillonnées temporellement. C'est le cas par exemple de l'estimation de mouvement d'un compresseur vidéo qui perd en précision à mesure que la distance temporelle entre les images augmente.  The temporal subsampling also poses the problem of homogeneity of the content which makes the extrapolation of the statistics difficult. Indeed, all the treatments based on the temporal coherence of the video sequences lose in effectiveness or even become inapplicable when the sequences are subsampled temporally. This is the case, for example, of the motion estimation of a video compressor which loses in precision as the time distance between the images increases.
Les procédés conventionnels peuvent ainsi mener à une régulation de débit peu précise, et qui est difficilement utilisable sans apprentissage préalable, ce qui explique l'utilisation limitée qui est faîte de ces procédés dans des applications pratiques.  Conventional processes can thus lead to an inaccurate flow control, which is difficult to use without prior learning, which explains the limited use that is made of these methods in practical applications.
Le procédé proposé présente l'avantage de privilégier un sous- échantillonnage temporel, afin d'éviter les écueils inhérents au sous- échantillonnage spatial évoqués ci-dessus.  The proposed method has the advantage of favoring temporal sub-sampling, in order to avoid the pitfalls inherent in spatial subsampling mentioned above.
Le procédé proposé tient en outre avantageusement compte du contenu de la séquence vidéo pour son analyse, les inventeurs ayant identifié le problème d'homogénéité du contenu mentionné ci-dessus. Le procédé proposé facilite dès lors l'extrapolation des statistiques lorsqu'un sous-échantillonnage temporel est mis en œuvre lors d'une phase d'analyse d'une séquence vidéo. Le procédé proposé peut ainsi par exemple tenir compte du type de contenu (film, sport, spectacle musical, etc.) analysé dans le cadre de la première passe d'un traitement multipasse. The proposed method also advantageously takes into account the content of the video sequence for its analysis, the inventors having identified the problem homogeneity of the content mentioned above. The proposed method therefore facilitates the extrapolation of the statistics when a temporal subsampling is implemented during a phase of analysis of a video sequence. The proposed method can thus for example take into account the type of content (film, sport, musical show, etc.) analyzed in the context of the first pass of a multipass processing.
De plus, au contraire du procédé conventionnel du document US 2010/0027622, qui fait partie intégrante d'un encodeur multi-passe et n'est donc pas d'un usage général, le procédé proposé tient avantageusement compte du type de traitement à effectuer sur la séquence vidéo (compression, débruitage, etc.) lors d'une phase de traitement utilisant les résultats d'analyse générés lors d'une phase d'analyse utilisant le procédé proposé.  In addition, unlike the conventional method of US 2010/0027622, which is an integral part of a multi-pass encoder and is therefore not of general use, the proposed method advantageously takes into account the type of treatment to be performed. on the video sequence (compression, denoising, etc.) during a processing phase using the analysis results generated during an analysis phase using the proposed method.
Le procédé proposé présente de ce fait l'avantage de pouvoir être adapté selon le traitement à effectuer pour une séquence vidéo, en tenant compte pour la phase d'analyse de la séquence du type de traitement (compression, filtrage, etc.) réalisé ultérieurement sur la séquence.  The proposed method therefore has the advantage that it can be adapted according to the processing to be performed for a video sequence, taking into account for the analysis phase of the sequence of the type of processing (compression, filtering, etc.) carried out later. on the sequence.
Le procédé proposé convient particulièrement bien, bien que de façon non exclusive, pour l'encodage ou la compression d'une séquence vidéo selon un schéma du type H.264, H. 265, H. 262, MPEG-2, AVC, ou HEVC. Mais il convient aussi pour l'encodage d'images selon tout schéma d'encodage vidéo en deux passes (une passe d'analyse et une passe d'encodage), ou pour tout traitement d'une séquence vidéo en deux passes.  The proposed method is particularly well, although not exclusively, for encoding or compressing a video sequence according to a H.264, H. 265, H. 262, MPEG-2, AVC, or HEVC. But it is also suitable for encoding images according to any video encoding scheme in two passes (an analysis pass and an encoding pass), or for any treatment of a video sequence in two passes.
Dans une mise en œuvre particulière du procédé proposé, les tailles respectives des sous-séquences et les écarts respectifs entre deux sous- séquences voisines sont déterminés en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo.  In a particular implementation of the proposed method, the respective sizes of the subsequences and the respective gaps between two neighboring subsequences are determined according to the type of processing to be performed and according to the content of the video sequence.
Dans une mise en œuvre particulière du procédé proposé, les sous- séquences pourront avoir une taille identique, à l'exception de la dernière sous- séquence de la pluralité de sous-séquences consécutives.  In a particular implementation of the proposed method, the subsequences may have an identical size, with the exception of the last subsequence of the plurality of consecutive subsequences.
De préférence, la taille de la dernière sous-séquence sera choisie supérieure ou égale à la taille des autres sous-séquences, que les autres sous- séquences aient une taille unique ou non.  Preferably, the size of the last sub-sequence will be chosen greater than or equal to the size of the other subsequences, whether the other subsequences have a single size or not.
Dans une mise en œuvre particulière du procédé proposé, à l'exception de l'écart entre la dernière sous-séquence de la pluralité de sous-séquences consécutives et la sous-séquence voisine de la dernière sous-séquence, les écarts respectifs entre deux sous-séquences voisines pourront être choisis identiques. Dans une mise en œuvre particulière, le procédé proposé comprend en outre la génération, par extrapolation des résultats d'analyse des sous-séquences de la séquence vidéo, des résultats d'analyse de la séquence vidéo. In a particular implementation of the proposed method, with the exception of the difference between the last subsequence of the plurality of consecutive subsequences and the subsequence adjacent to the last subsequence, the respective deviations between two neighboring subsequences may be chosen identical. In a particular embodiment, the proposed method further comprises generating, by extrapolation of the results of analysis of the subsequences of the video sequence, the results of analysis of the video sequence.
Dans une mise en œuvre particulière du procédé proposé, au moins une des sous-séquences pourra ne contenir qu'une seule image.  In a particular implementation of the proposed method, at least one of the subsequences may contain only one image.
Dans une mise en œuvre particulière du procédé proposé, les sous- séquences sont en outre déterminées en fonction de la vitesse d'analyse ou de la précision de l'analyse.  In a particular implementation of the proposed method, the subsequences are further determined as a function of the analysis speed or the accuracy of the analysis.
Selon un deuxième aspect, il est proposé un dispositif d'analyse d'un ensemble d'images d'une séquence vidéo en vue d'un traitement à effectuer sur la séquence, comprenant une interface d'entrée configurée pour recevoir la séquence vidéo, et une unité d'analyse de séquence, comprenant un processeur couplé de manière opérationnelle à une mémoire, configurée pour déterminer dans la séquence vidéo une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives, en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo et analyser les images de chaque sous- séquence déterminée dans la séquence vidéo.  According to a second aspect, there is provided a device for analyzing a set of images of a video sequence for a processing to be performed on the sequence, comprising an input interface configured to receive the video sequence, and a sequence analysis unit, comprising a processor operatively coupled to a memory, configured to determine in the video sequence a plurality of consecutive subsequences disjoint from one or more successive images, depending on the type of processing to be performed. perform and according to the content of the video sequence and analyze the images of each subsequence determined in the video sequence.
Selon un autre aspect, il est proposé un programme d'ordinateur, chargeable dans une mémoire associée à un processeur, et comprenant des portions de code pour la mise en œuvre des étapes du procédé proposé lors de l'exécution dudit programme par le processeur, ainsi qu'un ensemble de données représentant, par exemple par voie de compression ou d'encodage, ledit programme d'ordinateur.  In another aspect, there is provided a computer program, loadable in a memory associated with a processor, and comprising portions of code for implementing the steps of the proposed method during the execution of said program by the processor, and a set of data representing, for example by compression or encoding, said computer program.
Un autre aspect concerne un support de stockage non-transitoire d'un programme exécutable par ordinateur, comprenant un ensemble de données représentant un ou plusieurs programmes, lesdits un ou plusieurs programmes comprenant des instructions pour, lors de l'exécution desdits un ou plusieurs programmes par un ordinateur comprenant une unité de traitement couplée de manière opérationnelle à des moyens mémoire et à un module d'interface entrées/sorties, conduire l'ordinateur à analyser les images d'une séquence vidéo selon le procédé proposé.  Another aspect relates to a non-transient storage medium of a computer executable program, comprising a data set representing one or more programs, said one or more programs including instructions for executing said one or more programs. by a computer comprising a processing unit operatively coupled to memory means and an input / output interface module, driving the computer to analyze the images of a video sequence according to the proposed method.
D'autres particularités et avantages de la présente invention apparaîtront dans la description ci-après d'exemples de réalisation non limitatifs, en référence aux dessins annexés, dans lesquels :  Other features and advantages of the present invention will become apparent in the following description of nonlimiting exemplary embodiments, with reference to the appended drawings, in which:
- la figure 1 est un schéma illustrant l'architecture d'un dispositif d'analyse de séquence vidéo selon un mode de réalisation du procédé proposé ; - la figure 2 est un schéma illustrant l'architecture d'un dispositif de traitement de séquence vidéo selon un mode de réalisation du procédé proposé ; FIG. 1 is a diagram illustrating the architecture of a video sequence analysis device according to an embodiment of the proposed method; FIG. 2 is a diagram illustrating the architecture of a video sequence processing device according to an embodiment of the proposed method;
- la figure 3 est un diagramme illustrant le procédé proposé selon un mode de réalisation ;  FIG. 3 is a diagram illustrating the proposed method according to one embodiment;
- les figures 4a et 4b sont des diagrammes illustrant le sous- échantillonnage d'une séquence vidéo selon un mode de réalisation du procédé proposé ;  FIGS. 4a and 4b are diagrams illustrating subsampling of a video sequence according to an embodiment of the proposed method;
- les figures 5a, 5b, 5c et 5d sont des diagrammes illustrant le sous- échantillonnage d'une séquence vidéo selon un mode de réalisation du procédé proposé ;  FIGS. 5a, 5b, 5c and 5d are diagrams illustrating subsampling of a video sequence according to an embodiment of the proposed method;
- la figure 6 représente un mode de réalisation d'un système informatique pour la mise en œuvre du procédé proposé.  - Figure 6 shows an embodiment of a computer system for implementing the proposed method.
Dans la description détaillée ci-après de modes de réalisation de l'invention, de nombreux détails spécifiques sont présentés pour apporter une compréhension plus complète. Néanmoins, l'homme du métier peut se rendre compte que des modes de réalisation peuvent être mis en pratique sans ces détails spécifiques. Dans d'autres cas, des caractéristiques bien connues ne sont pas décrites en détail pour éviter de compliquer inutilement la description.  In the following detailed description of embodiments of the invention, many specific details are presented to provide a more complete understanding. Nevertheless, those skilled in the art may realize that embodiments can be practiced without these specific details. In other cases, well-known features are not described in detail to avoid unnecessarily complicating the description.
On entend ici par « sous-échantillonnage » toute opération réalisant l'extraction ou la sélection de sous-séquences au sein d'une séquence vidéo, sans limitation relative à la méthode particulière ou à un paramètre particulier de sous- échantillonnage (période, récurrence, etc.), sauf indication expresse. Le sous- échantillonnage se distingue ainsi de la décimation, qui suppose une extraction régulière de sous-séquences (par exemple, extraction d'une image toutes les n images de la séquence vidéo).  By "subsampling" is meant here any operation carrying out the extraction or selection of subsequences within a video sequence, without limitation relating to the particular method or to a particular sub-sampling parameter (period, recurrence , etc.), unless expressly stated. Subsampling is thus distinguished from decimation, which assumes regular extraction of subsequences (for example, extraction of an image every n frames of the video sequence).
En référence à la figure 1 , le dispositif d'analyse de séquence vidéo 100 reçoit en entrée 102 une séquence vidéo d'entrée 101 à analyser dans le cadre d'un traitement multi-passe. Le dispositif d'analyse 100 comprend un contrôleur 103, couplé de manière opérationnelle à l'interface d'entrée 102, qui pilote une unité de sous-échantillonnage 104 et une unité d'analyse 105. Les données reçues sur l'interface d'entrée 102 sont transmises en entrée de l'unité de sous- échantillonnage.  With reference to FIG. 1, the video sequence analysis device 100 receives at input 102 an input video sequence 101 to be analyzed as part of a multi-pass processing. The analysis device 100 comprises a controller 103, operatively coupled to the input interface 102, which controls a subsampling unit 104 and an analysis unit 105. The data received on the interface of input 102 are input to the subsampling unit.
L'unité de sous-échantillonnage 104 effectue un sous-échantillonnage de la séquence vidéo selon le procédé proposé en déterminant dans la séquence vidéo une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives. L'unité 104 génère après sous-échantillonnage des données représentant la pluralité de sous-séquences consécutives et disjointes d'images de la séquence déterminée, qui sont traitées par le contrôleur 103 qui fournit en entrée de l'unité d'analyse 105 les images de la pluralité de sous-séquences disjointes d'images de la séquence vidéo sélectionnées par l'unité de sous-échantillonnage 104. L'unité d'analyse 105 génère après analyse des images de la pluralité de sous-séquences d'images de la séquence vidéo reçue en entrée des données statistiques 107 relatives à la séquence vidéo d'entrée 101 , qui sont fournies par le contrôleur 103 sur une interface de sortie 106 du dispositif d'analyse 100. The sub-sampling unit 104 sub-samples the video sequence according to the proposed method by determining in the video sequence a plurality of consecutive subsequences disjoint from one or more images successive. The unit 104 generates, after downsampling, data representing the plurality of consecutive and disjoint subsequences of images of the determined sequence, which are processed by the controller 103 which supplies, at the input of the analysis unit 105, the images of the plurality of disjoint sub-sequences of images of the video sequence selected by the sub-sampling unit 104. The analysis unit 105 generates, after analysis, images of the plurality of sub-sequences of images of the video sequence received as input of the statistical data 107 relating to the input video sequence 101, which is provided by the controller 103 on an output interface 106 of the analysis device 100.
Dans un ou plusieurs modes de réalisation du procédé proposé, la génération des données statistiques 107 peut inclure une extrapolation de données statistiques extraites en utilisant des résultats de l'analyse des images de la pluralité de sous-séquences d'images de la séquence vidéo reçues en entrée afin d'obtenir des résultats d'analyse pour l'ensemble des images de la séquence vidéo, et non pas seulement pour celles ayant été effectivement analysées. Par « extrapolation », on entend ici toute opération permettant de générer des données statistiques pour les images n'ayant pas été analysées (c'est-à-dire les images n'ayant pas été sélectionnées lors du sous-échantillonnage de la séquence) en utilisant notamment des données statistiques extraites pour les images analysées (c'est-à-dire les images de la pluralité de sous-séquences d'images de la séquence vidéo). Le dispositif d'analyse 100 peut ainsi fournir en sortie un ensemble de statistiques qui ne font pas apparaître le découpage en sous-séquences de la séquence vidéo initiale. Les traitements ultérieurs peuvent alors être effectués en utilisant les résultats de la phase d'analyse générés par le dispositif d'analyse 100 sans qu'ils aient à connaître le découpage de la séquence vidéo réalisé par le dispositif d'analyse 100.  In one or more embodiments of the proposed method, the generation of the statistical data 107 may include an extrapolation of extracted statistical data using image analysis results from the plurality of received image sequence subsequences. at the input to obtain analysis results for all the images of the video sequence, and not only for those that have actually been analyzed. By "extrapolation" is meant here any operation for generating statistical data for the images that have not been analyzed (ie the images that have not been selected during the subsampling of the sequence) using in particular extracted statistical data for the scanned images (i.e., the images of the plurality of image subsequences of the video sequence). The analysis device 100 can thus output a set of statistics that do not show the subdivision into subsequences of the initial video sequence. Subsequent processing can then be carried out using the results of the analysis phase generated by the analysis device 100 without having to know the division of the video sequence produced by the analysis device 100.
Le contrôleur 103 est configuré pour piloter l'unité de sous-échantillonnage 104 et l'unité d'analyse 105, et en particulier les entrées/sorties de ces unités. L'architecture du dispositif d'analyse 100 illustrée sur la figure 1 n'est toutefois pas limitative. Par exemple, l'interface d'entrée 102 du dispositif d'analyse 100 pourrait être couplée de manière opérationnelle à une interface d'entrée de l'unité de sous- échantillonnage 104. De même, l'unité de sous-échantillonnage 104 pourrait comprendre une sortie couplée de manière opérationnelle à une entrée de l'unité d'analyse 105, et l'unité d'analyse 105 pourrait comprendre une sortie couplée de manière opérationnelle à l'interface de sortie 106.  The controller 103 is configured to drive the subsampling unit 104 and the analysis unit 105, and in particular the inputs / outputs of these units. The architecture of the analysis device 100 illustrated in FIG. 1 is however not limiting. For example, the input interface 102 of the analysis device 100 could be operably coupled to an input interface of the subsampling unit 104. Similarly, the subsampling unit 104 could include an output operatively coupled to an input of the analysis unit 105, and the analysis unit 105 could include an output operatively coupled to the output interface 106.
Le dispositif d'analyse100 peut être un ordinateur, un réseau d'ordinateurs, un composant électronique, ou un autre appareil comportant un processeur couplé de manière opérationnelle à une mémoire, ainsi que, selon le mode de réalisation choisi, une unité de stockage de données, et d'autres éléments matériels associés comme une interface de réseau et un lecteur de support pour lire un support non- transitoire de stockage amovible et écrire sur un tel support (non représentés sur la figure). Le support de stockage amovible peut être, par exemple, un disque compact (CD), un disque vidéo/polyvalent numérique (DVD), un disque flash, une clé USB, etc. The analysis device100 can be a computer, a computer network, an electronic component, or other apparatus having a processor operatively coupled to a memory, and, depending on the embodiment selected, a data storage unit, and other associated hardware elements such as a network interface and a hardware interface. support reader for reading a non-transitory removable storage medium and writing on such a medium (not shown in the figure). The removable storage medium may be, for example, a compact disc (CD), a digital video / versatile disc (DVD), a flash disk, a USB key, etc.
En fonction du mode de réalisation, la mémoire, l'unité de stockage de données ou le support de stockage amovible contient des instructions qui, lorsqu'elles sont exécutées par le contrôleur 103, amènent ce contrôleur 103, à effectuer ou contrôler les parties interface d'entrée 102, sous-échantillonnage 104, analyse 105 et/ou interface de sortie 106 des exemples de mise en œuvre du procédé proposé décrits dans les présentes. Le contrôleur 103 peut être un composant implémentant un processeur ou une unité de calcul pour l'analyse d'images selon le procédé proposé et le contrôle des unités 102, 104, 105 et 106 du dispositif d'analyse 100.  Depending on the embodiment, the memory, the data storage unit, or the removable storage medium contains instructions that, when executed by the controller 103, cause the controller 103 to perform or control the interface portions. 102, subsampling 104, analysis 105 and / or output interface 106 of the exemplary embodiments of the proposed method described herein. The controller 103 may be a component implementing a processor or a calculation unit for the image analysis according to the proposed method and the control of the units 102, 104, 105 and 106 of the analysis device 100.
Le dispositif d'analyse 100 peut ainsi être mis sous forme d'un logiciel qui, lorsqu'il est chargé dans une mémoire et exécuté par un processeur, met en œuvre l'analyse d'une séquence vidéo selon le procédé proposé.  The analysis device 100 can thus be put into the form of software which, when loaded into a memory and executed by a processor, implements the analysis of a video sequence according to the proposed method.
En outre, le dispositif d'analyse 100 peut être mis en œuvre sous forme logicielle, comme décrit ci-dessus, ou sous forme matérielle, comme un circuit intégré spécifique application (ASIC), ou sous forme d'une combinaison d'éléments matériels et logiciels, comme par exemple un programme logiciel destiné à être chargé et exécuté sur un composant de type FPGA (Field Programmable Gâte Array).  In addition, the analysis device 100 can be implemented in software form, as described above, or in hardware form, as an application specific integrated circuit (ASIC), or in the form of a combination of hardware elements. and software, such as for example a software program intended to be loaded and executed on a FPGA (Field Programmable Gate Array) type component.
La figure 2 est un diagramme illustrant un dispositif de traitement de séquence vidéo. En référence à la figure 2, le dispositif de traitement de séquence vidéo 200 reçoit en entrée 202 une séquence vidéo d'entrée 201 à traiter dans le cadre d'un traitement multi-passe. Le dispositif d'analyse 100 comprend un contrôleur 203, couplé de manière opérationnelle à l'interface d'entrée 202, qui pilote une unité de traitement 204 et une unité d'analyse 205. Les données reçues sur l'interface d'entrée 202 sont transmises en entrée de l'unité d'analyse 205. Les données de sortie 207 du dispositif de traitement 200 sont générées sur une interface de sortie 206.  Fig. 2 is a diagram illustrating a video sequence processing device. With reference to FIG. 2, the video sequence processing device 200 receives as input 202 an input video sequence 201 to be processed as part of a multi-pass processing. The analysis device 100 comprises a controller 203, operably coupled to the input interface 202, which controls a processing unit 204 and an analysis unit 205. The data received on the input interface 202 are inputted to the analysis unit 205. The output data 207 of the processing device 200 is generated on an output interface 206.
L'ensemble contrôleur 203, unité d'analyse 205 et interfaces d'entrée et de sortie 202/206 forme une unité d'analyse pouvant correspondre à l'unité d'analyse 100 décrite en référence à la figure 1 , et configurée pour mettre en œuvre le procédé proposé. The controller assembly 203, analysis unit 205 and input and output interfaces output 202/206 forms an analysis unit that can correspond to the analysis unit 100 described with reference to FIG. 1, and configured to implement the proposed method.
L'unité d'analyse 205 génère après sous-échantillonnage de la séquence vidéo selon le procédé proposé des données représentant une pluralité de sous- séquences d'images de la séquence déterminée par le sous-échantillonnage, qui sont traitées par le contrôleur 203 ou par un contrôleur de l'unité d'analyse, pour analyse des images des sous-séquences. Dans un ou plusieurs mode de réalisation du procédé proposé, les résultats d'analyse des images des sous- séquences issues du sous-échantillonnage peuvent être extrapolés afin de générer des résultats d'analyse de l'ensemble des images de la séquence vidéo.  The analysis unit 205 generates, after sub-sampling of the video sequence according to the proposed method, data representing a plurality of sub-sequences of images of the sequence determined by the sub-sampling, which are processed by the controller 203 or by a controller of the analysis unit, for analyzing the images of the subsequences. In one or more embodiments of the proposed method, the sub-sampling subsequence image analysis results may be extrapolated to generate analysis results of all the images in the video sequence.
Le contrôleur 203 est configuré pour piloter l'unité d'analyse 205 et l'unité de traitement 204, et en particulier les entrées/sorties de ces unités. Dans un ou plusieurs modes de réalisation, les résultats d'analyse produits par l'unité d'analyse 205 sont fournis, sous la supervision du contrôleur 205, en entrée de l'unité de traitement 204 pour traitement de la séquence vidéo 201 d'entrée dans le cadre d'un traitement multi-passe, l'analyse effectuée par l'unité d'analyse 205 correspondant à une première passe et le traitement effectué par l'unité de traitement correspondant à une deuxième passe.  The controller 203 is configured to drive the analysis unit 205 and the processing unit 204, and in particular the inputs / outputs of these units. In one or more embodiments, the analysis results produced by the analysis unit 205 are provided, under the supervision of the controller 205, at the input of the processing unit 204 for processing the video sequence 201 of entry in the context of a multi-pass processing, the analysis performed by the analysis unit 205 corresponding to a first pass and the processing performed by the processing unit corresponding to a second pass.
L'architecture du dispositif de traitement 200 illustrée sur la figure 2 n'est toutefois pas limitative. Par exemple, l'interface d'entrée 202 du dispositif de traitement 200 pourrait être couplée de manière opérationnelle à une interface d'entrée de l'unité d'analyse 205 et à une interface d'entrée de l'unité de traitement 204. De même, l'unité d'analyse 205 pourrait comprendre une sortie couplée de manière opérationnelle à une entrée de l'unité de traitement 204, et l'unité de traitement 204 pourrait comprendre une sortie couplée de manière opérationnelle à l'interface de sortie 206 pour y produire des données correspondants à la séquence vidéo 201 traitée.  The architecture of the processing device 200 illustrated in FIG. 2 is however not limiting. For example, the input interface 202 of the processing device 200 could be operably coupled to an input interface of the analysis unit 205 and to an input interface of the processing unit 204. Similarly, the analysis unit 205 could include an output operably coupled to an input of the processing unit 204, and the processing unit 204 could include an output operably coupled to the output interface. 206 to produce data corresponding to the video sequence 201 processed.
De plus, le dispositif de traitement 200 peut être un encodeur vidéo multi- passe, un dispositif de débruitage vidéo, ou tout autre dispositif de traitement multipasse de séquence vidéo dans lequel au moins une passe comprend une analyse d'une séquence vidéo d'entrée préalablement à son traitement.  In addition, the processing device 200 may be a multi-pass video encoder, a video denoising device, or any other multi-video video processing device in which at least one pass comprises an analysis of an input video sequence. prior to treatment.
Le dispositif de traitement 200 peut être un ordinateur, un réseau d'ordinateurs, un composant électronique, ou un autre appareil comportant un processeur couplé de manière opérationnelle à une mémoire, ainsi que, selon le mode de réalisation choisi, une unité de stockage de données, et d'autres éléments matériels associés comme une interface de réseau et un lecteur de support pour lire un support de stockage amovible et écrire sur un tel support (non représentés sur la figure). En fonction du mode de réalisation, la mémoire, l'unité de stockage de données ou le support de stockage amovible contient des instructions qui, lorsqu'elles sont exécutées par le contrôleur 203, amènent ce contrôleur 203, à effectuer ou contrôler les parties interface d'entrée 202, analyse 205, traitement 204 et/ou interface de sortie 206 des exemples de mise en œuvre du procédé proposé décrits dans les présentes. Le contrôleur 203 peut être un composant implémentant un processeur ou une unité de calcul pour le traitement d'images comprenant une analyse selon le procédé proposé et le contrôle des unités 202, 204, 205 et 206 du dispositif de traitement 200. The processing device 200 may be a computer, a computer network, an electronic component, or another apparatus comprising a processor operatively coupled to a memory, and, depending on the embodiment chosen, a storage unit data, and other elements associated hardware such as a network interface and a media player for reading and writing removable media on such media (not shown in the figure). Depending on the embodiment, the memory, the data storage unit, or the removable storage medium contains instructions that, when executed by the controller 203, cause the controller 203 to perform or control the interface portions. input 202, analysis 205, processing 204 and / or output interface 206 of the exemplary embodiments of the proposed method described herein. The controller 203 may be a component implementing a processor or a calculation unit for image processing comprising an analysis according to the proposed method and the control of the units 202, 204, 205 and 206 of the processing device 200.
En outre, le dispositif de traitement 200 peut être mis en œuvre sous forme logicielle, comme décrit ci-dessus, ou sous forme matérielle, comme un circuit intégré spécifique application (ASIC), ou sous forme d'une combinaison d'éléments matériels et logiciels, comme par exemple un programme logiciel destiné à être chargé et exécuté sur un composant de type FPGA (Field Programmable Gâte Array).  In addition, the processing device 200 may be implemented in software form, as described above, or in hardware form, such as an application specific integrated circuit (ASIC), or in the form of a combination of hardware and software, such as a software program intended to be loaded and executed on a FPGA (Field Programmable Gate Array) type component.
La figure 3 montre un diagramme illustrant le procédé proposé selon un mode de réalisation.  Figure 3 shows a diagram illustrating the proposed method according to one embodiment.
Un ou plusieurs paramètres relatifs au type de traitement à réaliser sur la séquence vidéo d'entrée sont entrés (301 ) afin d'être pris en compte lors de la phase de sous-échantillonnage. De même, un ou plusieurs paramètres relatifs au contenu de la séquence vidéo à analyser sont entrés (302) afin d'être pris en compte lors de la phase de sous-échantillonnage. La séquence vidéo à analyser est produite en entrée (303) afin d'être analysée. Cette séquence vidéo est ensuite sous-échantillonnée (304) pour y déterminer une pluralité de sous-séquences consécutives disjointes d'images d'une ou plusieurs images successives en fonction du type de traitement à effectuer et du contenu de la séquence vidéo, sur la base du/des paramètres relatifs au type de traitement et du/des paramètres relatifs au contenu de la séquence vidéo. Les images de chaque sous-séquence ainsi déterminée sont ensuite analysées (305) selon un procédé d'analyse prédéterminé correspondant au traitement à effectuer sur la séquence, pour fournir des résultats d'analyse des sous-séquences. Dans un ou plusieurs modes de réalisation, l'analyse des images des sous-séquences peut être suivie de l'extrapolation (306) des résultats de cette analyse pour générer des résultats d'analyse de l'ensemble des images de la séquence vidéo d'entrée. Les figures 4a et 4b illustrent le sous-échantillonnage d'une séquence vidéo selon un mode de réalisation du procédé proposé. One or more parameters relating to the type of processing to be performed on the input video sequence are input (301) to be taken into account during the sub-sampling phase. Similarly, one or more parameters relating to the content of the video sequence to be analyzed are entered (302) in order to be taken into account during the sub-sampling phase. The video sequence to be analyzed is inputted (303) for analysis. This video sequence is then subsampled (304) to determine a plurality of consecutive subsequences disjoint images of one or more successive images depending on the type of processing to be performed and the content of the video sequence, on the base of the parameter (s) relating to the type of processing and the parameter (s) relating to the content of the video sequence. The images of each subsequence thus determined are then analyzed (305) according to a predetermined analysis method corresponding to the processing to be performed on the sequence, to provide sub-sequence analysis results. In one or more embodiments, the image analysis of the subsequences can be followed by the extrapolation (306) of the results of this analysis to generate analysis results of all the images of the video sequence of 'Entrance. Figures 4a and 4b illustrate subsampling of a video sequence according to an embodiment of the proposed method.
La figure 4a représente schématiquement une séquence vidéo (400) comprenant un ensemble de N images réparties sur une durée Ds entre la première image (401 ) de la séquence et la dernière image (402) de la séquence. FIG. 4a schematically represents a video sequence (400) comprising a set of N images distributed over a duration D s between the first image (401) of the sequence and the last image (402) of the sequence.
La figure 4b représente la séquence vidéo (400) après sous- échantillonnage. Le sous-échantillonnage de la séquence (400) a opéré une détermination de sous-séquences consécutives et disjointes (403a, 403b, 403c, 403d) de la séquence, parfois référencées dans la présente demande sous les termes « chunk », « sous-ensemble » ou « paquet ».  Figure 4b shows the video sequence (400) after subsampling. Sub-sampling of the sequence (400) made a determination of consecutive and disjoint subsequences (403a, 403b, 403c, 403d) of the sequence, sometimes referenced in the present application under the terms "chunk", "sub- together "or" package ".
Les sous-séquences (403a, 403b, 403c, 403d) déterminées sont disjointes, en ce que deux sous-séquences voisines sont respectivement séparées par des « trous » (404a, 404b, 404c), chaque trou contenant au moins une image de la séquence vidéo (400). Ces trous (404a, 404b, 404c) correspondent aux groupes d'images de la séquence initiale (400) qui, selon le procédé proposé, ne seront pas analysées.  The subsequences (403a, 403b, 403c, 403d) determined are disjoint, in that two neighboring subsequences are respectively separated by "holes" (404a, 404b, 404c), each hole containing at least one image of the video sequence (400). These holes (404a, 404b, 404c) correspond to the groups of images of the initial sequence (400) which, according to the proposed method, will not be analyzed.
Les sous-séquences (403a, 403b, 403c, 403d) déterminées sont consécutives, en ce qu'elles résultent de l'échantillonnage d'une séquence vidéo correspondant à une durée. L'échantillonnage de la séquence vidéo pourra être effectué selon le déroulement temporel de la séquence, pour déterminer une suite de sous-séquences, parmi lesquelles une première séquence correspond au début de la séquence vidéo, et une dernière séquence correspond à la fin de la séquence vidéo.  The subsequences (403a, 403b, 403c, 403d) determined are consecutive, in that they result from the sampling of a video sequence corresponding to a duration. The sampling of the video sequence may be performed according to the sequence of the sequence, to determine a sequence of subsequences, among which a first sequence corresponds to the beginning of the video sequence, and a last sequence corresponds to the end of the sequence. video sequence.
Les sous-séquences déterminées par le sous-échantillonnage ne sont pas nécessairement de tailles égales, en ce qu'elles ne contiennent par exemple pas toutes un même nombre d'images. Sur l'exemple illustré par la figure 4b, les sous- séquences 403a, 403b et 403c sont de taille égale, cette taille étant inférieure ou égale à celle de la dernière sous-séquence (403d) de la séquence (400).  The subsequences determined by the sub-sampling are not necessarily equal in size, in that they do not contain, for example, not all the same number of images. In the example illustrated by FIG. 4b, the subsequences 403a, 403b and 403c are of equal size, this size being less than or equal to that of the last subsequence (403d) of the sequence (400).
Ainsi, dans un ou plusieurs modes de réalisation, le procédé réalise un découpage temporel en «chunks» de la séquence vidéo à analyser. Les chunks sont des sous-séquences d'images consécutives qui ne contiennent pas nécessairement le même nombre d'images. Les images qui ne sont pas dans des chunks ne subiront pas le traitement d'analyse.  Thus, in one or more embodiments, the method realizes a temporal division into "chunks" of the video sequence to be analyzed. Chunks are subsequences of consecutive images that do not necessarily contain the same number of images. Images that are not in chunks will not be scanned.
Les tailles respectives de la séquence vidéo et des sous-séquences peuvent être exprimées en nombre d'images, ou bien sous la forme d'une durée, les deux mesures étant liées par le nombre d'images par seconde de la séquence vidéo considérée. Il en est de même de l'écart entre deux sous-séquences voisines, qui peut être, en fonction de l'implémentation, exprimée en nombre d'images ou comme une durée. The respective sizes of the video sequence and the subsequences can be expressed in number of images, or in the form of a duration, the two measurements being linked by the number of images per second of the sequence video considered. It is the same of the difference between two neighboring subsequences, which can be, according to the implementation, expressed in number of images or as a duration.
Le sous-échantillonnage pourra être effectué sur la base de différents paramètres, en fonction de l'implémentation.  Subsampling can be done on the basis of different parameters, depending on the implementation.
Dans un ou plusieurs modes de réalisation, on pourra déterminer les sous- séquences issues du sous-échantillonnage en fonction d'une taille de sous- séquence, par exemple exprimée par un nombre d'images, identique pour toutes les sous-séquences éventuellement à l'exception d'une sous-séquence (de préférence la dernière), et d'une fréquence de sous-échantillonnage ou d'une période de sous-échantillonnage définissant l'écart entre deux sous-séquences voisines.  In one or more embodiments, the sub-sequences derived from the sub-sampling can be determined as a function of a subsequence size, for example expressed by a number of images, which is identical for all sub-sequences, if any. the exception of a subsequence (preferably the last one), and a sub-sampling frequency or a subsampling period defining the difference between two neighboring subsequences.
En variante, on pourra déterminer les sous-séquences en fonction d'une taille de sous-séquence et d'un taux de sous-échantillonnage. Par exemple, on pourra déterminer les sous-séquences en fixant une taille unique (éventuellement à l'exception de la dernière sous-séquence) égale à une image, et un taux de sous- échantillonnage à 1 /6. Les sous-séquences seront donc déterminées en sélectionnant une image toutes les 6 images de la séquence vidéo à traiter aux fins de l'analyse. Pour une séquence vidéo d'une durée d'une heure, la durée d'analyse sera ainsi réduite à 10 minutes. Des résultats d'analyse pour les parties non analysées (c'est-à-dire, ne correspondant pas à une sous-séquence) pourront être déduit des résultats d'analyse des sous-séquences, par exemple par un procédé d'extrapolation.  Alternatively, the subsequences can be determined according to a subsequence size and a subsampling rate. For example, sub-sequences can be determined by setting a single size (possibly with the exception of the last subsequence) equal to one image, and a sub-sampling rate of 1/6. The subsequences will therefore be determined by selecting an image every 6 images of the video sequence to be processed for analysis. For a video sequence lasting one hour, the analysis time will be reduced to 10 minutes. Analysis results for the unanalyzed (i.e., non-subsequence) portions may be inferred from the subsequence analysis results, for example by an extrapolation method.
Dans un ou plusieurs modes de réalisation, on pourra déterminer les sous- séquences issues du sous-échantillonnage en fonction d'une taille de sous- séquence, par exemple exprimée par un nombre d'images, identique pour toutes les sous-séquences éventuellement à l'exception d'une sous-séquence, d'un nombre de sous-séquences, et de la taille de la séquence.  In one or more embodiments, the sub-sequences derived from the sub-sampling can be determined as a function of a subsequence size, for example expressed by a number of images, which is identical for all sub-sequences, if any. except for a subsequence, a number of subsequences, and the size of the sequence.
En fonction de l'implémentation, le procédé proposé pourra déterminer des paramètres de sous-échantillonnage en tenant compte du type de traitement à effectuer et du contenu de la séquence vidéo à traiter.  Depending on the implementation, the proposed method may determine downsampling parameters taking into account the type of processing to be performed and the content of the video sequence to be processed.
Dans un ou plusieurs modes de réalisation, la taille de la dernière sous- séquence, correspondant à la fin de la séquence vidéo à traiter, pourra être choisie supérieure ou égale à celles des autres sous-séquences. Ainsi, en fonction de la taille de la séquence, le procédé proposé pourra fusionner les deux dernières sous- séquences dans le cas où la taille de la dernière sous-séquence serait autrement inférieure à un seuil prédéterminé, à la taille des autres sous-séquences si elle est unique, ou à la taille d'au moins une autre sous-séquence. In one or more embodiments, the size of the last subsequence, corresponding to the end of the video sequence to be processed, may be chosen greater than or equal to those of the other subsequences. Thus, depending on the size of the sequence, the proposed method could merge the last two subsequences in the case where the size of the last subsequence would otherwise be less than a predetermined threshold, the size of the other subsequences if it is unique, or the size of at least one other subsequence.
Dans le cas d'un sous-échantillonnage régulier de la séquence, la position d'un chunk dans une période de sous-échantillonnage pourra varier. La figure 5a illustre le cas d'une période de sous-échantillonnage (501 ) contenant un chunk (500) positionné en début de période.  In the case of regular subsampling of the sequence, the position of a chunk in a subsampling period may vary. Figure 5a illustrates the case of a subsampling period (501) containing a chunk (500) positioned at the beginning of the period.
La figure 5b illustre le cas d'une période de sous-échantillonnage (503) contenant un chunk (502) positionné en fin de période.  Figure 5b illustrates the case of a subsampling period (503) containing a chunk (502) positioned at the end of the period.
Comme expliqué ci-dessus, la taille du dernier chunk de la séquence pourra être choisie supérieure ou égale à celle des autres chunks. Comme illustré sur la figure 5c, dans le cas de chunks positionnés en début de période d'échantillonnage, le dernier chunk (504) pourra être prolongé pour couvrir toute la période (505), de manière à assurer une analyse plus précise de la fin de la séquence vidéo.  As explained above, the size of the last chunk of the sequence can be chosen greater than or equal to that of the other chunks. As illustrated in Figure 5c, in the case of chunks positioned at the beginning of the sampling period, the last chunk (504) can be extended to cover the entire period (505), so as to ensure a more accurate analysis of the end. of the video sequence.
II en sera de même du cas de chunks positionnés en fin de période, ou à toute autre position de la période, comme illustré sur la figure 5d. Le dernier chunk (506) pourra être prolongé pour couvrir toute la période (507), de manière à assurer une analyse plus précise de la fin de la séquence vidéo.  It will be the same case of chunks positioned at the end of the period, or at any other position of the period, as illustrated in Figure 5d. The last chunk (506) can be extended to cover the entire period (507), so as to ensure a more accurate analysis of the end of the video sequence.
La répartition des chunks ainsi que leur taille exprimée en nombre d'images permet d'en déduire un gain de vitesse du procédé d'analyse. En effet, si la charge de calcul est proportionnelle au nombre d'images analysées (ce qui est généralement le cas dans la plupart des applications), la proportion d'images constituant les chunks peut directement fournir une estimation de ce gain.  The distribution of the chunks as well as their size expressed in number of images makes it possible to deduce a speed gain of the analysis method. Indeed, if the computational load is proportional to the number of images analyzed (which is generally the case in most applications), the proportion of images constituting the chunks can directly provide an estimate of this gain.
Dans un ou plusieurs modes de réalisation, la taille des chunks ainsi que leur répartition est dépendante de l'application (du traitement effectué sur la séquence). Si, en fonction de l'application, la méthode d'analyse utilise des informations temporelles comme le mouvement d'objets dans la scène, les chunks seront de préférence constitués d'un nombre significatifs d'images consécutives. Un chunk pourra par exemple être considéré de grande taille lorsqu'il comprend plusieurs milliers d'images consécutives. Par exemple, dans le cadre d'une analyse effectuée pour une application de compression vidéo, certains chunks pourront comprendre environ 3000 images. Au contraire, si l'analyse traite les images indépendamment, comme par exemple une mesure de luminosité, les chunks pourront être de taille réduite, et par exemple être réduits à une seule image.  In one or more embodiments, the size of the chunks and their distribution is dependent on the application (of the processing performed on the sequence). If, depending on the application, the analysis method uses temporal information such as the movement of objects in the scene, the chunks will preferably consist of a significant number of consecutive images. For example, a chunk can be considered large when it includes several thousand consecutive images. For example, as part of an analysis for a video compression application, some chunks might have about 3000 images. On the contrary, if the analysis processes the images independently, such as for example a brightness measurement, the chunks may be reduced in size, and for example be reduced to a single image.
Dans un ou plusieurs modes de réalisation, les résultats d'analyse, par exemple les données statistiques générées par le procédé d'analyse, sont extrapolées pour les sous-séquences d'images qui ne sont pas analysées. Il est préférable dans ce cas que les images ignorées soient de même nature que les images analysées du point de vue des statistiques renvoyées. Grâce à cette extrapolation, le procédé d'analyse peut fournir à l'étage de traitement qui suit un ensemble de statistiques complet, c'est-à-dire comprenant des statistiques correspondant aux images qui n'ont pas été analysées. Plusieurs méthodes d'extrapolation sont possibles et il est judicieux de choisir celles qui sont adaptées au type de statistiques à mesurer. Les statistiques peuvent par exemple être extrapolées linéairement. On estimera ainsi que leurs valeurs sont placées sur une droite qui relie la dernière image d'un chunk à la première image du chunk suivant. In one or more embodiments, the analysis results, for example the statistical data generated by the analysis method, are extrapolated for sub-sequences of images that are not analyzed. It is preferable in this case that the skipped images be of the same nature as the analyzed images from the point of view of the statistics returned. Thanks to this extrapolation, the analysis method can provide the next processing stage with a complete set of statistics, that is to say including statistics corresponding to the images that have not been analyzed. Several methods of extrapolation are possible and it is advisable to choose those which are adapted to the type of statistics to be measured. For example, statistics can be extrapolated linearly. We will estimate that their values are placed on a line that connects the last image of a chunk to the first image of the next chunk.
Comme indiqué ci-dessus, la taille du dernier chunk sera de préférence choisie supérieure ou égale à celle des autres chunks, et par exemple suffisamment grande pour corriger les erreurs d'analyse de la séquence vidéo d'entrée. La taille de cette fenêtre d'analyse de fin peut en effet influencer la qualité d'analyse de l'ensemble du contenu, et il est préférable de choisir une taille suffisante pour pouvoir compenser les erreurs d'analyse au début de la séquence imputables au sous-échantillonnage et à la taille choisie pour les fenêtres d'analyse de début de la séquence.  As indicated above, the size of the last chunk will preferably be chosen greater than or equal to that of the other chunks, and for example large enough to correct the analysis errors of the input video sequence. The size of this end analysis window can indeed influence the quality of analysis of all the content, and it is preferable to choose a sufficient size to be able to compensate for the analysis errors at the beginning of the sequence attributable to the downsampling and at the chosen size for the start analysis windows of the sequence.
L'opération de sous-échantillonnage d'une séquence vidéo tenant compte du type de traitement à effectuer et du contenu de la séquence vidéo est illustrée au travers des deux exemples suivants : le filtrage d'une séquence vidéo dans le contexte de la compression vidéo, et la compression vidéo en deux passes.  The sub-sampling operation of a video sequence taking into account the type of processing to be performed and the content of the video sequence is illustrated by the following two examples: the filtering of a video sequence in the context of video compression , and video compression in two passes.
Filtrage d'un bruit pour débruiter une séquence vidéo dans le contexte de la compression vidéo  Filtering a noise to denoise video in the context of video compression
Un des aspects importants de l'appréciation de la qualité vidéo d'une séquence vidéo compressée est son homogénéité visuelle. La qualité vidéo sera d'autant plus élevée que les défauts inhérents à la compression sont uniformes au cours de la séquence vidéo compressée. Lorsqu'il est prévu de retirer du bruit avant d'effectuer la tâche de compression, celui-ci doit donc de préférence être retiré de façon homogène tout au long de la séquence vidéo à débruiter.  One of the important aspects of assessing the video quality of a compressed video sequence is its visual homogeneity. The video quality will be higher as the defects inherent in the compression are uniform during the compressed video sequence. When it is intended to remove noise before performing the compression task, it should preferably be removed homogeneously throughout the video sequence denoising.
Une méthode de débruitage consiste à analyser préalablement toute la séquence vidéo de façon à identifier des caractéristiques du bruit (par exemple des caractéristiques statistiques du bruit), puis dans un second temps, d'effectuer un filtrage à l'aide des caractéristiques recueillies, pour réduire le bruit. Ce procédé de débruitage comprend donc une première phase d'analyse du bruit, suivie d'un traitement de débruitage, par exemple par filtrage du bruit, qui utilise les résultats de la phase d'analyse préalable. Suivant le type de filtrage réalisé, différentes caractéristiques peuvent être acquises durant la phase d'analyse préalable, comme par exemple l'énergie du bruit et son amplitude spectrale lorsqu'il est considéré comme étant un bruit blanc additif gaussien. A denoising method consists in analyzing all the video sequence beforehand so as to identify noise characteristics (for example statistical noise characteristics), and then, in a second step, to filter using the characteristics collected. reduce the noise. This denoising method thus comprises a first phase of noise analysis, followed by denoising treatment, for example by noise filtering, which uses the results. of the preliminary analysis phase. Depending on the type of filtering performed, different characteristics can be acquired during the preliminary analysis phase, such as for example the noise energy and its spectral amplitude when it is considered to be a Gaussian additive white noise.
Dans un ou plusieurs modes de réalisation du procédé proposé, on tient compte du type de contenu de la séquence vidéo à débruiter pour déterminer dans la séquence vidéo une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives, lors de la phase d'analyse préalable au débruitage.  In one or more embodiments of the proposed method, the content type of the video sequence to be denoised is taken into account in order to determine in the video sequence a plurality of consecutive subsequences disjoined from one or more successive images, during the phase analysis prior to denoising.
Par exemple, dans le cas où le contenu de la séquence vidéo à traiter est un film de cinéma, le bruit à retirer sera typiquement du grain de pellicule (argentique ou artificiellement ajouté dans le cas du cinéma numérique). Les caractéristiques de ce bruit peuvent être considérées comme étant homogènes tout au long du film. En revanche, il n'est pas ajouté de manière linéaire. Il peut aussi être plus important dans les scènes sombres que dans les scènes claires par exemple. Dans ce cas des paramètres non-linéaires peuvent être calculés. Ils peuvent permettre une identification complète du bruit, en utilisant par exemple la technique décrite dans la demande de brevet américain US 2004/005365. Par exemple, des paramètres non-linéaires tels que ceux transportés dans les standards de compression vidéo H.264 et HEVC pourront être calculés. Ceux-ci peuvent en effet être utilisés pour modéliser des bruits multiplicatifs avec des coefficients dépendant de l'intensité lumineuse.  For example, in the case where the content of the video sequence to be treated is a movie film, the noise to be removed will typically be film grain (film or artificially added in the case of digital cinema). The characteristics of this noise can be considered as being homogeneous throughout the film. On the other hand, it is not added in a linear way. It can also be more important in dark scenes than in bright scenes for example. In this case, nonlinear parameters can be calculated. They can allow a complete identification of the noise, using for example the technique described in the US patent application US 2004/005365. For example, non-linear parameters such as those transported in the H.264 and HEVC video compression standards may be calculated. These can indeed be used to model multiplicative noises with coefficients depending on the luminous intensity.
Dans ce cas particulier non limitatif d'une séquence de vidéo dont le contenu est un film de cinéma, on peut effectuer pour l'analyse préalable de la séquence des mesures de caractéristiques statistiques du bruit, de préférence à intervalle régulier, en utilisant des sous-séquences, ou « chunks », de quelques images. Un sous-échantillonnage de la séquence vidéo est effectué en déterminant dans la séquence vidéo une pluralité de sous-séquences consécutives disjointes, les sous-séquences comprenant une ou plusieurs images successives. Ces sous- séquences sont déterminées en fonction du type de traitement à effectuer (dans cet exemple un filtrage du bruit) et en fonction du contenu de la séquence vidéo (dans cet exemple un film de cinéma). En particulier, on peut choisir selon le procédé proposé d'utiliser des sous-séquences de taille réduite à quelques images, du fait que pour l'exemple d'un film de cinéma on peut considérer que les caractéristiques du bruit sont homogènes sur l'ensemble de la séquence vidéo. Dans un exemple particulier d'implémentation, l'utilisation de «chunks» de 4 images consécutives permet d'acquérir des caractéristiques précises du bruit de films de cinéma, tout en s'affranchissant des variations locales très brutales de luminosité tels que les flashs. In this particular non-limiting case of a video sequence whose content is a film of cinema, it is possible to carry out, for the preliminary analysis of the sequence, measures of statistical characteristics of the noise, preferably at regular intervals, using -Sequences, or "chunks", of some images. Subsampling of the video sequence is performed by determining in the video sequence a plurality of consecutive subsequences disjoined, the subsequences comprising one or more successive images. These subsequences are determined according to the type of processing to be performed (in this example a noise filtering) and according to the content of the video sequence (in this example a movie film). In particular, it is possible, according to the proposed method, to use sub-sequences of reduced size to a few images, because for the example of a cinema film it can be considered that the characteristics of the noise are homogeneous on the whole video sequence. In a particular example of implementation, the use of "chunks" of 4 consecutive images allows to acquire precise characteristics of the noise of cinema films, while avoiding the very brutal local variations of brightness such as the flashes.
De même, on peut choisir pour ce cas particulier un écart constant entre deux sous-séquences adjacentes, ainsi que la durée de cet écart. La durée moyenne des scènes dans les films de cinéma est en effet de l'ordre de deux secondes. Par conséquent, effectuer par exemple une mesure toutes les secondes permet d'acquérir de l'information sur toutes les scènes du film et d'obtenir ainsi un profil précis des caractéristiques du bruit sur l'ensemble de la séquence vidéo.  Similarly, one can choose for this particular case a constant difference between two adjacent subsequences, as well as the duration of this difference. The average duration of scenes in cinema films is in fact of the order of two seconds. Consequently, for example, performing a measurement every second makes it possible to acquire information on all the scenes of the film and thus obtain an accurate profile of the characteristics of the noise over the entire video sequence.
Comme discuté ci-dessus, la taille (exprimée en nombre d'images ou en unité de temps) de la dernière sous-séquence, ainsi que l'écart entre cette dernière sous-séquence et la sous-séquence précédente, pourront être choisis différents des autres sous-séquences déterminées par le sous-échantillonnage.  As discussed above, the size (expressed in number of frames or time unit) of the last subsequence, as well as the difference between the latter sub-sequence and the previous sub-sequence, may be chosen differently. other subsequences determined by downsampling.
On pourra par exemple choisir des chunks de taille Nc,1 , éventuellement à l'exception du dernier chunk de la séquence qui pourra être choisi de taille supérieure ou égale Nc,2 afin d'assurer une qualité globale d'analyse comme discuté ci-dessus. L'échantillonnage pourra être effectué toutes les secondes ce qui permettra de calculer le nombre total de chunks en fonction de la durée totale Ds de la séquence vidéo. For example, it is possible to choose chunks of size Nc, 1, possibly with the exception of the last chunk of the sequence that can be chosen of size greater than or equal to Nc, 2 in order to ensure a global quality of analysis as discussed below. above. Sampling can be done every second which will allow to calculate the total number of chunks according to the total duration D s of the video sequence.
Dans un ou plusieurs modes de réalisation, une extrapolation des résultats d'analyse de chunks est effectuée. Différents procédés d'extrapolation des statistiques acquises peuvent, le cas échéant, être employés. Par exemple, on peut considérer que ces statistiques sur les images non-analysées sont identiques à celles des images des extrémités des chunks adjacents. Cette méthode est particulièrement valide lorsque les chunks sont composés de peu d'images, comme c'est le cas dans l'exemple de réalisation décrit précédemment où ils sont limités à 4 images.  In one or more embodiments, an extrapolation of the chunks analysis results is performed. Different methods of extrapolation of the acquired statistics can, if necessary, be used. For example, one can consider that these statistics on the unanalyzed images are identical to those of the images of the ends of the adjacent chunks. This method is particularly valid when chunks are composed of few images, as is the case in the embodiment described above where they are limited to 4 images.
Dans un exemple de mise en oeuvre, pour une séquence vidéo à 24 Hz (24 images par seconde) correspondant à un film, le procédé d'analyse pourra être configuré pour effectuer des mesures sur 4 images consécutives (les chunks seront donc de taille égale à 4 images, éventuellement à l'exception du dernier chunk) toutes les 24 images qui représentent une seconde de film. L'analyse est donc réalisée 6 fois plus rapidement que si l'ensemble des images de la séquence étaient analysées. Dans ce mode de réalisation, le découpage de la séquence est adapté au contenu comme au type de traitements réalisés ultérieurement. En effet, la période des chunks comme leurs durées proposées ci-dessus sont bien adaptés à des séquences vidéo de type film. In an exemplary implementation, for a video sequence at 24 Hz (24 frames per second) corresponding to a film, the analysis method may be configured to perform measurements on 4 consecutive images (the chunks will therefore be of equal size 4 images, possibly with the exception of the last chunk) all 24 images that represent a second of film. The analysis is thus carried out 6 times faster than if all the images of the sequence were analyzed. In this embodiment, the division of the sequence is adapted to the content as to the type of processing performed later. Indeed, the period of chunks as their durations proposed above are well adapted to video sequences of film type.
Dans le cas d'autres types de contenus, comme des événements sportifs télévisés, on choisira une période de découpage plus longue car le montage de ce type de séquence vidéo est nettement moins rapide. De ce fait, l'invention permet d'optimiser la vitesse d'analyse en fonction du type de contenu, ce qui constitue un avantage important dans le cas de traitements par lots.  In the case of other types of content, such as televised sporting events, a longer switching period will be chosen because the editing of this type of video sequence is much slower. As a result, the invention makes it possible to optimize the analysis speed according to the type of content, which is an important advantage in the case of batch processes.
Compression vidéo en deux passes Two-pass video compression
La compression vidéo en deux passes a généralement pour objectif de garantir une qualité vidéo constante sur toute la séquence vidéo compressée, tout en respectant une taille totale spécifiée. La première passe est une phase d'analyse, ayant par exemple pour objet la détermination de la complexité de la séquence. La seconde passe est la phase de compression proprement dite. Cette dernière utilise les résultats de la phase d'analyse, dans l'exemple précédent les complexités obtenues, pour optimiser le débit localement et maintenir à la fois une qualité constante et une taille totale.  Two-pass video compression usually aims to ensure consistent video quality over the entire compressed video sequence, while maintaining a specified total size. The first pass is an analysis phase, having for example the purpose of determining the complexity of the sequence. The second pass is the actual compression phase. The latter uses the results of the analysis phase, in the above example the complexities obtained, to optimize the flow locally and maintain both a constant quality and a total size.
Dans un ou plusieurs modes de réalisation, la phase d'analyse peut comprendre la détermination à chaque image d'une relation entre un paramètre de compression, un quantificateur, et un débit correspondant. Cette relation est obtenue généralement en compressant la séquence vidéo, de sorte que la phase d'analyse s'avère être quasiment aussi coûteuse que la phase de traitement (compression) elle-même.  In one or more embodiments, the analysis phase may comprise determining each image a relationship between a compression parameter, a quantizer, and a corresponding bit rate. This relationship is generally obtained by compressing the video sequence, so that the analysis phase proves to be almost as expensive as the processing phase (compression) itself.
Plusieurs relations entre un paramètre de compression, un quantificateur, et un débit correspondant, ont été proposées. On peut par exemple considérer des fonctions du type : Qp = a \og Débit) + b , où Qp est un quantificateur moyen des images de la séquence vidéo à compresser, et a et b sont deux paramètres à identifier dépendant des images de la séquence vidéo à encoder. En variante, on peut aussi considérer une relation entre un paramètre de compression, un quantificateur, et un débit correspondant, construite par extrapolation logarithmique à partir de points Qp, Débit mesurés. Several relationships between a compression parameter, a quantizer, and a corresponding bit rate have been proposed. One can for example consider functions of the type: Q p = a \ og Flow) + b, where Q p is a mean quantizer of the images of the video sequence to be compressed, and a and b are two parameters to be identified depending on the images of the video sequence to be encoded. Alternatively, one can also consider a relationship between a compression parameter, a quantizer, and a corresponding flow, constructed by logarithmic extrapolation from measured points Qp, Flow.
Dans un ou plusieurs modes de réalisation, le résumé statistique réalisé à l'issue de la phase d'analyse est constitué pour chaque image d'une relation Quantificateur, Débit. Selon le procédé proposé, on détermine dans la séquence vidéo à compresser une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives. Les images de chaque sous-séquence sont analysées pour produire, pour chaque image de chaque sous-séquence analysée, une relation Quantificateur, Débit. In one or more embodiments, the statistical summary produced at the end of the analysis phase is constituted for each image of a quantizer relationship, Flow. According to the proposed method, it is determined in the video sequence to be compressed a plurality of consecutive sub-sequences disjoint from one or more successive images. The images of each subsequence are analyzed to produce, for each image of each sub-sequence analyzed, Quantifier relationship, Flow.
Dans un ou plusieurs modes de réalisation, des statistiques des parties non analysées peuvent être générées par extrapolation en utilisant les résultats d'analyse des sous-séquences. Dans l'exemple précité, plusieurs méthodes de génération de résultats d'analyse pour les parties de la séquence qui n'ont pas été analysées sont possibles. Par exemple, des résultats d'analyse peuvent être générés en interpolant linéairement les relations Quantificateur, Débit obtenues par l'analyse des images des sous-séquences. Cela revient à faire varier linéairement les paramètres a et b de la relation Qp = a - log(Débit) + b décrite précédemment. In one or more embodiments, statistics of unparsed portions may be generated by extrapolation using the subsequence analysis results. In the above example, several methods of generating analysis results for the parts of the sequence that have not been analyzed are possible. For example, analysis results can be generated by linearly interpolating Quantifier relations, Flow obtained by the analysis of sub-sequence images. This amounts to linearly varying the parameters a and b of the relation Q p = a-log (Flow) + b described above.
Le procédé proposé permet de réduire considérablement la complexité de cette phase d'analyse du fait qu'il est procédé, dans le cadre de la phase d'analyse, à un sous-échantillonnage qui tient compte du type de traitement à effectuer (dans cet exemple une compression) et du contenu de la séquence vidéo. Dans un ou plusieurs modes de réalisation, des paramètres du sous-échantillonnages sont choisis en tenant compte du type de traitement à effectuer et du contenu de la séquence vidéo à traiter.  The proposed method makes it possible to considerably reduce the complexity of this analysis phase because, during the analysis phase, subsampling is carried out which takes into account the type of treatment to be performed (in this example a compression) and the contents of the video sequence. In one or more embodiments, subsampling parameters are selected taking into account the type of processing to be performed and the content of the video sequence to be processed.
Par exemple, dans le cas où la séquence vidéo à compresser est un film de cinéma (par exemple dans le cadre d'une application de vidéo à la demande), la relation entre le(s) paramètre(s) de compression et le débit obtenu varie peu. En d'autres termes, les films présentent des caractéristiques sensiblement homogènes, au moins localement. De ce fait, il n'est pas nécessaire d'effectuer l'analyse sur tout le film car des sous-séquences de quelques secondes correctement réparties suffisent à fournir l'information nécessaire à la seconde passe.  For example, in the case where the video sequence to be compressed is a movie film (for example in the context of a video-on-demand application), the relationship between the compression parameter (s) and the bit rate obtained varies little. In other words, the films have substantially homogeneous characteristics, at least locally. Therefore, it is not necessary to perform the analysis on the entire film because sub-sequences of a few seconds correctly distributed enough to provide the necessary information for the second pass.
La séquence vidéo contenant un film peut par exemple être découpée en sous-séquences de durée égale à dix secondes, l'analyse n'étant effectuée que toutes les minutes de contenu, ce qui détermine l'écart entre deux sous-séquences voisines. Des résultats d'analyse (par exemple la complexité) pour les zones qui ne sont pas analysées peuvent être obtenus par extrapolation des résultats d'analyse des sous-séquences, ce qui introduit une imprécision qui pourra être compensée lors de la phase de traitement. Dans un ou plusieurs modes de réalisation, pour faciliter cette compensation et obtenir la taille requise, l'extrême fin de la séquence est complètement analysée, en choisissant une taille pour la dernière sous- séquence plus importante que celle des autres sous-séquences. Par exemple, la dernière sous-séquence peut être choisie correspondant aux dernières minutes de la séquence, dans le cas où le contenu de celle-ci est un film. Cette dernière séquence peut en particulier être composée des deux dernières minutes de la séquence, soit environ 3000 images. The video sequence containing a film may for example be cut into subsequences of duration equal to ten seconds, the analysis being performed only every minute of content, which determines the difference between two neighboring subsequences. Analysis results (for example complexity) for areas that are not analyzed can be obtained by extrapolation of the sub-sequence analysis results, which introduces an inaccuracy that can be compensated during the treatment phase. In one or more embodiments, to facilitate this compensation and to obtain the required size, the extreme end of the sequence is completely analyzed, choosing a size for the last subsequence larger than that of the other subsequences. For example, the last subsequence can be chosen corresponding to the last minutes of the sequence, in the case where the content thereof is a film. This last sequence can in particular be composed of the last two minutes of the sequence, ie about 3000 images.
Dans le cas d'un film de deux heures, le choix des paramètres de sous- échantillonnage proposé ci-dessus pour tenir compte du contenu de la séquence dans le cadre d'un traitement de compression (tailles des sous-séquences et écarts entre deux sous-séquences voisines) conduit à n'analyser qu'environ 22 minutes du film, soit 18% seulement des images. Le gain en termes de temps de calcul est donc d'environ 5.5.  In the case of a two-hour film, the choice of the sub-sampling parameters proposed above to take into account the content of the sequence as part of a compression process (sub-sequence sizes and differences between two neighboring sub-sequences) leads to analyze only about 22 minutes of the film, only 18% of the images. The gain in terms of calculation time is therefore about 5.5.
Des études sur des centaines de films de cinéma ont montré que cette méthode de découpage permettait d'obtenir une qualité indiscernable d'une analyse complète.  Studies of hundreds of film films have shown that this method of cutting allows for an indistinguishable quality of a complete analysis.
Dans un ou plusieurs modes de réalisation, il est en outre tenu compte d'un objectif de vitesse de l'analyse, de précision de l'analyse, ou d'un critère représentant un compromis entre la vitesse et la précision de l'analyse. Il est en effet possible de modifier la répartition des zones analysées pour accélérer encore la phase d'analyse, ou améliorer la précision de l'analyse. Par exemple, on détermine un compromis entre la vitesse de l'analyse et sa précision, et on modifie la répartition des sous-séquences déterminées en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo à traiter, selon que l'on souhaite privilégier la vitesse de l'analyse, ou la qualité de celle-ci.  In one or more embodiments, an objective of speed of the analysis, precision of the analysis, or a criterion representing a compromise between the speed and accuracy of the analysis is also taken into account. . It is indeed possible to modify the distribution of the zones analyzed to further accelerate the analysis phase, or improve the accuracy of the analysis. For example, a compromise is made between the speed of the analysis and its accuracy, and the distribution of the subsequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed is modified according to whether we want to focus on the speed of analysis, or the quality of it.
Lorsque la vitesse d'analyse est privilégiée, la durée respective des sous- séquences déterminée en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo à traiter peut être réduite, par exemple d'un facteur prédéterminé correspondant au gain de vitesse d'analyse recherché. Dans un exemple particulier de réalisation, ceci peut être obtenu en réduisant la durée des sous-séquences analysées de moitié, en réduisant par exemple la durée des sous-séquences de 10s à 5s.  When the analysis speed is preferred, the duration of the respective subsequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed can be reduced, for example by a predetermined factor corresponding to the gain. of analysis speed sought. In a particular embodiment, this can be achieved by reducing the duration of the sub-sequences analyzed by half, for example by reducing the duration of the subsequences from 10 s to 5 s.
A l'inverse, dans le cas où la précision de l'analyse est privilégiée, ce qui peut être rendu nécessaire lorsque les contenus sont très inhomogènes (comme c'est le cas par exemple de séquences d'images de télévision) la durée respective des sous-séquences déterminée en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo à traiter peut être augmentée, par exemple d'un facteur prédéterminé correspondant au gain de précision d'analyse recherché. Dans un exemple particulier de réalisation, ceci peut être obtenu en augmentant la durée des sous-séquences analysées ou en augmentant la durée de la sous-séquence finale. Conversely, in the case where the accuracy of the analysis is preferred, which may be necessary when the contents are very inhomogeneous (as is the case, for example, of television image sequences) the respective duration sub-sequences determined according to the type of processing to be performed and according to the content of the video sequence to be processed can be increased, for example by a predetermined factor corresponding to the gain of analysis accuracy sought. In a particular embodiment, this can be obtained by increasing the duration of the sub-sequences analyzed or by increasing the duration of the final sub-sequence.
Des modes de réalisation du procédé d'analyse d'une séquence vidéo peuvent être, au moins pour partie, mis en œuvre sur pratiquement n'importe quel type d'ordinateur, indépendamment de la plate-forme utilisée. Par exemple, comme cela est représenté sur la figure 6, un système informatique (600), qui peut correspondre aux unités d'analyse de séquence vidéo et de traitement de séquence vidéo représentées sur les figures 1 et 2 ou être couplé de manière opérationnelle à ces éléments, comprend une unité de traitement de données (601 ), qui comprend un ou plusieurs processeurs (602), comme une unité centrale (CPU) ou un autre processeur matériel, une mémoire associée (603) (par exemple, une mémoire vive (RAM), une mémoire cache, une mémoire flash, etc.), un dispositif de stockage (604) (par exemple un disque dur, un disque optique comme un CD ou un DVD, une clé de mémoire flash, etc.), et de nombreux autres éléments et fonctionnalités typiques des ordinateurs actuels (non représentés).  Embodiments of the method of analyzing a video sequence may be, at least in part, implemented on virtually any type of computer, regardless of the platform used. For example, as shown in Fig. 6, a computer system (600), which may correspond to the video sequence analysis and video sequence processing units shown in Figs. 1 and 2, or be operably coupled to these elements, comprises a data processing unit (601), which comprises one or more processors (602), such as a central processing unit (CPU) or another hardware processor, an associated memory (603) (for example, a random access memory (RAM), a cache memory, a flash memory, etc.), a storage device (604) (for example a hard disk, an optical disk such as a CD or a DVD, a flash memory key, etc.), and many other elements and features typical of current computers (not shown).
L'unité de traitement de données (601 ) comprend également un module d'interface entrées/sorties (605) qui pilote les différentes interfaces entre l'unité (601 ) et des moyens d'entrée et/ou de sorties du système (600). Le système (600) peut en effet également comprendre des moyens d'entrée, comme un clavier (606), une souris (607), ou un microphone (non représenté). En outre, l'ordinateur (600) peut comprendre des moyens de sortie, comme un moniteur (608) (par exemple, un moniteur d'affichage à cristaux liquides (LCD), un moniteur d'affichage à LEDs ou un moniteur à tube cathodique (CRT)). Le système informatique (600) peut être relié à un réseau (609) (par exemple, un réseau local (LAN), un réseau étendu (WAN) comme Internet, ou n'importe quel autre type similaire de réseau) par l'intermédiaire d'une connexion d'interface de réseau (non représentée). L'homme du métier peut se rendre compte qu'il existe de nombreux types différents de systèmes informatiques (par exemple, un ordinateur de bureau, un ordinateur portable, ou n'importe quel autre système informatique capable d'exécuter des instructions lisibles par ordinateur), et les moyens d'entrée et de sortie susmentionnés peuvent prendre d'autres formes, actuellement connues ou développées ultérieurement.  The data processing unit (601) also comprises an input / output interface module (605) which controls the different interfaces between the unit (601) and input and / or output means of the system (600). ). The system (600) may indeed also include input means, such as a keyboard (606), a mouse (607), or a microphone (not shown). Additionally, the computer (600) may include output means, such as a monitor (608) (for example, a liquid crystal display (LCD) monitor, an LED display monitor, or a tube monitor cathodic (CRT)). The computer system (600) can be connected to a network (609) (for example, a local area network (LAN), a wide area network (WAN) such as the Internet, or any other similar type of network) via a network interface connection (not shown). One skilled in the art may realize that there are many different types of computer systems (for example, a desktop computer, a laptop, or any other computer system capable of executing computer readable instructions. ), and the aforementioned input and output means may take other forms, currently known or developed later.
En général, le système informatique (600) comprend au moins les moyens minimaux de traitement, d'entrée et/ou de sortie nécessaires pour mettre en pratique un ou plusieurs modes de réalisation du procédé d'analyse proposé. Par exemple, le processeur (602) est apte à être configuré pour exécuter un programme d'ordinateur comprenant des portions de code pour la mise en œuvre d'un analyseur, configuré pour effectuer l'analyse d'une séquence vidéo fournie en entrée selon les différents mode de réalisation du procédé d'analyse proposé. Le dispositif de stockage (604) sera choisi de préférence apte à stocker les données correspondant aux résultats de l'analyse et du traitement de la séquence vidéo. In general, the computer system (600) comprises at least the minimal means of processing, input and / or output necessary to practice one or more embodiments of the proposed analysis method. For example, the processor (602) is adapted to be configured to execute a computer program including portions of code for implementation an analyzer, configured to perform the analysis of an input video sequence according to the different embodiments of the proposed analysis method. The storage device (604) will preferably be chosen to store the data corresponding to the results of the analysis and processing of the video sequence.
L'homme du métier peut se rendre compte qu'un ou plusieurs éléments du système informatique (600) susmentionné peuvent se trouver à un emplacement distant et être reliés à d'autres éléments sur un réseau. De plus, un ou plusieurs modes de réalisation peuvent être mis en œuvre sur un système distribué comportant une pluralité de nœuds, où chaque portion de la mise en œuvre peut être située sur un nœud différent à l'intérieur du système distribué. Dans un ou plusieurs modes de réalisation, le nœud correspond à un système informatique. En variante, le nœud peut correspondre à un processeur avec une mémoire physique associée. Le nœud peut également correspondre à un processeur avec une mémoire partagée et/ou des ressources partagées. En outre, des instructions logicielles pour effectuer un ou plusieurs modes de réalisation peuvent être stockées sur un support non transitoire lisible par ordinateur comme un disque compact (CD), une disquette, une bande, ou n'importe quel autre dispositif de stockage lisible par ordinateur.  Those skilled in the art may realize that one or more elements of the aforementioned computer system (600) may be at a remote location and be connected to other elements on a network. In addition, one or more embodiments may be implemented on a distributed system having a plurality of nodes, where each portion of the implementation may be located on a different node within the distributed system. In one or more embodiments, the node corresponds to a computer system. Alternatively, the node may correspond to a processor with associated physical memory. The node may also correspond to a processor with shared memory and / or shared resources. In addition, software instructions for performing one or more embodiments may be stored on a computer-readable non-transitory medium such as a compact disc (CD), floppy disk, tape, or any other readable storage device. computer.
En fonction du mode de réalisation choisi, certains actes, actions, événements ou fonctions de chacune des méthodes décrites dans le présent document peuvent être effectués ou se produire selon un ordre différent de celui dans lequel ils ont été décrits, ou peuvent être ajoutés, fusionnés ou bien ne pas être effectués ou ne pas se produire, selon le cas. En outre, dans certains modes de réalisation, certains actes, actions ou événements sont effectués ou se produisent concurremment et non pas successivement.  Depending on the embodiment chosen, certain acts, actions, events or functions of each of the methods described in this document may be performed or occur in a different order from that in which they were described, or may be added, merged or not to be performed or not to occur, as the case may be. In addition, in some embodiments, certain acts, actions or events are performed or occur concurrently and not successively.
Bien que décrits à travers un certain nombre d'exemples de réalisation détaillés, le procédé d'encodage proposé et l'équipement pour la mise en œuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l'homme de l'art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l'invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits ci-dessus peuvent être mis en œuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l'ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l'invention. En outre, il se peut que certains systèmes et équipements décrits ci-dessus n'incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés. Although described through a number of detailed exemplary embodiments, the proposed encoding method and equipment for implementing the method include various alternatives, modifications, and enhancements that will be apparent to the man of the art. art, it being understood that these various variants, modifications and improvements are within the scope of the invention, as defined by the following claims. In addition, various aspects and features described above may be implemented together, or separately, or substituted for each other, and all of the various combinations and sub-combinations of aspects and features are within the scope of the invention. 'invention. In addition, some of the systems and equipment described above may not incorporate all the modules and features described for the preferred embodiments.

Claims

REVENDICATIONS
1 . Procédé d'analyse d'un ensemble d'images d'une séquence vidéo en vue d'un traitement à effectuer sur la séquence, le procédé comprenant : déterminer dans la séquence vidéo une pluralité de sous-séquences consécutives disjointes d'une ou plusieurs images successives ; analyser les images de chaque sous-séquence déterminée dans la séquence vidéo ; dans lequel les sous-séquences sont déterminées en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo. 1. A method of analyzing a set of images of a video sequence for processing on the sequence, the method comprising: determining in the video sequence a plurality of consecutive subsequences disjoint from one or more successive images; analyzing the images of each subsequence determined in the video sequence; wherein the subsequences are determined according to the type of processing to be performed and the content of the video sequence.
2. Procédé selon la revendication 1 , dans lequel les tailles respectives des sous-séquences et les écarts respectifs entre deux sous-séquences voisines sont déterminés en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo. 2. Method according to claim 1, wherein the respective sizes of the subsequences and the respective gaps between two neighboring subsequences are determined according to the type of processing to be performed and according to the content of the video sequence.
3. Procédé selon la revendication 2, dans lequel, à l'exception de la dernière sous-séquence de la pluralité de sous-séquences consécutives, les sous- séquences ont une taille identique. The method of claim 2, wherein, except for the last subsequence of the plurality of consecutive subsequences, the subsequences have an identical size.
4. Procédé selon la revendication 3, dans lequel la taille de la dernière sous- séquence est choisie supérieure ou égale à la taille des autres sous- séquences. 4. The method of claim 3, wherein the size of the last subsequence is chosen greater than or equal to the size of the other subsequences.
5. Procédé selon l'une quelconque des revendications 2 à 4, dans lequel, à l'exception de l'écart entre la dernière sous-séquence de la pluralité de sous- séquences consécutives et la sous-séquence voisine de la dernière sous- séquence, les écarts respectifs entre deux sous-séquences voisines sont identiques. The method according to any one of claims 2 to 4, wherein, except for the difference between the last subsequence of the plurality of consecutive subsequences and the subsequence adjacent to the last sub-sequence. sequence, the respective gaps between two neighboring subsequences are identical.
Procédé selon la revendication 1 , comprenant en outre : générer, par extrapolation des résultats d'analyse des sous-séquences de la séquence vidéo, des résultats d'analyse de la séquence vidéo. The method of claim 1, further comprising: generating, by extrapolation of the sub-sequence analysis results of the video sequence, video sequence analysis results.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel au moins une des sous-séquences contient une seule image. The method of any one of the preceding claims, wherein at least one of the subsequences contains a single image.
8. Procédé selon l'une quelconque des revendications précédentes, dans lequel les sous-séquences sont en outre déterminées en fonction de la vitesse d'analyse ou de la précision de l'analyse. The method of any of the preceding claims, wherein the subsequences are further determined based on the analysis rate or the accuracy of the analysis.
Dispositif d'analyse d'un ensemble d'images d'une séquence vidéo en vue d'un traitement à effectuer sur la séquence, comprenant : An apparatus for analyzing a set of images of a video sequence for processing to be performed on the sequence, comprising:
- une interface d'entrée configurée pour recevoir la séquence vidéo ; an input interface configured to receive the video sequence;
- une unité d'analyse de séquence, comprenant un processeur couplé de manière opérationnelle à une mémoire, configurée pour : o déterminer dans la séquence vidéo une pluralité de sous- séquences consécutives disjointes d'une ou plusieurs images successives, en fonction du type de traitement à effectuer et en fonction du contenu de la séquence vidéo; o analyser les images de chaque sous-séquence déterminée dans la séquence vidéo. a sequence analysis unit, comprising a processor operatively coupled to a memory, configured to: determine in the video sequence a plurality of consecutive subsequences disjoint from one or more successive images, depending on the type of treatment to be performed and according to the content of the video sequence; o analyze the images of each subsequence determined in the video sequence.
10. Programme d'ordinateur, chargeable dans une mémoire associée à un processeur, et comprenant des portions de code pour la mise en œuvre des étapes d'un procédé selon l'une quelconque des revendications 1 à 8 lors de l'exécution dudit programme par le processeur. Computer program, loadable in a memory associated with a processor, and including portions of code for the implementation of the steps of a method according to any one of claims 1 to 8 during the execution of said program by the processor.
1 1 . Ensemble de données représentant, par exemple par voie de compression ou d'encodage, un programme d'ordinateur selon la revendication 10. 1 1. Data set representing, for example by compression or encoding, a computer program according to claim 10.
12. Support de stockage non-transitoire d'un programme exécutable par ordinateur, comprenant un ensemble de données représentant un ou plusieurs programmes, lesdits un ou plusieurs programmes comprenant des instructions pour, lors de l'exécution desdits un ou plusieurs programmes par un ordinateur comprenant une unité de traitement couplée de manière opérationnelle à des moyens mémoire et à un module d'interface entrées/sorties, conduire l'ordinateur à analyser les images d'une séquence vidéo selon le procédé de l'une quelconque des revendications 1 à 8. A non-transitory storage medium of a computer executable program, comprising a data set representing one or more programs, said one or more programs including instructions for, when executing said one or more programs by a computer comprising a processing unit operatively coupled to memory means and an input / output interface module, driving the computer to analyze the images of a video sequence according to the method of any one of claims 1 to 8 .
EP16721199.4A 2015-04-28 2016-04-20 Method for analysing a video sequence and equipment for implementing said method Ceased EP3289763A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1553792A FR3035729B1 (en) 2015-04-28 2015-04-28 METHOD OF ANALYSIS OF A VIDEO SEQUENCE AND EQUIPMENT FOR THE IMPLEMENTATION OF THE PROCESS
PCT/FR2016/050911 WO2016174329A1 (en) 2015-04-28 2016-04-20 Method for analysing a video sequence and equipment for implementing said method

Publications (1)

Publication Number Publication Date
EP3289763A1 true EP3289763A1 (en) 2018-03-07

Family

ID=53404776

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16721199.4A Ceased EP3289763A1 (en) 2015-04-28 2016-04-20 Method for analysing a video sequence and equipment for implementing said method

Country Status (4)

Country Link
US (1) US10742987B2 (en)
EP (1) EP3289763A1 (en)
FR (1) FR3035729B1 (en)
WO (1) WO2016174329A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6838201B2 (en) * 2017-09-22 2021-03-03 ドルビー ラボラトリーズ ライセンシング コーポレイション Backward compatibility Display management metadata compression

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0715854B1 (en) 1994-11-11 2003-09-10 Debiopharm S.A. Carcinostatic compositions containing cis-oxaliplatinum and one or more other compatible carcinostatic substances
US6892193B2 (en) * 2001-05-10 2005-05-10 International Business Machines Corporation Method and apparatus for inducing classifiers for multimedia based on unified representation of features reflecting disparate modalities
US6993535B2 (en) * 2001-06-18 2006-01-31 International Business Machines Corporation Business method and apparatus for employing induced multimedia classifiers based on unified representation of features reflecting disparate modalities
CN101189882B (en) 2004-07-20 2012-08-01 高通股份有限公司 Method and apparatus for encoder assisted-frame rate up conversion (EA-FRUC) for video compression
US8031777B2 (en) * 2005-11-18 2011-10-04 Apple Inc. Multipass video encoding and rate control using subsampling of frames
US20100027622A1 (en) 2006-10-25 2010-02-04 Gokce Dane Methods and apparatus for efficient first-pass encoding in a multi-pass encoder
US9667964B2 (en) 2011-09-29 2017-05-30 Dolby Laboratories Licensing Corporation Reduced complexity motion compensated temporal processing
KR20150080278A (en) * 2013-12-31 2015-07-09 주식회사 케이티 Apparatus for providing advertisement content and video content and method thereof

Also Published As

Publication number Publication date
WO2016174329A1 (en) 2016-11-03
FR3035729B1 (en) 2020-11-27
US10742987B2 (en) 2020-08-11
FR3035729A1 (en) 2016-11-04
US20180302627A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
EP3225029B1 (en) Image encoding method and equipment for implementing the method
EP3490255B1 (en) Intelligent compression of grainy video content
FR2912237A1 (en) IMAGE PROCESSING METHOD
FR3098072A1 (en) Process for processing a set of images from a video sequence
EP3340169B1 (en) Hybrid image and video denoising based on interest metrics
FR3088755A1 (en) METHOD FOR UNFLOUTING AN IMAGE
EP3571834A1 (en) Adaptive generation of a high dynamic range image of a scene, on the basis of a plurality of images obtained by non-destructive reading of an image sensor
WO2013068687A1 (en) Method and device for estimating a degree of porosity of a sample of material on the basis of at least one image coded by grey levels
EP3449634A1 (en) Method for the contextual composition of an intermediate video representation
EP3289763A1 (en) Method for analysing a video sequence and equipment for implementing said method
FR3002062A1 (en) SYSTEM AND METHOD FOR DYNAMICALLY REDUCING ENTROPY OF A SIGNAL BEFORE A DATA COMPRESSION DEVICE.
EP2887307B1 (en) Image-processing method, in particular for images from night-vision systems and associated system
EP3797509B1 (en) Processing of impulse noise in a video sequence
FR2934453A1 (en) ERROR MASKING METHOD AND DEVICE
EP2943935B1 (en) Estimation of the movement of an image
EP4150574B1 (en) Method for processing images
FR3102026A1 (en) SEMANTICALLY SEGMENTED VIDEO IMAGE COMPRESSION
FR3020736A1 (en) METHOD FOR QUALITY EVALUATION OF A SEQUENCE OF DIGITAL DECODE DIGITAL IMAGES, ENCODING METHOD, DEVICES AND COMPUTER PROGRAMS
FR2916879A1 (en) DEVICE AND METHOD FOR PROCESSING IMAGES TO DETERMINE A SIGNATURE OF A FILM.
FR2957744A1 (en) METHOD FOR PROCESSING A VIDEO SEQUENCE AND ASSOCIATED DEVICE
FR3123734A1 (en) Pixel data processing method, device and corresponding program
WO2015155373A1 (en) Method for calibrating a digital imager
FR3116364A1 (en) Visualization aid solution to simulate a self-exposure process
WO2022263297A1 (en) Methods and devices for decoding at least part of a data stream, computer program and associated data streams
FR3103302A1 (en) IMAGE SEGMENTATION BY OPTICAL FLOW

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20171013

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20180828

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20211111