FR3132369A1 - Methods for transmitting and receiving a mask for watermarking an image - Google Patents

Methods for transmitting and receiving a mask for watermarking an image Download PDF

Info

Publication number
FR3132369A1
FR3132369A1 FR2200830A FR2200830A FR3132369A1 FR 3132369 A1 FR3132369 A1 FR 3132369A1 FR 2200830 A FR2200830 A FR 2200830A FR 2200830 A FR2200830 A FR 2200830A FR 3132369 A1 FR3132369 A1 FR 3132369A1
Authority
FR
France
Prior art keywords
mask
image
perceptual
images
msr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2200830A
Other languages
French (fr)
Inventor
Valérie DENIS
Gaëtan Le Guelvouit
Gilles Dubroeucq
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fondation B Com
Original Assignee
Viaccess SAS
Fondation B Com
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Viaccess SAS, Fondation B Com filed Critical Viaccess SAS
Priority to FR2200830A priority Critical patent/FR3132369A1/en
Priority to PCT/EP2023/051673 priority patent/WO2023144138A1/en
Publication of FR3132369A1 publication Critical patent/FR3132369A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/3232Robust embedding or watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91307Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
    • H04N2005/91335Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal the copy protection signal being a watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark

Abstract

L’invention porte sur un procédé d’émission de données représentatives d’un masque pour le tatouage d’une image comprise dans un ensemble comprenant au moins cette image, comprenant les étapes suivantes:- une étape de définition (E1) d’une répartition géométrique, comprenant R régions bidimensionnelles, au moyen d’au moins une segmentation d’une composante de luminance construite sur la base d’au moins une image dudit ensemble, - une étape d’attribution (E2) d’un coefficient à chaque région bidimensionnelle,- une étape d’envoi (E3) de données représentatives du masque comprenant une partie au moins des coefficients. Un procédé de réception de données représentatives d’un masque est également décrit. Figure pour l’abrégé : Fig. 1 The invention relates to a method for transmitting data representative of a mask for watermarking an image included in a set comprising at least this image, comprising the following steps:- a step of defining (E1) a geometric distribution, comprising R two-dimensional regions, by means of at least one segmentation of a luminance component constructed on the basis of at least one image of said set, - a step of allocating (E2) a coefficient to each two-dimensional region,- a step of sending (E3) data representative of the mask comprising at least part of the coefficients. A method of receiving data representative of a mask is also described. Figure for abstract: Fig. 1

Description

Procédés d’émission et de réception d’un masque pour le tatouage d’une imageMethods for transmitting and receiving a mask for watermarking an image Domaine technique de l'inventionTechnical field of the invention

La présente invention concerne de manière générale le domaine technique du tatouage numérique d’une image ou d’une séquence vidéo.The present invention generally relates to the technical field of digital watermarking of an image or video sequence.

Elle concerne en particulier un procédé d’émission de données représentatives d’un masque pour le tatouage d’une image et un procédé de réception associé.It concerns in particular a method for transmitting data representative of a mask for watermarking an image and an associated reception method.

Etat de la techniqueState of the art

La technique de tatouage numérique de contenus audiovisuels consiste à insérer dans ceux-ci une information, appelée tatouage ou marque. Un des buts de cette technique est par exemple d’identifier l’auteur du contenu audiovisuel tatoué.The technique of digital watermarking of audiovisual content consists of inserting information into them, called watermarking or branding. One of the goals of this technique is, for example, to identify the author of the tattooed audiovisual content.

Dans le cadre de la vidéo à la demande (VoD), les contenus audiovisuels peuvent être analysés à l’avance et un tatouage numérique des contenus audiovisuels peut être réalisé sur le terminal récepteur. Cette configuration peut être exploitée pour créer des marques adaptées au contenu audiovisuel, par l’utilisation de masques perceptuels. Le concept de masque perceptuel est par exemple décrit dans l’article «Efficient Spatial Image Watermarking via New Perceptual Masking and Blind Detection Schemes», de Karybali dans IEEE Transactions on Information Forensics and Security (Juin 2006). Les masques perceptuels sont construits à partir d’informations d’activité dans les contenus audiovisuels et permettent d’ajuster la transparence des marques insérées. La transparence caractérise la façon dont l’insertion de la marque altère la perception du contenu audiovisuel lu par un utilisateur, et contribue à la qualité de la vidéo tatouée.In the context of video on demand (VoD), audiovisual content can be analyzed in advance and a digital watermark of the audiovisual content can be produced on the receiving terminal. This configuration can be exploited to create marks adapted to audiovisual content, through the use of perceptual masks. The concept of perceptual mask is for example described in the article “ Efficient Spatial Image Watermarking via New Perceptual Masking and Blind Detection Schemes ”, by Karybali in IEEE Transactions on Information Forensics and Security (June 2006). Perceptual masks are constructed from activity information in audiovisual content and make it possible to adjust the transparency of the inserted marks. Transparency characterizes the way in which the insertion of the brand alters the perception of the audiovisual content read by a user, and contributes to the quality of the watermarked video.

Dans le cas où le tatouage numérique est réalisé sur le terminal récepteur, la taille des données envoyées pour le tatouage représente un paramètre important dans le compromis recherché entre efficacité de transmission et qualité du tatouage.In the case where the digital watermarking is carried out on the receiving terminal, the size of the data sent for the watermarking represents an important parameter in the compromise sought between transmission efficiency and quality of the watermarking.

Présentation de l'inventionPresentation of the invention

Dans ce contexte, la présente invention propose un procédé d’émission de données représentatives d’un masque pour le tatouage d’une image (de taille M0xN0pixels) comprise dans un ensemble comprenant au moins cette image, le procédé comprenant les étapes suivantes:
- une étape de définition d’une répartition géométrique, comprenant R régions bidimensionnelles, au moyen d’au moins une segmentation d’une composante de luminance construite sur la base d’au moins une image dudit ensemble,
- une étape d’attribution d’un coefficient à chaque région bidimensionnelle,
- une étape d’envoi de données représentatives du masque M comprenant une partie au moins des coefficients.
In this context, the present invention proposes a method for transmitting data representative of a mask for watermarking an image (of size M 0 xN 0 pixels) included in a set comprising at least this image, the method comprising the following steps:
- a step of defining a geometric distribution, comprising R two-dimensional regions, by means of at least one segmentation of a luminance component constructed on the basis of at least one image of said set,
- a step of assigning a coefficient to each two-dimensional region,
- a step of sending data representative of the mask M comprising at least part of the coefficients.

Grâce à la segmentation en régions bidimensionnelles et à l’attribution d’un coefficient à ces régions bidimensionnelles, on définit un masque perceptuel segmenté qui offre la possibilité d’envoyer une quantité d’informations réduite pour réaliser le tatouage de l’image sur un terminal récepteur tout en garantissant l’efficacité du tatouage.Thanks to the segmentation into two-dimensional regions and the assignment of a coefficient to these two-dimensional regions, we define a segmented perceptual mask which offers the possibility of sending a reduced quantity of information to carry out the watermarking of the image on a receiving terminal while guaranteeing the effectiveness of the tattoo.

Dans un mode de réalisation, le coefficient est déterminé en fonction de paramètres statistiques de l’image I dans la région bidimensionnelle.In one embodiment, the coefficient is determined as a function of statistical parameters of the image I in the two-dimensional region.

Par exemple, le coefficient est calculé en fonction de coefficients contenus dans un masque perceptuel (de taille M0xN0pixels) et relatifs à la région bidimensionnelle.For example, the coefficient is calculated as a function of coefficients contained in a perceptual mask (of size M 0 xN 0 pixels) and relating to the two-dimensional region.

Dans un mode de réalisation, les paramètres statistiques de l’image sont déterminés sur la base d’au moins un procédé de traitement d’images choisi parmi un filtre de Laplace, un calcul de variance, un calcul de transformée de Fourier ou un calcul de motifs binaires locaux.In one embodiment, the statistical parameters of the image are determined based on at least one image processing method chosen from a Laplace filter, a variance calculation, a Fourier transform calculation or a calculation of local binary patterns.

Dans un mode de réalisation, les données représentatives du masque envoyées à l’étape d’envoi comprennent seulement les coefficients respectivement attribués à une fraction des pixels du masque lors de l’étape d’attribution.In one embodiment, the data representative of the mask sent to the sending step includes only the coefficients respectively assigned to a fraction of the pixels of the mask during the assignment step.

Dans un mode de réalisation :In one embodiment:

- l’étape d’attribution comprend la formation d’un masque segmenté dans lequel chaque pixel a pour valeur le coefficient attribué à la région bidimensionnelle comprenant ledit pixel,
- le procédé comprend une étape de sous-échantillonnage dudit masque segmenté en un masque segmenté sous-échantillonné comprenant une partie au moins des coefficients,
- les données représentatives envoyées à l’étape d’envoi correspondent à la partie au moins des coefficients.
- the allocation step includes the formation of a segmented mask in which each pixel has the value of the coefficient assigned to the two-dimensional region comprising said pixel,
- the method comprises a step of subsampling said segmented mask into a subsampled segmented mask comprising at least part of the coefficients,
- the representative data sent to the sending step correspond to at least part of the coefficients.

Dans un mode de réalisation, les données représentatives du masque envoyées à l’étape d’envoi comprennent des données définissant une partie au moins desdites régions bidimensionnelles.In one embodiment, the data representative of the mask sent to the sending step comprises data defining at least part of said two-dimensional regions.

Par exemple, les données définissant une partie au moins desdites régions bidimensionnelles comprennent une pluralité de listes de points déterminant les contours fermés d’une partie au moins des R régions bidimensionnelles.For example, the data defining at least part of said two-dimensional regions comprise a plurality of lists of points determining the closed contours of at least part of the R two-dimensional regions.

Dans un mode de réalisation, l’image appartient à une tranche d’images d’un paquet vidéo.In one embodiment, the image belongs to a slice of images of a video packet.

Dans un mode de réalisation :
- lors de l’étape de définition, l’au moins une segmentation comprend P segmentations Sp de P composantes de luminance, chaque composante de luminance étant construite sur la base d’une parmi P séquences d’images ECHp du paquet vidéo, lesdites P séquences d’images ECHp ayant une longueur inférieure ou égale à la longueur de la tranche d’images,
- l’étape de définition comprend en outre la sélection d’une segmentation définie Sd parmi les P segmentations Sp, les R régions bidimensionnelles étant issues de la segmentation définie Sd,
- lors de l’étape d’attribution, le coefficient est égal à la moyenne des valeurs des pixels de la région bidimensionnelle d’un masque défini Md déterminé sur la base de la séquence d’images Ed correspondant à la segmentation définie Sd.
In one embodiment:
- during the definition step, the at least one segmentation comprises P segmentations Sp of P luminance components, each luminance component being constructed on the basis of one among P ECHp image sequences of the video packet, said P ECHp image sequences having a length less than or equal to the length of the image slice,
- the definition step further comprises the selection of a defined segmentation Sd among the P segmentations Sp, the R two-dimensional regions coming from the defined segmentation Sd,
- during the allocation step, the coefficient is equal to the average of the pixel values of the two-dimensional region of a defined mask Md determined on the basis of the sequence of images Ed corresponding to the defined segmentation Sd.

Par exemple, lors de l’étape de définition, la segmentation définie Sd parmi les P segmentations Sp correspond à une erreur minimale parmi P erreurs calculées, pour chaque séquence d’images ECHp, entre un masque perceptuel de référence de la séquence d’images et un masque perceptuel segmenté de la séquence d’images ECHp.For example, during the definition step, the defined segmentation Sd among the P segmentations Sp corresponds to a minimum error among P errors calculated, for each sequence of images ECHp, between a reference perceptual mask of the sequence of images and a segmented perceptual mask of the ECHp image sequence.

Par exemple :
- les pixels d’un masque perceptuel de référence d’une séquence d’images ECHp ont pour valeur la valeur minimale des pixels correspondants de masques perceptuels calculés sur la base de chacune des images de la séquence d’images ECHp,
- chaque masque perceptuel est calculé à partir de paramètres statistiques d’une image de la séquence d’images,
- pour chaque masque perceptuel segmenté d’une séquence d’images ECHp, les pixels de chaque zone définie par la segmentation Sp (correspondant à la séquence d’images ECHp) ont pour valeur la moyenne des valeurs des pixels du masque perceptuel de référence dans ladite zone.
For example :
- the pixels of a reference perceptual mask of a sequence of images ECHp have as value the minimum value of the corresponding pixels of perceptual masks calculated on the basis of each of the images of the sequence of images ECHp,
- each perceptual mask is calculated from statistical parameters of an image of the image sequence,
- for each segmented perceptual mask of a sequence of images ECHp, the pixels of each zone defined by the segmentation Sp (corresponding to the sequence of images ECHp) have the value of the average of the values of the pixels of the reference perceptual mask in said area.

Par exemple, le masque défini correspond au masque perceptuel de référence de la séquence d’images correspondant à la segmentation définie.For example, the defined mask corresponds to the reference perceptual mask of the image sequence corresponding to the defined segmentation.

Un autre aspect de l’invention porte sur un procédé d’émission de données représentatives d’un masque pour le tatouage d’une image (de taille M0xN0pixels) comprenant les étapes suivantes:
- une étape de définition d’une répartition géométrique, comprenant R régions bidimensionnelles, au moyen d’au moins une segmentation du masque,
- une étape d’attribution d’un coefficient à chaque région bidimensionnelle,
- une étape d’envoi de données représentatives du masque comprenant une partie au moins des coefficients.
Another aspect of the invention relates to a method for transmitting data representative of a mask for watermarking an image (of size M 0 xN 0 pixels) comprising the following steps:
- a step of defining a geometric distribution, comprising R two-dimensional regions, by means of at least one segmentation of the mask,
- a step of assigning a coefficient to each two-dimensional region,
- a step of sending data representative of the mask comprising at least part of the coefficients.

Un autre aspect de l’invention porte sur un procédé de réception de données représentatives d’un masque (de taille M0xN0pixels) pour le tatouage d’une image (de taille M0xN0pixels) comprenant les étapes suivantes :
- une étape de réception de données représentatives d’un masque segmenté (de taille MxN pixels inférieur à M0xN0pixels défini par une répartition géométrique comprenant R régions bidimensionnelles), lesdites données représentatives comprenant une pluralité de coefficients (associés à une partie au moins des R régions bidimensionnelles),
- une étape de reconstruction du masque sur la base des coefficients,
- une étape d’obtention d’une marque pondérée par application du masque à une marque (de taille M0xN0),
- une étape de tatouage de l’image par application de la marque pondérée à l’image.
Another aspect of the invention relates to a method for receiving data representative of a mask (of size M 0 xN 0 pixels) for watermarking an image (of size M 0 xN 0 pixels) comprising the following steps:
- a step of receiving data representative of a segmented mask (of size MxN pixels less than M 0 xN 0 pixels defined by a geometric distribution comprising R two-dimensional regions), said representative data comprising a plurality of coefficients (associated with a part at minus R two-dimensional regions),
- a step of reconstructing the mask on the basis of the coefficients,
- a step of obtaining a weighted mark by applying the mask to a mark (of size M 0 xN 0 ),
- a step of watermarking the image by applying the weighted mark to the image.

Dans un mode de réalisation, l’étape de reconstruction du masque comprend l’attribution des coefficients à des zones de pixels comprenant au moins un pixel.In one embodiment, the mask reconstruction step includes assigning coefficients to areas of pixels comprising at least one pixel.

Dans un mode de réalisation :
- les données représentatives du masque segmenté comprennent en outre des données définissant des régions bidimensionnelles,
- l’étape de reconstruction du masque comprend le tracé des régions bidimensionnelles sur la base des données définissant les régions bidimensionnelles et l’attribution d’un coefficient à chacune des régions bidimensionnelles.
In one embodiment:
- the data representative of the segmented mask further comprises data defining two-dimensional regions,
- the mask reconstruction step includes drawing the two-dimensional regions on the basis of the data defining the two-dimensional regions and assigning a coefficient to each of the two-dimensional regions.

Dans un mode de réalisation :In one embodiment:

- les données représentatives du masque segmenté comprennent en outre une pluralité de listes de points définissant les contours fermés de régions bidimensionnelles,- the data representative of the segmented mask further comprises a plurality of lists of points defining the closed contours of two-dimensional regions,

- l’étape de reconstruction du masque comprend le tracé des régions bidimensionnelles au moyen de la pluralité de listes de points et l’attribution d’un coefficient à chacune des régions bidimensionnelles.- the step of reconstructing the mask includes drawing the two-dimensional regions by means of the plurality of lists of points and assigning a coefficient to each of the two-dimensional regions.

Par exemple :
- l’image appartient à une tranche d’images d’un paquet vidéo,
- le masque est commun aux images de la tranche d’images.
For example :
- the image belongs to a slice of images of a video packet,
- the mask is common to the images in the image slice.

Bien entendu, les différentes caractéristiques, variantes et formes de réalisation de l'invention peuvent être associées les unes avec les autres selon diverses combinaisons dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.Of course, the different characteristics, variants and embodiments of the invention can be associated with each other in various combinations as long as they are not incompatible or exclusive of each other.

Description détaillée de l'inventionDetailed description of the invention

De plus, diverses autres caractéristiques de l'invention ressortent de la description annexée effectuée en référence aux dessins qui illustrent des formes, non limitatives, de réalisation de l'invention et où :
- représente les différentes étapes du procédé d’émission de données représentatives d’un masque selon l’invention ;
- représente les différentes étapes d’un premier mode de réalisation du procédé d’émission de données représentatives d’un masque selon l’invention ;
- représente un exemple de masque perceptuel, de segmentation et de masque réduit obtenu par le premier mode de réalisation du procédé d’émission selon l’invention ;
- représente les différentes étapes d’un second mode de réalisation du procédé d’émission de données représentatives d’un masque selon l’invention ;
- représente les sous-étapes d’une étape du second mode de réalisation du procédé d’émission selon l’invention ;
- représente les différentes étapes du procédé de réception de données représentatives d’un masque selon l’invention.
In addition, various other characteristics of the invention emerge from the appended description made with reference to the drawings which illustrate non-limiting forms of embodiment of the invention and where:
- represents the different stages of the method for transmitting data representative of a mask according to the invention;
- represents the different stages of a first embodiment of the method for transmitting data representative of a mask according to the invention;
- represents an example of perceptual mask, segmentation and reduced mask obtained by the first embodiment of the emission method according to the invention;
- represents the different stages of a second embodiment of the method for transmitting data representative of a mask according to the invention;
- represents the sub-steps of a step of the second embodiment of the transmission method according to the invention;
- represents the different stages of the method of receiving data representative of a mask according to the invention.

On se place ici dans le contexte de la vidéo à la demande (VoD) où les contenus audiovisuels peuvent être analysés à l’avance, mais la solution proposée ici peut s’appliquer également à d’autres situations, par exemple au contexte télévisuel en adaptant le procédé selon l’invention qui va être décrit ci-après. Elle peut également s’appliquer au cas une image unique.We place ourselves here in the context of video on demand (VoD) where audiovisual content can be analyzed in advance, but the solution proposed here can also be applied to other situations, for example to the television context in adapting the process according to the invention which will be described below. It can also be applied to the case of a single image.

Dans ce qui suit, on présente le principe suivi dans le cadre de la présente invention dans le but final de tatouer, par un terminal récepteur, une séquence vidéo reçue par ce terminal récepteur. Par « tatouer », il est entendu l’insertion d’un motif dans chaque image contenue dans la séquence vidéo. Comme il va être décrit par la suite, le motif correspond à une marque par exemple constante modulée par un masque perceptuel. La marque permet par exemple d’identifier l’auteur de la séquence vidéo ou le terminal récepteur sur lequel la séquence vidéo a été décodée. On suppose que la séquence vidéo a été sélectionnée par un utilisateur du terminal récepteur dans une bibliothèque de séquences vidéo disponible sur un dispositif serveur. Le dispositif serveur envoie alors la séquence vidéo sélectionnée au terminal récepteur par paquets d’images (« chunks » en anglais) via un réseau tel qu’Internet ou un réseau téléphonique de troisième génération. Les images formant la séquence vidéo sélectionnée ont une taille de M0xN0 pixels. Chaque paquet d’images est envoyé accompagné de métadonnées qui vont servir notamment au tatouage, par le terminal récepteur, du paquet d’images.In what follows, we present the principle followed in the context of the present invention with the final aim of watermarking, by a receiving terminal, a video sequence received by this receiving terminal. By “watermarking” is meant the insertion of a pattern into each image contained in the video sequence. As will be described subsequently, the pattern corresponds to a constant mark, for example, modulated by a perceptual mask. The brand makes it possible, for example, to identify the author of the video sequence or the receiving terminal on which the video sequence was decoded. It is assumed that the video sequence has been selected by a user of the receiving terminal from a library of video sequences available on a server device. The server device then sends the selected video sequence to the receiving terminal in image packets (“chunks” in English) via a network such as the Internet or a third generation telephone network. The images forming the selected video sequence have a size of M0xN0 pixels. Each image packet is sent accompanied by metadata which will be used in particular for watermarking, by the receiving terminal, of the image packet.

On va décrire un procédé d’émission de données représentatives d’un masque MS pour le tatouage, par un terminal récepteur, d’une image comprise dans une séquence vidéo reçue par ce terminal récepteur.We will describe a method for transmitting data representative of an MS mask for watermarking, by a receiving terminal, of an image included in a video sequence received by this receiving terminal.

Le terminal récepteur reçoit la séquence vidéo par paquet d’images. Chaque paquet d’images est découpé en K tranches d’images (« slice » en anglais) successives. Par exemple, la durée du paquet d’images est de 10 secondes. Par exemple, la durée d’une tranche d’images est de 2 secondes. Les données représentatives du masque MS vont être utilisées pour le tatouage de l’ensemble des images d’une tranche d’images.The receiving terminal receives the video sequence in packets of images. Each image packet is cut into K successive slices of images. For example, the duration of the image packet is 10 seconds. For example, the duration of a slice of images is 2 seconds. The data representative of the MS mask will be used for watermarking all the images of a slice of images.

On considère un paquet d’images S de la séquence vidéo reçu, accompagné de métadonnées MT, par le terminal récepteur, et plus particulièrement une tranche d’images T de ce paquet d’images.We consider a packet of images S of the video sequence received, accompanied by metadata MT, by the receiving terminal, and more particularly a slice of images T of this packet of images.

Le procédé d’émission de données représentatives du masque MS pour le tatouage des images de la tranche d’images T comprend, comme illustré sur la , les étapes suivantes :
- une étape de définition E1 d’une répartition géométrique RG, comprenant R régions bidimensionnelles Zr, au moyen d’au moins une segmentation d’une composante de luminance construite sur la base d’une image de référence I de la tranche d’images T,
- une étape d’attribution E2 d’un coefficient MSr à chaque région bidimensionnelle Zr,
- une étape d’envoi E3 de données représentatives du masque M comprenant une partie au moins des coefficients MSr.
The method of transmitting data representative of the mask MS for watermarking the images of the image slice T comprises, as illustrated in the , the following steps:
- a step of defining E1 of a geometric distribution RG, comprising R two-dimensional regions Zr, by means of at least one segmentation of a luminance component constructed on the basis of a reference image I of the slice of images T,
- a step E2 of assigning a coefficient MSr to each two-dimensional region Zr,
- a step E3 of sending data representative of the mask M comprising at least part of the coefficients MSr.

Dans ce qui va suivre, on va décrire la préparation des métadonnées MT accompagnant le paquet d’images S. Ces métadonnées MT sont préparées préalablement à la transmission du paquet d’images S au terminal récepteur. Les métadonnées MT décrites définissent le masque M, mais d’autres métadonnées pourraient être utilisées en pratique pour d’autres motifs.In what follows, we will describe the preparation of the MT metadata accompanying the image packet S. These MT metadata are prepared prior to transmission of the image packet S to the receiving terminal. The described MT metadata defines the M mask, but other metadata could be used in practice for other purposes.

La illustre les étapes constituant un premier mode de réalisation de la préparation des métadonnées MT.There illustrates the steps constituting a first embodiment of the preparation of MT metadata.

Dans ce premier mode de réalisation, l’image de référence I est par exemple la première image de la tranche d’images T. Dans une variante, l’image de référence I correspond à un changement de scène identifié dans la tranche d’images T.In this first embodiment, the reference image I is for example the first image of the image slice T. In a variant, the reference image I corresponds to a change of scene identified in the image slice T.

Dans une étape E0a, un masque perceptuel est calculé en correspondance avec l’image de référence I de la tranche d’images T du paquet d’images S. Par masque perceptuel, on entend une matrice de taille M0xN0 dont les coefficients représentent une mesure de l’activité de l’image de référence I correspondante. Par exemple, le masque perceptuel est calculé par application d’un filtre de Laplace à l’image de référence I. Dans un autre exemple, un calcul de variance peut être effectué pour obtenir le masque perceptuel. D’autres techniques, seules ou combinées, peuvent être utilisées pour obtenir le masque perceptuel, comme la détection de zones à haute fréquence (par mesure de la variance locale des pixels, ou par transformée de Fourier), la qualification de texture par motifs binaires locaux. De préférence, le masque perceptuel d’une image de référence est calculé sur la base des trois composantes chromatiques de l’image de référence.In a step E0a, a perceptual mask is calculated in correspondence with the reference image I of the image slice T of the image packet S. By perceptual mask, we mean a matrix of size M0xN0 whose coefficients represent a measurement of the activity of the corresponding reference image I. For example, the perceptual mask is calculated by applying a Laplace filter to the reference image I. In another example, a variance calculation can be carried out to obtain the perceptual mask. Other techniques, alone or combined, can be used to obtain the perceptual mask, such as the detection of high frequency zones (by measuring the local variance of the pixels, or by Fourier transform), texture qualification by binary patterns local. Preferably, the perceptual mask of a reference image is calculated on the basis of the three chromatic components of the reference image.

Dans une étape E2a, une segmentation de l’image de référence I est réalisée. De préférence, la segmentation est réalisée sur une composante de luminance de l’image de référence I. Différents types d’algorithme peuvent être utilisés pour réaliser la segmentation, par exemple l’algorithme SLIC, l’algorithme Watershed, l’algorithme Quick Shift, ou encore l’algorithme Random Walker. La segmentation de l’image de référence I produit une partition en R régions bidimensionnelles Zr d’une matrice de taille M0xN0. Cette étape E2a correspond à l’étape de définition E1 de la répartition géométrique RG du procédé d’émission selon l’invention. La répartition géométrique RG correspond à la partition provenant de la segmentation de l’image de référence I.In a step E2a, a segmentation of the reference image I is carried out. Preferably, the segmentation is carried out on a luminance component of the reference image I. Different types of algorithm can be used to carry out the segmentation, for example the SLIC algorithm, the Watershed algorithm, the Quick Shift algorithm. , or the Random Walker algorithm. The segmentation of the reference image I produces a partition into R two-dimensional regions Zr of a matrix of size M0xN0. This step E2a corresponds to the step of defining E1 of the geometric distribution RG of the emission method according to the invention. The geometric distribution RG corresponds to the partition coming from the segmentation of the reference image I.

Dans une étape E4a, un masque perceptuel segmenté est obtenu de la manière suivante. Le masque perceptuel segmenté est une matrice de taille M0xN0 dont les coefficients sont égaux, pour une région bidimensionnelle parmi les R régions bidimensionnelles de la partition obtenue à l’étape E2a, à la moyenne des valeurs du masque perceptuel dans la région bidimensionnelle considérée. Cette étape E4a correspond à l’étape d’attribution E2 d’un coefficient MSr à chaque région bidimensionnelle Zr. Plus précisément, chaque coefficient MSr est égal à la moyenne des valeurs du masque perceptuel dans la région bidimensionnelle Zr.In a step E4a, a segmented perceptual mask is obtained in the following manner. The segmented perceptual mask is a matrix of size M0xN0 whose coefficients are equal, for a two-dimensional region among the R two-dimensional regions of the partition obtained in step E2a, to the average of the values of the perceptual mask in the two-dimensional region considered. This step E4a corresponds to the step E2 of assigning a coefficient MSr to each two-dimensional region Zr. More precisely, each coefficient MSr is equal to the average of the values of the perceptual mask in the two-dimensional region Zr.

Dans une étape E6a, la taille du masque perceptuel segmenté est réduite par sous-échantillonnage, pour former un masque réduit de taille MxN pixels inférieure à M0xN0 pixels. Par exemple, le masque réduit est 5 fois plus petit que le masque perceptuel segmenté dans chaque dimension. Autrement dit, M0 est égal à Mx5 et N0 est égal à Nx5. De manière plus générale, les dimensions du masque réduit sont plus petites que celle du masque perceptuel segmenté. Par exemple, M0 est égal à kxM avec k un nombre entier strictement supérieur à 2 et N0 est égal à k’xN avec k’ un nombre entier strictement supérieur à 2. Par exemple, le masque réduit a une taille de 96x40 pixels. Puis, le masque réduit est encodé en un format dédié, par exemple en format base64, pour sa transmission. Le format base64 permet de représenter n’importe quelles données binaires en caractères alphanumériques. Ce format permet ainsi le transport de blocs de données binaires via par exemple le protocole http en utilisant des conteneurs xml ou html.In a step E6a, the size of the segmented perceptual mask is reduced by subsampling, to form a reduced mask of size MxN pixels less than M0xN0 pixels. For example, the reduced mask is 5 times smaller than the segmented perceptual mask in each dimension. In other words, M0 is equal to Mx5 and N0 is equal to Nx5. More generally, the dimensions of the reduced mask are smaller than that of the segmented perceptual mask. For example, M0 is equal to kxM with k an integer strictly greater than 2 and N0 is equal to k’xN with k’ an integer strictly greater than 2. For example, the reduced mask has a size of 96x40 pixels. Then, the reduced mask is encoded in a dedicated format, for example in base64 format, for its transmission. The base64 format allows any binary data to be represented in alphanumeric characters. This format thus allows the transport of binary data blocks via for example the http protocol using xml or html containers.

Dans ce premier mode de réalisation, les métadonnées MT comprennent le masque réduit.In this first embodiment, the MT metadata includes the reduced mask.

La montre, pour une image I, un exemple de masque perceptuel MP, de segmentation S de la composante de luminance de l’image I, et du masque réduit MR.There shows, for an image I, an example of a perceptual mask MP, of segmentation S of the luminance component of image I, and of the reduced mask MR.

Une étape ultérieure E8a consiste en l’envoi des métadonnées MT qui comprennent le masque réduit, dont les valeurs des pixels correspondant à une partie au moins des coefficients MSr. Cette étape E8a correspond à l’étape E3 d’envoi des données représentatives du masque MS.A subsequent step E8a consists of sending the MT metadata which includes the reduced mask, including the pixel values corresponding to at least part of the MSr coefficients. This step E8a corresponds to step E3 of sending data representative of the mask MS.

On va maintenant décrire un second mode de réalisation de la préparation des métadonnées MT accompagnant le paquet d’images S reçu par le terminal récepteur.We will now describe a second embodiment of the preparation of the metadata MT accompanying the image packet S received by the receiving terminal.

La illustre les étapes constituant ce second mode de réalisation de la préparation des métadonnées MT. Ces dernières contiennent, comme dans le premier mode de réalisation, un masque perceptuel segmenté pour chaque tranche d’images comprise dans le paquet d’images. Cependant, le masque perceptuel segmenté correspondant à une tranche d’images est obtenu par une méthode différente décrite ci-dessous. La préparation des métadonnées MT est préalable à l’envoi du paquet d’images S au terminal récepteur.There illustrates the steps constituting this second embodiment of the preparation of MT metadata. The latter contain, as in the first embodiment, a segmented perceptual mask for each slice of images included in the image packet. However, the segmented perceptual mask corresponding to a slice of images is obtained by a different method described below. The preparation of the metadata MT is prior to sending the image packet S to the receiving terminal.

On suppose toujours que les images du paquet d’images S ont pour taille M0xN0pixels.We always assume that the images of the image packet S have size M 0 xN 0 pixels.

Dans une étape E0b, un ensemble de P échantillons sont produits sur la base de P séquences d’images ECHp comprises dans le paquet vidéo S. Par échantillon, on entend un couple (Pp,MPRp) formé d’un masque perceptuel de référence MPRp et d’une partition Pp d’une matrice de taille M0xN0. Chaque échantillon correspond à l’une des P séquences d’images ECHp.In a step E0b, a set of P samples are produced on the basis of P image sequences ECHp included in the video packet S. By sample, we mean a pair (Pp, MPRp) formed of a perceptual reference mask MPRp and a partition Pp of a matrix of size M 0 xN 0 . Each sample corresponds to one of the P ECHp image sequences.

Chacun des échantillons est produit selon les sous-étapes suivantes illustrées à la .Each of the samples is produced according to the following sub-steps illustrated in .

Dans une sous-étape E0b0, la moyenne temporelle des composantes de luminances des images comprises dans la séquence d’images ECHp est calculée. Cette moyenne est dénommée ci-après composante de luminance moyenne IMp. Autrement dit, la valeur de chaque pixel de la composante de luminance moyenne IMp est la moyenne des valeurs de ce même pixel dans les différentes images de la séquence d’images ECHp.In a substep E0b0, the temporal average of the luminance components of the images included in the image sequence ECHp is calculated. This average is hereinafter referred to as the average luminance component IMp. In other words, the value of each pixel of the average luminance component IMp is the average of the values of this same pixel in the different images of the sequence of images ECHp.

Dans une sous-étape E0b2, la composante de luminance moyenne IMp est segmentée par un calcul de segmentation Sp de manière à produire une partition Pp formée de Rp régions bidimensionnelles Zrp.In a substep E0b2, the average luminance component IMp is segmented by a segmentation calculation Sp so as to produce a partition Pp formed of Rp two-dimensional regions Zrp.

Dans une sous-étape E0b4, un masque perceptuel de référence MPRp de la séquence d’images ECHp est calculé. Le masque perceptuel de référence MPRp est une matrice de taille M0xN0et est calculé de la manière suivante. Pour chaque image Ipi de la séquence d’images ECHp, un masque perceptuel Mpi est calculé à partir de paramètres statistiques de l’image Ipi. Par exemple, le masque perceptuel Mpi est calculé par application d’un filtre de Laplace à l’image Ipi. Dans un autre exemple, un calcul de variance peut être effectué pour obtenir le masque perceptuel Mpi. D’autres techniques, seules ou combinées, peuvent être utilisées pour obtenir le masque perceptuel Mpi, comme la détection de zones à haute fréquence (par mesure de la variance locale des pixels, ou par transformée de Fourier), la qualification de texture par motifs binaires locaux. De préférence, le masque perceptuel Mpi d’une image Ipi est calculé sur la base des trois composantes chromatiques de l’image Ipi.In a substep E0b4, a perceptual reference mask MPRp of the image sequence ECHp is calculated. The reference perceptual mask MPRp is a matrix of size M 0 xN 0 and is calculated as follows. For each image Ipi of the sequence of images ECHp, a perceptual mask Mpi is calculated from statistical parameters of the image Ipi. For example, the perceptual mask Mpi is calculated by applying a Laplace filter to the image Ipi. In another example, a variance calculation can be carried out to obtain the perceptual mask Mpi. Other techniques, alone or combined, can be used to obtain the perceptual mask Mpi, such as the detection of high frequency zones (by measuring the local variance of the pixels, or by Fourier transform), the qualification of texture by patterns local binaries. Preferably, the perceptual mask Mpi of an image Ipi is calculated on the basis of the three chromatic components of the image Ipi.

Chaque pixel du masque perceptuel de référence MPRp a pour valeur la valeur minimale parmi l’ensemble des valeurs du même pixel des masques perceptuels Mpi.Each pixel of the reference perceptual mask MPRp has the value of the minimum value among all the values of the same pixel of the perceptual masks Mpi.

Le résultat de l’étape E0b est un ensemble de P échantillons (Pp,MPRp). Pour chaque échantillon, un repère temporel de début TMSp et un repère temporel de fin TMEp de la séquence d’images ECHp sont gardés en mémoire.The result of step E0b is a set of P samples (Pp, MPRp). For each sample, a start time mark TMSp and an end time mark TMEp of the image sequence ECHp are kept in memory.

On considère, après l’étape E0b, une tranche d’images T du paquet d’images S.We consider, after step E0b, a slice of images T of the image packet S.

Dans une étape E2b, les échantillons dont les horodates de début TMSp et de fin TMEp sont les plus proches de la tranche d’images T sont retenus. Par exemple, le critère de proximité choisi peut être que l’écart entre l’horodate de début de la tranche d’images et l’horodate de début TMPs de la séquence d’images ECHp, ou l’écart entre l’horodate de fin de la tranche d’images T et l’horodate de fin TMEp de la séquence d’images ECHp sont inférieurs à la durée de la tranche d’images T.In a step E2b, the samples whose start timestamps TMSp and end timestamps TMEp are closest to the image slice T are retained. For example, the proximity criterion chosen can be that the difference between the start timestamp of the slice of images and the start timestamp TMPs of the sequence of images ECHp, or the difference between the timestamp of end of the image slice T and the end timestamp TMEp of the image sequence ECHp are less than the duration of the image slice T.

Dans une étape E4b, un échantillon parmi les P’ échantillons retenus à l’étape E2b est sélectionné sur la base du calcul de P’ erreurs Errp. Chacune des P’ erreurs Errp correspond un écart entre, pour chaque séquence d’images ECHp, le masque perceptuel de référence MPRp de la séquence d’images ECHp et un masque perceptuel segmenté MPSp de la séquence d’images ECHp. Chaque masque perceptuel segmenté MPSp est une matrice de taille M0xN0. Les pixels d’un masque perceptuel segmenté MPSp ont pour valeur, dans une région bidimensionnelle Zrp de la partition Pp la moyenne des valeurs des pixels du masque perceptuel de référence MPRp dans ladite zone. Une erreur Errp est par exemple calculée par application de la racine carrée de la moyenne des carrés de la différence des valeurs de pixels entre le masque perceptuel de référence MPRp et le masque perceptuel segmenté MPSp. En variantes, les P’ erreurs Errp peuvent être calculées en utilisant la norme L1 ou une mesure de PSNR.In a step E4b, a sample among the P' samples retained in step E2b is selected on the basis of the calculation of P' errors Errp. Each of the P' errors Errp corresponds to a difference between, for each sequence of images ECHp, the reference perceptual mask MPRp of the sequence of images ECHp and a segmented perceptual mask MPSp of the sequence of images ECHp. Each segmented perceptual mask MPSp is a matrix of size M0xN0. The pixels of a segmented perceptual mask MPSp have the value, in a two-dimensional region Zrp of the partition Pp, as the average of the values of the pixels of the reference perceptual mask MPRp in said zone. An Errp error is for example calculated by applying the square root of the mean of the squares of the difference in pixel values between the reference perceptual mask MPRp and the segmented perceptual mask MPSp. Alternatively, the P' Errp errors can be calculated using the L1 norm or a PSNR measure.

Dans une étape E6b, un échantillon (Pd,MPRd) parmi les P échantillons (Pp,MPRp) est sélectionné sur la base des P erreurs Errp. L’échantillon (Pd,MPRd) correspond à l’erreur Errp minimale parmi les P’ erreurs Errp calculées à l’étape E4b. La segmentation correspondante Sd est dénommée ci-après segmentation définie Sd et le masque perceptuel segmenté correspondant MPSd est dénommé ci-après masque perceptuel segmenté défini MPSd. Cette étape E6b correspond à l’’étape E1 de définition de la répartition géométrique RG, qui comprend les Rd régions bidimensionnelles Zrd ainsi qu’à l’étape E2 d’attribution d’un coefficient MSr à chaque région bidimensionnelle Zrd. Plus précisément, chaque coefficient MSr correspond à la valeur des pixels du masque perceptuel segmenté MPSd dans la région bidimensionnelle Zrd.In a step E6b, a sample (Pd, MPRd) among the P samples (Pp, MPRp) is selected on the basis of the P errors Errp. The sample (Pd, MPRd) corresponds to the minimum Errp error among the P' Errp errors calculated in step E4b. The corresponding segmentation Sd is hereinafter called defined segmentation Sd and the corresponding segmented perceptual mask MPSd is hereinafter called defined segmented perceptual mask MPSd. This step E6b corresponds to step E1 of defining the geometric distribution RG, which includes the Rd two-dimensional regions Zrd as well as step E2 of assigning a coefficient MSr to each two-dimensional region Zrd. More precisely, each coefficient MSr corresponds to the value of the pixels of the segmented perceptual mask MPSd in the two-dimensional region Zrd.

Dans une étape E8b, la taille du masque perceptuel segmenté défini MPSd est réduite par sous-échantillonnage, pour former un masque réduit de taille MxN pixels inférieure à M0xN0. Par exemple, le masque réduit est 5 fois plus petit que le masque perceptuel segmenté. Par exemple, le masque réduit a une taille de 96x40 pixels. Puis, le masque réduit est encodé en un format dédié, par exemple le format base64, pour sa transmission. Les métadonnées MT comprennent alors le masque réduit encodé.In a step E8b, the size of the segmented perceptual mask defined MPSd is reduced by subsampling, to form a reduced mask of size MxN pixels less than M0xN0. For example, the reduced mask is 5 times smaller than the segmented perceptual mask. For example, the reduced mask has a size of 96x40 pixels. Then, the reduced mask is encoded in a dedicated format, for example the base64 format, for its transmission. The MT metadata then includes the encoded reduced mask.

En variante, l’étape E8b est remplacée par une étape E8b’ se déroulant comme suit. Pour chaque région bidimensionnelle Zrd de la partition Pd, une liste de points Lrd déterminant le contour fermé de la région bidimensionnelle Zrd est extraite. Le nombre de points de la liste de points Lrd peut être ajusté en rapport avec la précision du tracé du contour fermé. L’extraction peut par exemple être réalisée au moyen d’une fonction de calcul sur images appliquée au masque perceptuel segmenté défini MPSd. Les métadonnées MT comprennent alors l’ensemble des valeurs prises par le masque perceptuel segmenté MPSd dans chacune des régions bidimensionnelles Zrd ainsi que la pluralité de listes de points Lrd, chaque valeur étant associée à une liste de points Lrd.Alternatively, step E8b is replaced by step E8b’ taking place as follows. For each two-dimensional region Zrd of the partition Pd, a list of points Lrd determining the closed contour of the two-dimensional region Zrd is extracted. The number of points in the Lrd point list can be adjusted in relation to the precision of the closed contour drawing. The extraction can for example be carried out using an image calculation function applied to the segmented perceptual mask defined MPSd. The MT metadata then includes all of the values taken by the segmented perceptual mask MPSd in each of the two-dimensional regions Zrd as well as the plurality of lists of points Lrd, each value being associated with a list of points Lrd.

Une étape ultérieure E10b consiste en l’envoi des métadonnées MT qui comprennent, soit le masque réduit encodé obtenu à l’étape E8b, dont les valeurs des pixels correspondent à une partie au moins des coefficients MSr, soit l’ensemble des valeurs prises par le masque perceptuel segmenté MPSd dans chacune des régions bidimensionnelles Zrd, incluant une partie au moins des coefficients MSr, ainsi que la pluralité de listes de points Lrd. Cette étape E10b correspond à l’étape E3 d’envoi des données représentatives du masque MS.A subsequent step E10b consists of sending the metadata MT which include either the encoded reduced mask obtained in step E8b, whose pixel values correspond to at least part of the coefficients MSr, or all of the values taken by the segmented perceptual mask MPSd in each of the two-dimensional regions Zrd, including at least part of the coefficients MSr, as well as the plurality of lists of points Lrd. This step E10b corresponds to step E3 of sending data representative of the mask MS.

Ce second mode de réalisation offre une plus grande dynamique sur la fréquence de changements des masques perceptuels segmentés et de compresser davantage les masques perceptuels segmentés au niveau du paquet d’images. Ainsi, dans ce second mode de réalisation, le débit de métadonnées peut être augmenté d’un facteur 4 par rapport au premier mode de réalisation.This second embodiment offers greater dynamics on the frequency of changes of the segmented perceptual masks and to further compress the segmented perceptual masks at the level of the image packet. Thus, in this second embodiment, the metadata throughput can be increased by a factor of 4 compared to the first embodiment.

Ainsi, les métadonnées MT accompagnant le paquet d’images S comprennent, soit un ensemble de masques réduits encodés correspondant à chaque tranche d’images du paquet d’images S, soit un ensemble de pluralités de coefficients accompagnés de descriptifs de partitions sous la forme de listes de points, correspondant à chaque tranche d’images du paquet d’images S.Thus, the MT metadata accompanying the image packet S comprises either a set of encoded reduced masks corresponding to each slice of images of the image packet S, or a set of pluralities of coefficients accompanied by partition descriptions in the form of lists of points, corresponding to each slice of images of the image packet S.

Les étapes E0a à E6a et E0b à E8b ou E8b’ peuvent être réalisées indifféremment sur une machine de calcul reprogrammable (un ordinateur PC, un processeur DSP ou un microcontrôleur) exécutant un programme comprenant une séquence d’instructions, ou sur une machine de calcul dédiée (par exemple un ensemble de portes logiques comme un FPGA ou un ASIC, ou tout autre module matériel).Steps E0a to E6a and E0b to E8b or E8b' can be carried out either on a reprogrammable calculation machine (a PC computer, a DSP processor or a microcontroller) executing a program comprising a sequence of instructions, or on a calculation machine dedicated (for example a set of logic gates such as an FPGA or an ASIC, or any other hardware module).

Dans le cas où le moyen de traitement est réalisé avec une machine de calcul reprogrammable, le programme correspondant (c'est-à-dire la séquence d’instructions) pourra être stocké dans un médium de stockage amovible ou non, ce médium de stockage étant lisible partiellement ou totalement par un ordinateur ou un processeur.In the case where the processing means is produced with a reprogrammable calculation machine, the corresponding program (i.e. the sequence of instructions) may be stored in a removable or non-removable storage medium, this storage medium being partially or totally readable by a computer or processor.

On décrit maintenant un procédé de réception de données représentatives d’un masque M de taille M0xN0pixels pour le tatouage d’une image, par un terminal récepteur, comprise dans une séquence vidéo reçue par ce terminal récepteur.We now describe a method for receiving data representative of a mask M of size M 0 xN 0 pixels for watermarking an image, by a receiving terminal, included in a video sequence received by this receiving terminal.

Le terminal récepteur reçoit la séquence vidéo par paquet d’images. Chaque paquet d’images est découpé en K tranches d’images successives. Les données représentatives du masque M vont être utilisées pour le tatouage de l’ensemble des images d’une tranche d’images.The receiving terminal receives the video sequence in packets of images. Each image packet is divided into K successive image slices. The data representative of the mask M will be used for watermarking all the images of a slice of images.

On considère un paquet d’images S de la séquence vidéo reçu par le terminal récepteur, et plus particulièrement une tranche d’images T de ce paquet d’images S Le procédé de réception de données représentatives du masque M pour le tatouage des images de la tranche d’images T comprend, comme illustré sur la , les étapes suivantes :
- une étape E10 de réception de données représentatives d’un masque segmenté MS de taille MxN pixels inférieur à M0xN0pixels, où les données représentatives comprennent une pluralité de coefficients MSr,
- une étape E12 de reconstruction du masque M sur la base des coefficients MSr,
- une étape E14 d’obtention d’une marque pondérée MQP par application du masque M à une marque MQ de taille M0xN0,
- une étape E16 de tatouage de chacune des images de la tranche d’images par application de la marque pondérée MQP à chacune de ces images.
We consider a packet of images S of the video sequence received by the receiving terminal, and more particularly a slice of images T of this packet of images S. The method of receiving data representative of the mask M for watermarking the images of the slice of images T includes, as illustrated in the , the following steps:
- a step E10 of receiving data representative of a segmented mask MS of size MxN pixels less than M 0 xN 0 pixels, where the representative data comprises a plurality of coefficients MSr,
- a step E12 of reconstructing the mask M on the basis of the coefficients MSr,
- a step E14 of obtaining a weighted mark MQP by applying the mask M to a mark MQ of size M 0 xN 0 ,
- a step E16 of watermarking each of the images of the slice of images by applying the weighted mark MQP to each of these images.

Dans un premier mode de réalisation du procédé de réception selon l’invention, les données représentatives du masque segmenté MS sont constituées d’une image Is de taille MxN pixels inférieure à M0xN0 pixels. Cette image Is comprend une répartition géométrique RG comprenant R régions bidimensionnelles Zr. Par répartition géométrique, il est entendu une partition de l’image Is en R régions bidimensionnelles Zr. Les pixels de chaque région bidimensionnelle Zr ont pour valeur un coefficient correspondant MSr parmi la pluralité de coefficients MSr.In a first embodiment of the reception method according to the invention, the data representative of the segmented mask MS consists of an image Is of size MxN pixels less than M0xN0 pixels. This image Is includes a geometric distribution RG comprising R two-dimensional regions Zr. By geometric distribution, we mean a partition of the image Is into R two-dimensional regions Zr. The pixels of each two-dimensional region Zr have the value of a corresponding coefficient MSr among the plurality of coefficients MSr.

L’image Is correspond par exemple au masque réduit obtenu à l’étape E6a du premier mode de réalisation du procédé d’envoi de données représentatives d’un masque selon l’invention précédemment décrit, pour la tranche d’images T. Dans ce cas, l’image Is est représentative de l’activité de l’image de référence I de la tranche d’images T.The image Is corresponds for example to the reduced mask obtained in step E6a of the first embodiment of the method for sending data representative of a mask according to the invention previously described, for the slice of images T. In this case, the image Is is representative of the activity of the reference image I of the image slice T.

En variante, l’image Is correspond au masque réduit obtenu à l’étape E8b du second mode de réalisation du procédé d’envoi de données représentatives d’un masque selon l’invention précédemment décrit, pour la tranche d’images T.Alternatively, the image Is corresponds to the reduced mask obtained in step E8b of the second embodiment of the method for sending data representative of a mask according to the invention previously described, for the image slice T.

Dans ce premier mode de réalisation, l’étape E12 de reconstitution du masque M consiste en un suréchantillonnage de l’image Is à la résolution M0xN0pixels. Le masque M est l’image Is suréchantillonnée à la résolution M0xN0pixels.In this first embodiment, step E12 of reconstituting the mask M consists of oversampling the image Is to the resolution M 0 xN 0 pixels. The mask M is the image Is oversampled to the resolution M 0 xN 0 pixels.

On considère ici qu’une marque MQ est à insérer dans chacune des images de la tranche d’images T. La marque MQ est par exemple caractéristique du terminal récepteur qui a décodé la séquence vidéo et plus particulièrement le paquet d’images S.We consider here that a mark MQ is to be inserted in each of the images of the slice of images T. The mark MQ is for example characteristic of the receiving terminal which decoded the video sequence and more particularly the packet of images S.

L’étape E14 consiste alors à multiplier, pixel par pixel, la marque MQ par le masque M. L’image MQP issue de cette multiplication est dénommée ci-après marque pondérée MQP. Ainsi, pour chaque pixel, la valeur de la marque pondérée MQP pour ce pixel est égale au produit de la valeur du masque M pour ce pixel par la valeur de ce pixel dans la maque MQ.Step E14 then consists of multiplying, pixel by pixel, the mark MQ by the mask M. The MQP image resulting from this multiplication is hereinafter called weighted mark MQP. Thus, for each pixel, the value of the weighted mark MQP for this pixel is equal to the product of the value of the mask M for this pixel by the value of this pixel in the mask MQ.

A l’étape E16, chaque image de la tranche d’images T est tatouée par insertion de la marque pondérée MQP. Dans le cas où l’image Is correspond, soit au masque réduit obtenu à l’étape E6a du premier mode de réalisation du procédé d’envoi de données représentatives d’un masque selon l’invention précédemment décrit, soit au masque réduit obtenu à l’étape E8b du second mode de réalisation du procédé d’envoi de données représentatives d’un masque selon l’invention précédemment décrit, la transparence de la marque pondérée MQP est adaptée aux paramètres statistiques de l’image de référence de la tranche d’images, ce qui contribue à la qualité du tatouage des images de la tranche d’images T.In step E16, each image of the slice of images T is watermarked by inserting the weighted mark MQP. In the case where the image Is corresponds, either to the reduced mask obtained in step E6a of the first embodiment of the method for sending data representative of a mask according to the invention previously described, or to the reduced mask obtained in step E8b of the second embodiment of the method for sending data representative of a mask according to the invention previously described, the transparency of the weighted mark MQP is adapted to the statistical parameters of the reference image of the slice d images, which contributes to the quality of the watermarking of the images in the T image slice.

Dans un second mode de réalisation du procédé de réception selon l’invention, les données représentatives du masque segmenté MS sont constituées de la pluralité de coefficients MSr, et d’une pluralité de R listes de points Lrd, chaque coefficient MSr étant associé à une liste de points Lrd. Chaque liste de points Lrd définit le contour fermé d’une région bidimensionnelle Zrd d’une matrice de taille MxN pixels. Les R régions bidimensionnelles Zrd forment une partition d’une matrice de taille MxN pixels. Le masque segmenté MS est une image de taille MxN pixels construites comme suit. Les R régions bidimensionnelles Zrd sont tracées à partir de la pluralité des R listes de points Lrd. Le tracé peut par exemple être réalisé au moyen d’une fonction de calcul sur images appliquée aux R listes de points Lrd. Puis, le coefficient MSr associé à la liste de points Lrd est attribué aux pixels de la région bidimensionnelle Zrd.In a second embodiment of the reception method according to the invention, the data representative of the segmented mask MS consists of the plurality of coefficients MSr, and of a plurality of R lists of points Lrd, each coefficient MSr being associated with a points list Lrd. Each list of points Lrd defines the closed contour of a two-dimensional region Zrd of a matrix of size MxN pixels. The R two-dimensional regions Zrd form a partition of a matrix of size MxN pixels. The MS segmented mask is an image of size MxN pixels constructed as follows. The R two-dimensional regions Zrd are drawn from the plurality of R lists of points Lrd. The plot can for example be carried out using a calculation function on images applied to the R lists of points Lrd. Then, the coefficient MSr associated with the list of points Lrd is assigned to the pixels of the two-dimensional region Zrd.

Les R listes de points Lrd peuvent par exemple résulter de l’étape E8b’ du second mode de réalisation du procédé d’émission de données représentatives d’un masque selon l’invention précédemment décrit.The R lists of points Lrd can for example result from step E8b' of the second embodiment of the method for transmitting data representative of a mask according to the invention previously described.

Dans ce second mode de réalisation du procédé de réception selon l’invention, les étapes E12, E14, et E16 se déroulent comme dans le premier mode de réalisation du procédé de réception selon l’invention.In this second embodiment of the reception method according to the invention, steps E12, E14, and E16 take place as in the first embodiment of the reception method according to the invention.

La présente invention n’est nullement limitée aux modes de réalisation décrits et représentés, mais l’homme du métier saura y apporter toute variante conforme à l’invention.The present invention is in no way limited to the embodiments described and represented, but those skilled in the art will be able to make any variation conforming to the invention.

Dans une variante, la répartition géométrique RG peut être définie à partir non pas d’une composante de luminance de l’image de référence I d’une tranche d’images T mais à partir du masque perceptuel calculé sur la base de l’image de référence I. La répartition géométrique RG est alors couplée au masque perceptuel pour obtenir le masque perceptuel segmenté.In a variant, the geometric distribution RG can be defined not from a luminance component of the reference image I of a slice of images T but from the perceptual mask calculated on the basis of the image reference I. The geometric distribution RG is then coupled to the perceptual mask to obtain the segmented perceptual mask.

Par ailleurs, comme indiqué plus haut, les différents aspects de l’invention s’appliquent également au contexte de la télévision diffusée en direct. Dans le contexte télévisuel, les métadonnées, c’est-à-dire les données représentatives des masques correspondants aux différentes tranches d’images d’un paquet d’images, sont calculées en temps réel, et la transmission du paquet d’images correspondant est retardée par un écart d’un ou plusieurs paquets d’images afin de permettre de transmettre dans le flux de données les données d’images et les métadonnées qui viennent d’être calculées.Furthermore, as indicated above, the different aspects of the invention also apply to the context of live television broadcast. In the television context, the metadata, that is to say the data representative of the masks corresponding to the different image slices of an image packet, are calculated in real time, and the transmission of the corresponding image packet is delayed by a gap of one or more image packets in order to allow the image data and metadata which have just been calculated to be transmitted in the data stream.

D’autre part, le procédé d’émission et le procédé de réception selon l’invention peuvent s’appliquer à une image unique. Dans ce cas, le masque perceptuel segmenté est calculé sur la base d’un masque perceptuel calculé à partir de données statistiques de ladite image.
On the other hand, the transmission method and the reception method according to the invention can be applied to a single image. In this case, the segmented perceptual mask is calculated on the basis of a perceptual mask calculated from statistical data of said image.

Claims (17)

Procédé d’émission de données représentatives d’un masque (MS) pour le tatouage d’une image (I) comprise dans un ensemble comprenant au moins cette image (I), le procédé comprenant les étapes suivantes:
- une étape de définition (E1) d’une répartition géométrique (RG), comprenant R régions bidimensionnelles (Zr), au moyen d’au moins une segmentation d’une composante de luminance construite sur la base d’au moins une image dudit ensemble,
- une étape d’attribution (E2) d’un coefficient (MSr) à chaque région bidimensionnelle (Zr),
- une étape d’envoi (E3) de données représentatives du masque (MS) comprenant une partie au moins des coefficients (MSr).
Method for transmitting data representative of a mask (MS) for watermarking an image (I) included in a set comprising at least this image (I), the method comprising the following steps:
- a step of defining (E1) a geometric distribution (RG), comprising R two-dimensional regions (Zr), by means of at least one segmentation of a luminance component constructed on the basis of at least one image of said together,
- a step of assigning (E2) a coefficient (MSr) to each two-dimensional region (Zr),
- a step of sending (E3) data representative of the mask (MS) comprising at least part of the coefficients (MSr).
Procédé d’émission selon la revendication 1, caractérisé en ce que le coefficient (MSr) est déterminé en fonction de paramètres statistiques de l’image (I) dans la région bidimensionnelle (Zr).Emission method according to claim 1, characterized in that the coefficient (MSr) is determined as a function of statistical parameters of the image (I) in the two-dimensional region (Zr). Procédé d’émission selon l’une des revendications 1 ou 2, caractérisé en ce que le coefficient (MSr) est calculé en fonction de coefficients contenus dans un masque perceptuel et relatifs à la région bidimensionnelle (Zr).Emission method according to one of claims 1 or 2, characterized in that the coefficient (MSr) is calculated as a function of coefficients contained in a perceptual mask and relating to the two-dimensional region (Zr). Procédé d’émission selon l’une des revendications 2 ou 3, caractérisé en ce que les paramètres statistiques de l’image (I) sont déterminés sur la base d’au moins un procédé de traitement d’images choisi parmi un filtre de Laplace, un calcul de variance, un calcul de transformée de Fourier ou un calcul de motifs binaires locaux.Transmission method according to one of claims 2 or 3, characterized in that the statistical parameters of the image (I) are determined on the basis of at least one image processing method chosen from a Laplace filter , a variance calculation, a Fourier transform calculation or a calculation of local binary patterns. Procédé d’émission selon l’une des revendications 1 à 4, caractérisé en ce que les données représentatives du masque (M) envoyées à l’étape d’envoi (E3) comprennent seulement les coefficients respectivement attribués à une fraction des pixels du masque (M) lors de l’étape d’attribution (E2).Transmission method according to one of claims 1 to 4, characterized in that the data representative of the mask (M) sent to the sending step (E3) only includes the coefficients respectively assigned to a fraction of the pixels of the mask (M) during the allocation step (E2). Procédé d’émission selon l’une des revendications 1 à 5, caractérisé en ce que :
- l’étape d’attribution (E2) comprend la formation d’un masque segmenté dans lequel chaque pixel a pour valeur le coefficient (MSr) attribué à la région bidimensionnelle (Zr) comprenant ledit pixel,
- le procédé comprend une étape de sous-échantillonnage dudit masque segmenté en un masque segmenté sous-échantillonné comprenant une partie (PS) au moins des coefficients (MSr),
- les données représentatives envoyées à l’étape d’envoi (E3) correspondent à la partie (PS).
Transmission method according to one of claims 1 to 5, characterized in that:
- the allocation step (E2) comprises the formation of a segmented mask in which each pixel has the value of the coefficient (MSr) assigned to the two-dimensional region (Zr) comprising said pixel,
- the method comprises a step of subsampling said segmented mask into a subsampled segmented mask comprising at least part (PS) of the coefficients (MSr),
- the representative data sent to the sending step (E3) correspond to the part (PS).
Procédé d’émission selon l’une des revendications 1 à 4, caractérisé en ce que les données représentatives du masque (M) envoyées à l’étape d’envoi (E3) comprennent des données définissant une partie au moins desdites régions bidimensionnelles (Zr).Transmission method according to one of claims 1 to 4, characterized in that the data representative of the mask (M) sent to the sending step (E3) comprises data defining at least part of said two-dimensional regions (Zr ). Procédé d’émission selon l’une des revendications 1 à 7, caractérisé en ce que l’image (I) appartient à une tranche d’images (T) d’un paquet vidéo (S).Transmission method according to one of claims 1 to 7, characterized in that the image (I) belongs to a slice of images (T) of a video packet (S). Procédé d’émission selon la revendication 8 caractérisé en ce que :
- lors de l’étape de définition (E1), l’au moins une segmentation comprend P segmentations (Sp) de P composantes de luminance, chaque composante de luminance étant construite sur la base d’une parmi P séquences d’images (ECHp) du paquet vidéo (S), lesdites P séquences d’images (ECHp) ayant une longueur inférieure ou égale à la longueur de la tranche d’images (T),
- l’étape de définition (E1) comprend en outre la sélection d’une segmentation définie (Sd) parmi les P segmentations (Sp), les R régions bidimensionnelles (Zr) étant issues de la segmentation définie (Sd),
- lors de l’étape d’attribution (E2), le coefficient (MSr) est égal à la moyenne des valeurs des pixels de la région bidimensionnelle (Zr) d’un masque défini (Md) déterminé sur la base de la séquence d’images (Ed) correspondant à la segmentation définie (Sd).
Transmission method according to claim 8 characterized in that:
- during the definition step (E1), the at least one segmentation comprises P segmentations (Sp) of P luminance components, each luminance component being constructed on the basis of one among P image sequences (ECHp ) of the video packet (S), said P image sequences (ECHp) having a length less than or equal to the length of the image slice (T),
- the definition step (E1) further comprises the selection of a defined segmentation (Sd) among the P segmentations (Sp), the R two-dimensional regions (Zr) coming from the defined segmentation (Sd),
- during the allocation step (E2), the coefficient (MSr) is equal to the average of the values of the pixels of the two-dimensional region (Zr) of a defined mask (Md) determined on the basis of the sequence d images (Ed) corresponding to the defined segmentation (Sd).
Procédé d’émission selon la revendication 9, caractérisé en ce que, lors de l’étape de définition (E1), la segmentation définie (Sd) parmi les P segmentations correspond à une erreur minimale (Errmin) parmi P erreurs (Errp) calculées, pour chaque séquence d’images (ECHp), entre un masque perceptuel de référence (MPRp) de la séquence d’images (ECHp) et un masque perceptuel segmenté (MPSp) de la séquence d’images (ECHp).Transmission method according to claim 9, characterized in that, during the definition step (E1), the defined segmentation (Sd) among the P segmentations corresponds to a minimum error (Errmin) among P errors (Errp) calculated , for each image sequence (ECHp), between a reference perceptual mask (MPRp) of the image sequence (ECHp) and a segmented perceptual mask (MPSp) of the image sequence (ECHp). Procédé d’émission selon la revendication 10, caractérisé en ce que :
- les pixels d’un masque perceptuel de référence (MPRp) d’une séquence d’images (ECHp) ont pour valeur la valeur minimale des pixels correspondants de masques perceptuels (Mpi) calculés sur la base de chacune des images (Ipi) de la séquence d’images (ECHp),
- chaque masque perceptuel (Mpi) est calculé à partir de paramètres statistiques d’une image (Ipi) de la séquence d’images (ECHp),
- pour chaque masque perceptuel segmenté (MPSp) d’une séquence d’images (ECHp), les pixels de chaque zone définie par la segmentation (Sp) ont pour valeur la moyenne des valeurs des pixels du masque perceptuel de référence (MPRp) dans ladite zone.
Transmission method according to claim 10, characterized in that:
- the pixels of a perceptual reference mask (MPRp) of a sequence of images (ECHp) have as value the minimum value of the corresponding pixels of perceptual masks (Mpi) calculated on the basis of each of the images (Ipi) of the image sequence (ECHp),
- each perceptual mask (Mpi) is calculated from statistical parameters of an image (Ipi) of the image sequence (ECHp),
- for each segmented perceptual mask (MPSp) of a sequence of images (ECHp), the pixels of each zone defined by the segmentation (Sp) have as value the average of the values of the pixels of the reference perceptual mask (MPRp) in said area.
Procédé d’émission selon la revendication 11, caractérisé en ce que le masque défini (Md) correspond au masque perceptuel de référence (MPRd) de la séquence d’images (Ed).Transmission method according to claim 11, characterized in that the defined mask (Md) corresponds to the perceptual reference mask (MPRd) of the image sequence (Ed). Procédé de réception de données représentatives d’un masque (M) pour le tatouage d’une image (I) comprenant les étapes suivantes :
- une étape de réception de données représentatives d’un masque segmenté (MS)), lesdites données représentatives comprenant une pluralité de coefficients (MSr),
- une étape de reconstruction du masque (M) sur la base des coefficients (MSr),
- une étape d’obtention d’une marque pondérée (MQP) par application du masque (M) à une marque (MQ),
- une étape de tatouage de l’image (I) par application de la marque pondérée (MQP) à l’image (I).
Method for receiving data representative of a mask (M) for watermarking an image (I) comprising the following steps:
- a step of receiving data representative of a segmented mask (MS)), said representative data comprising a plurality of coefficients (MSr),
- a step of reconstructing the mask (M) on the basis of the coefficients (MSr),
- a step of obtaining a weighted mark (MQP) by applying the mask (M) to a mark (MQ),
- a step of watermarking the image (I) by applying the weighted mark (MQP) to the image (I).
Procédé de réception selon la revendication 13, caractérisé en ce que l’étape de reconstruction du masque (M) comprend l’attribution des coefficients (MSr) à des zones de pixels comprenant au moins un pixel.Reception method according to claim 13, characterized in that the step of reconstructing the mask (M) comprises the allocation of coefficients (MSr) to areas of pixels comprising at least one pixel. Procédé de réception selon la revendication 13, caractérisé en ce que :
- les données représentatives du masque segmenté (MS) comprennent en outre des données définissant des régions bidimensionnelles (Zr),
- l’étape de reconstruction du masque (M) comprend le tracé des régions bidimensionnelles (Zr) sur la base des données définissant les régions bidimensionnelles (Zr) et l’attribution d’un coefficient (MSr) à chacune des régions bidimensionnelles (Zr).
Reception method according to claim 13, characterized in that:
- the data representative of the segmented mask (MS) further comprises data defining two-dimensional regions (Zr),
- the step of reconstructing the mask (M) comprises the drawing of the two-dimensional regions (Zr) on the basis of the data defining the two-dimensional regions (Zr) and the allocation of a coefficient (MSr) to each of the two-dimensional regions (Zr ).
Procédé de réception selon la revendication 13 caractérisé en ce que :
- les données représentatives du masque segmenté (MS) comprennent en outre une pluralité de listes de points définissant les contours fermés de régions bidimensionnelles (Zr),
- l’étape de reconstruction du masque (M) comprend le tracé des régions bidimensionnelles (Zr) au moyen de la pluralité de listes de points et l’attribution d’un coefficient (MSr) à chacune des régions bidimensionnelles (Zr).
Reception method according to claim 13 characterized in that:
- the data representative of the segmented mask (MS) further comprises a plurality of lists of points defining the closed contours of two-dimensional regions (Zr),
- the step of reconstructing the mask (M) comprises drawing the two-dimensional regions (Zr) by means of the plurality of lists of points and assigning a coefficient (MSr) to each of the two-dimensional regions (Zr).
Procédé de réception selon l’une des revendications 13 à 16, caractérisé en ce que :
- l’image (I) appartient à une tranche d’images (T) d’un paquet vidéo (S),
- le masque (MS) est commun aux images de la tranche d’images (T).
Reception method according to one of claims 13 to 16, characterized in that:
- the image (I) belongs to a slice of images (T) of a video packet (S),
- the mask (MS) is common to the images of the image slice (T).
FR2200830A 2022-01-31 2022-01-31 Methods for transmitting and receiving a mask for watermarking an image Pending FR3132369A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2200830A FR3132369A1 (en) 2022-01-31 2022-01-31 Methods for transmitting and receiving a mask for watermarking an image
PCT/EP2023/051673 WO2023144138A1 (en) 2022-01-31 2023-01-24 Methods for sending and receiving a mask for watermarking an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2200830 2022-01-31
FR2200830A FR3132369A1 (en) 2022-01-31 2022-01-31 Methods for transmitting and receiving a mask for watermarking an image

Publications (1)

Publication Number Publication Date
FR3132369A1 true FR3132369A1 (en) 2023-08-04

Family

ID=81851577

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2200830A Pending FR3132369A1 (en) 2022-01-31 2022-01-31 Methods for transmitting and receiving a mask for watermarking an image

Country Status (2)

Country Link
FR (1) FR3132369A1 (en)
WO (1) WO2023144138A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128861A1 (en) * 1993-11-18 2003-07-10 Rhoads Geoffrey B. Watermark embedder and reader
US20210090204A1 (en) * 2019-09-23 2021-03-25 Alibaba Group Holding Limited Method and system for data processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128861A1 (en) * 1993-11-18 2003-07-10 Rhoads Geoffrey B. Watermark embedder and reader
US20210090204A1 (en) * 2019-09-23 2021-03-25 Alibaba Group Holding Limited Method and system for data processing

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KARYBALI: "Efficient Spatial Image Watermarking via New Perceptual Masking and Blind Détection Schemes", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, June 2006 (2006-06-01)
TAE-WOO OH ET AL: "Enhancing perceptual quality of watermarked high-definition video through composite mask", IMAGE PROCESSING THEORY TOOLS AND APPLICATIONS (IPTA), 2010 2ND INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 7 July 2010 (2010-07-07), pages 161 - 165, XP031764039, ISBN: 978-1-4244-7247-5 *

Also Published As

Publication number Publication date
WO2023144138A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
EP0997042B1 (en) Method for marking a compressed digital video signal
CN100591102C (en) Technique for simulating film grain on encoded video
FR3023112A1 (en) METHOD FOR ENCODING A DIGITAL IMAGE, DECODING METHOD, DEVICES AND COMPUTER PROGRAMS
EP1473944A2 (en) Digital video watermarking method with adaptive selection of the watermarking area, watermarking detection method, device, corresponding computer readable storage medium and computer program product.
WO2017089689A1 (en) Method of processing a sequence of digital images, method of watermarking, devices and computer programmes associated therewith
FR2959636A1 (en) Method for accessing spatio-temporal part of video image sequence in e.g. mobile telephone of Internet, involves obtaining selection zone updating information, where information is decoding function of data corresponding to selection zone
FR3132369A1 (en) Methods for transmitting and receiving a mask for watermarking an image
EP1246469A2 (en) Method of simoultaneously downconverting and decoding of video
Gomila Mise en correspondance de partitions en vue du suivi d'objets
WO2020188172A1 (en) Methods and devices for coding and decoding a multi-view video sequence
WO2004114669A2 (en) Method of representing a sequence of pictures using 3d models, and corresponding devices and signal
FR2934453A1 (en) ERROR MASKING METHOD AND DEVICE
FR3109685A1 (en) Methods and devices for encoding and decoding a multi-view video sequence
WO2022129737A1 (en) Method and device for compressing data representative of a volumetric three-dimensional scene with a view to real-time decompression for online viewing
EP1679899A1 (en) Method and apparatus for reducing the artefacts in a digital image
EP3826304A2 (en) Method and device for compressing digital images and associated decompression method and device
FR2828614A1 (en) Video telephone image sequence coding has field identifier header, image sequence with step filling field identifier values reflecting coded image characteristics and decoding where header identifier lost
Lenka et al. Improvement of Exemplar Based Inpainting by Enhancement of Patch Prior
EP1762068B1 (en) Method for editing multimedia pages on a terminal using pre-stored parameters of objects appearing in scenes
FR3105687A1 (en) PROCESS FOR ENCODING A DIGITAL IMAGE FOR COMPRESSION
EP1303143A2 (en) Blocking detection method
WO2021160955A1 (en) Method and device for processing multi-view video data
FR3046894A1 (en) SYSTEMS AND METHODS FOR FORMATTING AND ENCODING AERONAUTICAL DATA TO ENHANCE THEIR TRANSMISSIBILITY
WO2017063722A1 (en) Method and device for detecting copies in a stream of visual data
WO2009007603A2 (en) Methods and devices for encoding and decoding digital images while taking into account the type of source blocks, and corresponding signal and computer software products

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230804

PLFP Fee payment

Year of fee payment: 3

TP Transmission of property

Owner name: FONDATION B-COM, FR

Effective date: 20231208