FR2957742A1 - METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES - Google Patents

METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES Download PDF

Info

Publication number
FR2957742A1
FR2957742A1 FR1052051A FR1052051A FR2957742A1 FR 2957742 A1 FR2957742 A1 FR 2957742A1 FR 1052051 A FR1052051 A FR 1052051A FR 1052051 A FR1052051 A FR 1052051A FR 2957742 A1 FR2957742 A1 FR 2957742A1
Authority
FR
France
Prior art keywords
video image
data
video
image
control message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1052051A
Other languages
French (fr)
Other versions
FR2957742B1 (en
Inventor
Anne Rapinat
Nicolas Perraud
Franck Desaulty
Alexandre Fromion
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
Peugeot Citroen Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peugeot Citroen Automobiles SA filed Critical Peugeot Citroen Automobiles SA
Priority to FR1052051A priority Critical patent/FR2957742B1/en
Priority to BR112012023744-6A priority patent/BR112012023744B1/en
Priority to EP11712622.7A priority patent/EP2550805B1/en
Priority to PCT/FR2011/050370 priority patent/WO2011117496A1/en
Priority to CN201180014919.0A priority patent/CN102804764B/en
Priority to US13/634,834 priority patent/US9609267B2/en
Publication of FR2957742A1 publication Critical patent/FR2957742A1/en
Application granted granted Critical
Publication of FR2957742B1 publication Critical patent/FR2957742B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0085Time domain based watermarking, e.g. watermarks spread over several images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Circuits (AREA)
  • Mechanical Engineering (AREA)

Abstract

Un dispositif (D1) est dédié au traitement d'images vidéo qui sont destinées à être transmises à un récepteur (R) afin d'être utilisées pour constituer des images de synthèse à afficher. Ce dispositif (D1) est agencé, en présence d'une image vidéo acquise constituée de données d'image vidéo, pour constituer une image traitée en remplaçant dans cette image vidéo acquise certaines de ses données d'image vidéo par un message de contrôle qui contient au moins un groupe de données de contrôle, de type non vidéo et définissant des informations qui sont destinées à être utilisées par le récepteur (R) pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo restantes, après le remplacement, dans l'image traitée.A device (D1) is dedicated to the processing of video images that are intended to be transmitted to a receiver (R) in order to be used to constitute synthetic images to be displayed. This device (D1) is arranged, in the presence of an acquired video image consisting of video image data, to constitute a processed image by replacing in this video image acquired some of its video image data by a control message which contains at least one group of non-video type control data defining information that is intended to be used by the receiver (R) to constitute a synthesis image to be displayed from at least the remaining video image data, after replacement, in the processed image.

Description

PROCÉDÉS ET DISPOSITIFS POUR LA GÉNÉRATION ET L'UTILISATION D'IMAGES VIDÉO COMPORTANT DES MESSAGES DE CONTRÔLE L'invention concerne les images vidéo, et plus précisément la génération d'images vidéo au niveau d'une source et l'utilisation d'images vidéo au niveau d'un récepteur. On entend ici par "source" un équipement électronique ou informatique chargé de fournir des images vidéo destinées à être utilisées par Zo un équipement de réception (ou récepteur). On notera qu'un tel équipement peut éventuellement acquérir les images vidéo. Par conséquent, il pourra par exemple s'agir d'un boîtier télématique ou d'une caméra vidéo chargée d'acquérir des images vidéo, par exemple de l'environnement d'un véhicule (éventuellement automobile). 15 Par ailleurs, on entend ici par "récepteur" un équipement électronique ou informatique chargé de réceptionner des images vidéo transmises par au moins une source et d'utiliser ces images vidéo reçues, ainsi que d'éventuelles données auxiliaires (par exemple fonctionnelles), afin de produire des images de synthèse destinées à être affichées. Par conséquent, 20 il pourra par exemple s'agir d'un système d'aide à la conduite qui est implanté dans un véhicule (éventuellement automobile). Comme le sait l'homme de l'art, dans certains systèmes, comme par exemple dans certains véhicules (éventuellement automobiles), le récepteur est connecté, d'une part, à un réseau de communication, généralement de 25 type multiplexé, qui l'alimente en données auxiliaires (par exemple fonctionnelles, telles que la vitesse d'un véhicule, des indicateurs de phares utilisés ou des indicateurs de panne ou de dysfonctionnement), et, d'autre part, à au moins une ligne (ou liaison) vidéo numérique (par exemple de type LVDS ("Low Voltage Differential Signaling" - signalisation différentielle basse 30 tension) ou CML ("Current Mode Logic")), qui est reliée à une source d'images vidéo. Dans ce cas, le récepteur utilise les données d'image vidéo et les données auxiliaires pour constituer des images de synthèse qui sont destinées à être affichées en temps réel. Ce mode de constitution d'images de synthèse fonctionne très bien, tant que les données auxiliaires n'ont pas besoin d'être synchronisées avec certaines données d'image vidéo. Mais, lorsqu'une telle synchronisation est nécessaire, le mode précité ne peut pas fonctionner correctement étant donné que le réseau multiplexé et la liaison vidéo ne sont pas synchronisés. L'invention a donc pour but de remédier au moins partiellement à l'inconvénient précité. Elle propose notamment à cet effet un premier procédé, dédié au traitement d'images vidéo qui sont destinées à être transmises à un récepteur afin d'être utilisées pour constituer des images de synthèse à afficher. Ce premier procédé se caractérise par le fait qu'il consiste à constituer une image traitée en remplaçant dans une image vidéo qui a été acquise certaines des données d'image vidéo qui la constituent par un message de contrôle contenant au moins un groupe de données de contrôle, de type non vidéo et définissant des informations qui sont destinées à être utilisées par le récepteur pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo qui restent, après le remplacement, dans l'image traitée. The invention relates to video images, and more specifically to the generation of video images at a source and the use of video images. at a receiver. Here "source" is understood to mean electronic or computer equipment responsible for providing video images for use by Zo receiving equipment (or receiver). It will be noted that such equipment may possibly acquire the video images. Therefore, it may for example be a telematic box or a video camera responsible for acquiring video images, for example the environment of a vehicle (possibly automotive). Furthermore, "receiver" here means electronic or computer equipment responsible for receiving video images transmitted by at least one source and for using these received video images, as well as any auxiliary (for example functional) data, to produce computer-generated images for display. Therefore, it may for example be a driver assistance system that is located in a vehicle (possibly automotive). As is known to one skilled in the art, in certain systems, such as in certain vehicles (possibly motor vehicles), the receiver is connected, on the one hand, to a communication network, generally of multiplexed type, which supplies auxiliary data (for example functional, such as the speed of a vehicle, headlight indicators used or indicators of failure or malfunction), and, on the other hand, at least one line (or link) digital video (for example LVDS ("Low Voltage Differential Signaling") or CML ("Current Mode Logic") type, which is connected to a video image source. In this case, the receiver uses the video image data and the auxiliary data to constitute computer-generated images that are intended to be displayed in real time. This CGM mode works very well, as long as the auxiliary data does not need to be synchronized with some video image data. But, when such a synchronization is necessary, the aforesaid mode can not function correctly since the multiplexed network and the video link are not synchronized. The invention therefore aims to remedy at least partially the aforementioned drawback. To this end, it proposes a first method, dedicated to the processing of video images that are intended to be transmitted to a receiver in order to be used to constitute synthetic images to be displayed. This first method is characterized in that it consists in constituting a processed image by replacing in a video image that has been acquired some of the video image data which constitutes it by a control message containing at least one group of data of control, non-video type and defining information that is intended to be used by the receiver to constitute a computer image to be displayed from at least video image data that remain, after replacement, in the processed image.

Le premier procédé selon l'invention peut comporter d'autres caractéristiques qui peuvent être prises séparément ou en combinaison, et notamment : - en présence d'une image vidéo acquise qui est constituée de données d'image vidéo agencées sous la forme de N lignes, on peut remplacer une partie au moins de la n-ième ligne (avec 1 n N) par le message de contrôle; - dans une première variante, en présence d'une image vidéo acquise qui est constituée de données d'image vidéo agencées sous la forme de N lignes, on peut adjoindre à cette image une partie au moins d'une 0-ième ou N+1-ième ligne pour constituer le message de contrôle; - dans une deuxième variante, en présence d'une image vidéo acquise qui est constituée de données d'image vidéo agencées sous la forme de M colonnes, on peut remplacer une partie au moins de la m-ième colonne (avec 1 m N) par ledit message de contrôle; - dans une troisième variante, en présence d'une image vidéo acquise qui est constituée de données d'image vidéo agencées sous la forme de M colonnes, on peut adjoindre à cette image une partie au moins d'une 0- ième ou N+1-ième colonne pour constituer le message de contrôle; - en cas de remplacement de données d'image vidéo dans une partie au moins d'une n-ième ligne ou d'une m-ième colonne, on peut remplacer en réception chaque donnée remplacée par un niveau de gris; - dans une première variante, on peut remplacer des données d'image vidéo dans une partie au moins d'une n-ième ligne ou d'une m-ième colonne par des données d'un message de contrôle dont les valeurs définissent des niveaux de gris, et en réception on peut utiliser le niveau de gris d'une donnée du message de contrôle pour reconstituer la couleur de la donnée d'image vidéo que cette donnée avait remplacée; - dans une seconde variante, en présence de données d'image vidéo définies chacune par un groupe de P bits pour une couleur rouge, un groupe de P bits pour une couleur verte et un groupe de P bits pour une couleur bleue, on peut remplacer K bits dans chaque groupe d'une donnée d'image vidéo d'une n-ième ligne ou d'une m-ième colonne par K bits dont les valeurs définissent une donnée d'un message de contrôle, et en réception on peut utiliser les P-K bits non remplacés de chacun des trois groupes d'une donnée du message de contrôle pour reconstituer la couleur de la donnée d'image vidéo que cette donnée avait remplacée; - chaque donnée d'un message de contrôle peut être intégrée de façon redondante dans une image vidéo au moins deux fois; - le message de contrôle peut également comprendre une valeur d'un compteur qui est représentative de la position de l'image vidéo acquise au sein d'une séquence (d'images vidéo); - le message de contrôle peut également comprendre un code de correction d'erreur représentatif des données d'image vidéo restantes dans l'image traitée; - le code de correction d'erreur peut être de type CRC. L'invention propose également un premier dispositif, dédié au traitement d'images vidéo qui sont destinées à être transmises à un récepteur afin d'être utilisées pour constituer des images de synthèse à afficher. The first method according to the invention can comprise other characteristics that can be taken separately or in combination, and notably: in the presence of an acquired video image which consists of video image data arranged in the form of N lines at least one part of the nth line (with 1 n N) can be replaced by the control message; in a first variant, in the presence of an acquired video image which consists of video image data arranged in the form of N lines, it is possible to add to this image at least a part of a 0-th or N + 1st line to constitute the control message; in a second variant, in the presence of an acquired video image which consists of video image data arranged in the form of M columns, it is possible to replace at least a part of the mth column (with 1 m N) by said control message; in a third variant, in the presence of an acquired video image which consists of video image data arranged in the form of M columns, it is possible to add to this image at least a part of a 0th or N + 1st column to constitute the control message; - in case of replacement of video image data in at least a part of an nth row or a mth column, it is possible to replace each datum replaced by a gray level in reception; in a first variant, it is possible to replace video image data in at least a part of an nth row or a mth column with data from a control message whose values define levels. in gray, and in reception, it is possible to use the gray level of a data element of the control message to reconstitute the color of the video image datum that this datum had replaced; in a second variant, in the presence of video image data each defined by a group of P bits for a red color, a group of P bits for a green color and a group of P bits for a blue color, it is possible to replace K bits in each group of a video image data of an nth row or a mth column by K bits whose values define a data item of a control message, and in reception can be used the non-replaced PK bits of each of the three groups of a control message data to reconstruct the color of the video image data that this data had replaced; each data item of a control message can be redundantly integrated into a video image at least twice; the control message may also comprise a value of a counter which is representative of the position of the video image acquired within a sequence (of video images); the control message may also include an error correction code representative of the video image data remaining in the processed image; the error correction code can be CRC type. The invention also proposes a first device, dedicated to the processing of video images which are intended to be transmitted to a receiver in order to be used to constitute synthetic images to be displayed.

Ce premier dispositif se caractérise par le fait qu'il est agencé, en présence d'une image vidéo acquise constituée de données d'image vidéo, pour constituer une image traitée en remplaçant dans cette image vidéo acquise certaines de ses données d'image vidéo par un message de contrôle qui contient au moins un groupe de données de contrôle, de type non vidéo et définissant des informations qui sont destinées à être utilisées par le récepteur pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo qui restent, après le remplacement, dans l'image traitée. L'invention propose également un équipement constituant une source propre à transmettre des images vidéo à un récepteur, et comprenant un premier dispositif (de traitement) du type de celui présenté ci-avant et destiné à l'alimenter en images traitées devant être transmises au récepteur. L'invention propose également un second procédé, dédié à la génération d'images de synthèse devant être affichées par un récepteur, et consistant, en cas de réception d'une image traitée au moyen d'un premier procédé (de traitement) du type de celui présenté ci-avant, à extraire de cette image traitée les données de contrôle qui sont contenues dans son message de contrôle, puis à constituer une image de synthèse à afficher à partir au moins des données d'image vidéo qui restent dans l'image traitée reçue et en fonction des données de contrôle extraites. Le second procédé selon l'invention peut comporter d'autres caractéristiques qui peuvent être prises séparément ou en combinaison, et notamment : - on peut constituer l'image de synthèse à afficher à partir des données d'image vidéo qui restent dans l'image traitée reçue et de données auxiliaires et en fonction des données de contrôle extraites, qui pour certaines au moins sont relatives aux données auxiliaires; - après avoir extrait les données de contrôle, on peut calculer un code de correction d'erreur qui est représentatif des données d'image vidéo restantes dans l'image traitée reçue, et on peut utiliser ces données d'image vidéo restantes lorsque le code de correction d'erreur calculé est identique à celui qui est défini par certaines des données de contrôle extraites. L'invention propose également un second dispositif, dédié à la génération d'images de synthèse devant être affichées par un récepteur, et agencé, en cas de réception par ce récepteur d'une image traitée au moyen d'un premier procédé (de traitement) du type de celui présenté ci-avant, pour extraire de cette image traitée les données de contrôle qui sont contenues dans son message de contrôle, puis pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo restantes dans l'image traitée reçue et en fonction des données de contrôle extraites. L'invention propose également un équipement de réception (ou récepteur) propre à recevoir des images traitées d'une source et comprenant un second dispositif (de génération) du type de celui présenté ci-avant. L'invention est bien adaptée, bien que non limitativement, à la gestion de la génération et de l'utilisation d'images vidéo respectivement par une source et par un récepteur faisant partie d'un véhicule, éventuellement de type automobile. D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et du dessin annexé, sur lequel l'unique figure illustre schématiquement et fonctionnellement un réseau auquel sont connectés une source, équipée d'un premier dispositif de traitement selon l'invention, et un récepteur équipé d'un exemple de second dispositif de génération selon l'invention et connecté à la source par une liaison vidéo. Le dessin annexé pourra non seulement servir à compléter l'invention, mais aussi contribuer à sa définition, le cas échéant. This first device is characterized in that it is arranged, in the presence of an acquired video image consisting of video image data, to constitute a treated image by replacing in this acquired video image some of its video image data. by a control message which contains at least one control data group, of non-video type and defining information which is intended to be used by the receiver to constitute an image to be displayed from at least image data video that remains, after the replacement, in the processed image. The invention also proposes an equipment constituting a source capable of transmitting video images to a receiver, and comprising a first (processing) device of the type of the one presented above and intended to supply it with processed images to be transmitted to the receiver. receiver. The invention also proposes a second method, dedicated to the generation of synthetic images to be displayed by a receiver, and consisting, in the event of reception of a processed image by means of a first (processing) method of the type of the one presented above, to extract from this processed image the control data that is contained in its control message, then to constitute a computer image to display from at least video image data that remain in the processed image received and based on the extracted control data. The second method according to the invention can comprise other characteristics that can be taken separately or in combination, and in particular: the synthetic image can be constituted to be displayed from the video image data that remains in the image processed received and auxiliary data and based on the extracted control data, which for at least some relate to the auxiliary data; after extracting the control data, an error correction code which is representative of the remaining video image data in the received processed image can be computed, and the remaining video image data can be used when the code The calculated error correction is identical to that defined by some of the extracted control data. The invention also proposes a second device, dedicated to the generation of synthetic images to be displayed by a receiver, and arranged, in the event of reception by this receiver of an image processed by means of a first method (of processing ) of the type of the one presented above, for extracting from this processed image the control data contained in its control message, then to constitute a computer image to be displayed from at least the remaining video image data in the processed image received and based on the extracted control data. The invention also proposes reception equipment (or receiver) capable of receiving processed images from a source and comprising a second device (of generation) of the type presented above. The invention is well adapted, although not limited to, the management of the generation and use of video images respectively by a source and by a receiver forming part of a vehicle, possibly of the automotive type. Other features and advantages of the invention will appear on examining the detailed description below, and the attached drawing, in which the single figure schematically and functionally illustrates a network to which are connected a source, equipped with a first processing device according to the invention, and a receiver equipped with an example of a second generation device according to the invention and connected to the source by a video link. The attached drawing may not only serve to complete the invention, but also contribute to its definition, if any.

L'invention a pour but d'offrir des premier et second procédés, et des premier et second dispositifs associés, destinés à permettre la transmission d'images vidéo entre une source S et un récepteur R, via une liaison vidéo numérique LV, ainsi qu'éventuellement l'utilisation par le récepteur R de données auxiliaires issues d'un réseau RC, éventuellement de communication. Dans ce qui suit, on considère, à titre d'exemple non limitatif, que la source S et le récepteur R font partie d'un véhicule, éventuellement de type automobile. Par exemple, la source S est une caméra destinée à acquérir des images vidéo de l'environnement d'une partie du véhicule, et le récepteur R est un système (ou dispositif) d'aide à la conduite propre à générer des images de synthèse résultant de l'intégration dans des images de parties au moins des images vidéo fournies par la source S ou bien de l'adjonction de données auxiliaires dans des parties au moins des images vidéo fournies par la source S. Mais, l'invention n'est pas limitée à cette application. Elle concerne en effet tout type d'équipement électronique ou informatique, éventuellement adapté aux (télé)communications, et constituant une source d'images vidéo ou un récepteur destinataire d'images vidéo fournies par au moins une source, proche ou lointaine, à laquelle il est connecté via une liaison vidéo numérique LV. Ainsi, la source peut par exemple être un boîtier télématique ou un boîtier multimédia ou encore un boîtier radio et audio. On notera que le récepteur R peut par exemple être implanté dans un équipement du véhicule tel qu'un ordinateur de bord ou un combiné ou encore un écran multifonctions. Mais, il peut être également externe à cet équipement. Par ailleurs, on considère dans ce qui suit, à titre d'exemple non limitatif, que la liaison vidéo numérique LV qui relie la source S à l'équipement de réception R est de type LVDS (Low Voltage Differential Signaling) ou CML (Current Mode Logic). Mais, l'invention n'est pas limitée à ce type de liaison vidéo numérique. Elle concerne en effet tout type de liaison vidéo numérique permettant de transmettre des fichiers définissant des images vidéo. Enfin, on considère dans ce qui suit, à titre d'exemple non limitatif, que le réseau RC auquel sont connectés la source S et le récepteur R est un réseau de bord multiplexé de véhicule. Mais, l'invention n'est pas limitée à ce type de réseau. Elle concerne en effet également, et notamment, les réseaux vidéo/multimédia, par exemple de type MOST ou e-MOST, et les réseaux de type Ethernet ou USB. It is an object of the invention to provide first and second methods, and first and second associated devices, for enabling the transmission of video images between a source S and a receiver R, via a digital video link LV, as well as possibly the use by the receiver R auxiliary data from a network RC, possibly communication. In the following, we consider, by way of non-limiting example, that the source S and the receiver R are part of a vehicle, possibly of automotive type. For example, the source S is a camera intended to acquire video images of the environment of a part of the vehicle, and the receiver R is a system (or device) for driving assistance capable of generating computer generated images. resulting from the integration into images of at least parts of the video images provided by the source S or the addition of auxiliary data in at least parts of the video images provided by the source S. But, the invention does not is not limited to this application. It relates in fact to any type of electronic or computer equipment, possibly adapted to (tele) communications, and constituting a video image source or receiver receiving video images provided by at least one source, near or far, to which it is connected via a digital video link LV. Thus, the source may for example be a telematic box or a multimedia box or a radio and audio box. Note that the receiver R can for example be implanted in a vehicle equipment such as an on-board computer or a handset or a multifunction display. But, it can also be external to this equipment. Furthermore, it will be considered in the following, by way of non-limiting example, that the digital video link LV which connects the source S to the reception equipment R is of the LVDS (Low Voltage Differential Signaling) or CML (Current) type. Logic Mode). But, the invention is not limited to this type of digital video link. It concerns indeed any type of digital video link for transmitting files defining video images. Finally, it will be considered in the following, by way of non-limiting example, that the RC network to which the source S and the receiver R are connected is a multiplexed vehicle edge network. But, the invention is not limited to this type of network. It also concerns, in particular, video / multimedia networks, for example of the MOST or e-MOST type, and networks of the Ethernet or USB type.

L'invention propose des premier et second procédés qui sont destinés à être mis en oeuvre respectivement au niveau de la source S et du récepteur R. Le premier procédé selon l'invention est mis en oeuvre chaque fois que la source S doit transmettre une image vidéo acquise au récepteur R. On notera que l'image vidéo peut être acquise par la source S ou bien par un autre équipement d'acquisition. Ce premier procédé peut être mis en oeuvre au moyen d'un premier dispositif de traitement D1. The invention proposes first and second methods that are intended to be implemented respectively at the source S and the receiver R. The first method according to the invention is implemented whenever the source S must transmit an image. video acquired at the receiver R. It will be noted that the video image can be acquired by the source S or else by another acquisition equipment. This first method can be implemented by means of a first processing device D1.

On notera que dans l'unique figure le premier dispositif (de traitement) Dl fait partie de la source S. Mais, cela n'est pas obligatoire. En effet, il pourrait constituer un équipement ou élément connecté à la source S afin de pouvoir communiquer avec cette dernière. Par conséquent, le premier dispositif Dl peut être réalisé sous la forme de modules logiciels (ou informatiques), ou bien de circuits électroniques, ou encore d'une combinaison de circuits électroniques et de modules logiciels. Le premier procédé (de traitement) consiste à constituer une image traitée à partir d'une image vidéo acquise présente dans la source S. Ce traitement (effectué par le premier dispositif Dl) consiste à remplacer dans une image vidéo acquise certaines des données (numériques) d'image vidéo qui la constituent par un message de contrôle qui contient au moins un groupe de données de contrôle. Ces dernières sont de type non vidéo et définissent des informations qui sont destinées à être utilisées par le récepteur R pour constituer une image de synthèse devant être affichée à partir au moins des données d'image vidéo qui restent, après le remplacement, dans l'image traitée. Tout type de données de contrôle utiles au niveau d'un récepteur R pour constituer une image de synthèse peut faire partie d'un message de contrôle. Ainsi, les données de contrôle peuvent par exemple définir l'état fonctionnel d'une caméra, la luminosité ambiante, le rhéostatage, des données de diagnostic, des caractéristiques de l'image vidéo traitée transmise (typologie, mode (configuration de l'image), thème (forme(s) d'objet(s) graphique(s)), ambiance (palette graphique utilisée), agencement d'objet(s) graphique(s), zone utile de l'image (zone à ne pas recouvrir, zone particulière), une signature électronique de l'image vidéo traitée, ou des informations auxiliaires destinées à permettre une utilisation particulière synchronisée de données auxiliaires au niveau du récepteur R pour constituer une image de synthèse (comme par exemple des positions d'objets ou de textes, ou la désignation d'un filtrage spécifique à appliquer (comme par exemple un effet graphique choisi), ou encore la définition d'une phase de vie (extinction/allumage». Lorsque l'image vidéo acquise est un fichier constitué de données (numériques) d'image vidéo qui sont agencées sous la forme de N lignes de M colonnes de pixels, le premier dispositif Dl peut par exemple remplacer une partie au moins de la première ligne (ou ligne supérieure) ou de la n-ième (et donc dernière) ligne (ou ligne inférieure) ou plus généralement de la nième ligne (avec 1 n N) par un message de contrôle. En d'autres termes, l'image traitée comporte alors au moins N-1 lignes de données d'image vidéo et au plus une ligne de données de contrôle. Il y a donc une légère perte d'informations vidéo, mais on comprendra que cela n'est pas dommageable lorsque cela concerne un bord d'image (supérieur ou inférieur). En variante, il est également possible de remplacer une partie au moins de la m-ième colonne (avec 1 m M) par un message de contrôle. On notera que cela introduit également des pertes d'informations vidéo. Il est rappelé qu'une image vidéo peut être caractérisée par une résolution (nombre N de lignes et nombre M de colonnes) et par une "profondeur de couleur" (nombre de bits définissant chaque pixel d'image). Note that in the single figure the first device (processing) Dl is part of the source S. But this is not mandatory. Indeed, it could constitute an equipment or element connected to the source S in order to be able to communicate with the latter. Therefore, the first device D1 can be realized in the form of software modules (or computer), or electronic circuits, or a combination of electronic circuits and software modules. The first method (processing) consists of constituting a processed image from an acquired video image present in the source S. This processing (performed by the first device D1) consists in replacing in a video image acquired some of the data (digital ) of video image which constitute it by a control message which contains at least one group of control data. The latter are of the non-video type and define information that is intended to be used by the receiver R to constitute a computer image to be displayed from at least video image data that remains, after the replacement, in the processed image. Any type of control data useful at a receiver R for constituting an image can be part of a control message. Thus, the control data can for example define the functional state of a camera, the ambient brightness, the rheostatage, diagnostic data, the characteristics of the processed video image transmitted (typology, mode (configuration of the image ), theme (object (s) shape (s) graphic (s)), atmosphere (graphic palette used), arrangement of object (s) graph (s), useful area of the image (area not to covering, particular area), an electronic signature of the processed video image, or auxiliary information intended to allow a particular synchronized use of auxiliary data at the receiver R to constitute a synthetic image (such as, for example, object positions). or texts, or the designation of a specific filtering to be applied (such as a chosen graphic effect), or the definition of a phase of life (extinction / ignition.) When the acquired video image is a file constituted of given video image (s) which are arranged in the form of N rows of M columns of pixels, the first device D1 can for example replace at least part of the first line (or upper line) or the nth (and therefore last) line (or lower line) or more generally the nth line (with 1 n N) by a control message. In other words, the processed image then comprises at least N-1 lines of video image data and at most one line of control data. There is therefore a slight loss of video information, but it will be understood that this is not harmful when it concerns an image edge (upper or lower). Alternatively, it is also possible to replace at least a portion of the mth column (with 1 m M) by a control message. It should be noted that this also introduces video information losses. It is recalled that a video image can be characterized by a resolution (number N of lines and number M of columns) and by a "color depth" (number of bits defining each image pixel).

Mais, afin de ne pas dégrader l'image vidéo, il est également possible d'adjoindre à l'image vidéo acquise une partie au moins d'une 0-ième ligne ou d'une N+1-ième ligne. On comprendra qu'une 0-ième ligne est une ligne qui est adjointe avant la première ligne utile (n=1) d'une image, et donc qui n'est pas utilisée lors de l'affichage, et qu'une N+1-ième ligne est une ligne qui est adjointe après la dernière ligne utile (n=N) d'une image, et donc qui n'est pas utilisée lors de l'affichage. En variante, il est également possible d'adjoindre à une image vidéo acquise une partie au moins d'une 0-ième colonne ou d'une M+1-ième colonne qui n'est pas non plus utilisée lors de l'affichage. Bien entendu, cela nécessite que le récepteur R soit informé de cette adjonction. On notera que le message de contrôle peut également et avantageusement comprendre une valeur V(t) d'un compteur qui est représentative de la position de l'image vidéo acquise au sein d'une séquence d'images vidéo et qui est incrémentée d'une unité par le premier dispositif Dl ou la source S après chaque transmission d'une image traitée d'une séquence. Cette valeur de compteur est destinée à signaler au récepteur R le numéro d'ordre d'une image traitée afin qu'il puisse l'utiliser à bon escient si 1 o elle est reçue de façon intègre (ou valide). On notera également que le message de contrôle peut également et avantageusement comprendre un code de correction d'erreur qui est représentatif des données d'image vidéo qui restent dans une image traitée (après le remplacement par le message de contrôle). Ce code de correction 15 d'erreur peut par exemple être de type CRC ("Cyclic Redundancy Check" (or "checksum"))). Il sert à déterminer au niveau du récepteur R si les données vidéo d'une image vidéo traitée reçue comportent des erreurs et donc si cette image vidéo traitée est intègre ou non. Une fois qu'une image vidéo a été traitée par un premier dispositif D1, 20 elle peut être transmise par la source S au récepteur R (destinataire) via la liaison vidéo numérique LV. Le second procédé selon l'invention est mis en oeuvre chaque fois que le récepteur R reçoit une image vidéo traitée par le premier dispositif Dl de la source S, via la liaison vidéo numérique LV. 25 Ce second procédé peut être mis en oeuvre au moyen d'un second dispositif de génération D2. On notera que dans l'unique figure le second dispositif (de génération) D2 fait partie du récepteur R. Mais, cela n'est pas obligatoire. En effet, il pourrait constituer un équipement ou élément connecté au récepteur R 30 afin de pouvoir communiquer avec ce dernier. Par conséquent, le second dispositif (de génération) D2 peut être réalisé sous la forme de modules logiciels (ou informatiques), ou bien de circuits électroniques, ou encore d'une combinaison de circuits électroniques et de modules logiciels. But, in order not to degrade the video image, it is also possible to add to the acquired video image at least part of a 0-th line or an N + 1-th line. It will be understood that a 0-th line is a line which is adjoined before the first useful line (n = 1) of an image, and therefore which is not used during the display, and that an N + 1st line is a line that is added after the last useful line (n = N) of an image, and therefore not used in the display. Alternatively, it is also possible to add to a video image acquired at least a portion of a 0-th column or an M + 1-th column that is not used in the display either. Of course, this requires that the receiver R be informed of this addition. It will be noted that the control message may also and advantageously comprise a value V (t) of a counter which is representative of the position of the video image acquired within a sequence of video images and which is incremented by a unit by the first device D1 or the source S after each transmission of a processed image of a sequence. This counter value is intended to signal the receiver R the order number of a processed image so that it can use it wisely if 1 o it is received integrally (or valid). It will also be appreciated that the control message may also and advantageously include an error correction code which is representative of the video image data remaining in a processed image (after replacement by the control message). This error correction code can for example be of the CRC ("Cyclic Redundancy Check" (or "checksum")) type)). It is used to determine at the receiver R if the video data of a received processed video image have errors and therefore if this processed video image is integrated or not. Once a video image has been processed by a first device D1, it can be transmitted from the source S to the receiver R (recipient) via the digital video link LV. The second method according to the invention is implemented each time the receiver R receives a video image processed by the first device D1 of the source S, via the digital video link LV. This second method can be implemented by means of a second generation device D2. Note that in the single figure the second device (generation) D2 is part of the receiver R. But this is not mandatory. Indeed, it could be an equipment or element connected to the receiver R 30 in order to communicate with the latter. Therefore, the second device (generation) D2 can be realized in the form of software modules (or computer), or electronic circuits, or a combination of electronic circuits and software modules.

Le second procédé (de génération) consiste à extraire de chaque image traitée, reçue par le récepteur R, les données de contrôle qui sont contenues dans son message de contrôle, puis à constituer une image de synthèse à afficher à partir au moins des données d'image vidéo qui restent dans l'image traitée reçue et en fonction des données de contrôle extraites. Par exemple, et comme illustré non limitativement sur l'unique figure, le second dispositif D2 peut comprendre, d'une part, un module d'extraction ME chargé d'extraire du fichier constituant une image traitée reçue le message de contrôle et les données d'image vidéo restantes, et, d'autre part, un module de génération MG couplé au module d'extraction ME et chargé de générer (ou constituer) les images de synthèse comme indiqué ci-avant. On notera que lorsque le message de contrôle extrait comprend une valeur V(t) de compteur, le module d'extraction ME peut le stocker dans une mémoire (éventuellement de type logiciel). Ainsi, lorsqu'une image traitée est reçue et qu'il a extrait la valeur V(t) de son message de contrôle, il peut incrémenter d'une unité la valeur V(t') (t'<t) de l'image traitée précédemment reçue (stockée dans la mémoire) afin d'obtenir une valeur auxiliaire VA qu'il compare à la valeur V(t) extraite. On comprendra alors que si V(t) = VA cela signifie qu'il n'y a pas eu de perte d'image depuis la réception de l'image précédente, et donc que la dernière image traitée reçue peut être utilisée dans la continuité de la précédente, tandis que si V(t) # VA cela signifie qu'il y a eu une perte d'image depuis la réception de l'image précédente, et donc que la dernière image traitée reçue ne peut a priori pas être utilisée dans la continuité de la précédente. The second method (of generation) consists in extracting from each processed image, received by the receiver R, the control data that is contained in its control message, and then constituting a synthesis image to be displayed from at least one data item. video image remaining in the received processed image and based on the extracted control data. For example, and as shown in non-limiting manner in the single figure, the second device D2 may comprise, on the one hand, an extraction module ME responsible for extracting from the file constituting a processed image received the control message and the data remaining video image, and, secondly, a generation module MG coupled to the extraction module ME and responsible for generating (or constituting) the synthesis images as indicated above. It will be noted that when the extracted control message includes a counter value V (t), the extraction module ME can store it in a memory (possibly of software type). Thus, when a processed image is received and has extracted the value V (t) of its control message, it can increment by one unit the value V (t ') (t' <t) of the previously processed processed image (stored in the memory) to obtain an auxiliary value VA which it compares to the value V (t) extracted. It will be understood that if V (t) = VA this means that there has been no image loss since the reception of the previous image, and therefore that the last processed image received can be used in the continuity of the previous one, whereas if V (t) # VA it means that there has been a loss of image since the reception of the previous image, and thus that the last processed image received can not a priori not be used in continuity with the previous one.

On notera également que lorsque le message de contrôle extrait comprend un code de correction d'erreur (CRC), le module d'extraction ME peut l'utiliser afin de vérifier l'intégrité des données d'image vidéo restantes, associées. Plus précisément, le module d'extraction ME peut par exemple comparer le code de correction d'erreur (CRC) qui est contenu dans le message de contrôle à un code de correction d'erreur (CRC) qu'il détermine à partir des données d'image vidéo restantes, qui accompagnent ce message de contrôle. On comprendra alors que la dernière image traitée reçue est considérée comme intègre (ou valide) lorsque son code de correction d'erreur (CRC) est identique à celui qui est déterminé par le module d'extraction ME, tandis que la dernière image traitée reçue est considérée comme non intègre (ou non valide) lorsque son code de correction d'erreur (CRC) est différent de celui qui est déterminé par le module d'extraction ME. Note also that when the extracted control message includes an error correction code (CRC), the extraction module ME may use it to check the integrity of the associated video image data remaining. More specifically, the extraction module ME can for example compare the error correction code (CRC) that is contained in the control message with an error correction code (CRC) that it determines from the data. remaining video image, which accompany this control message. It will then be understood that the last processed image received is considered to be integral (or valid) when its error correction code (CRC) is identical to that determined by the extraction module ME, while the last processed image received is considered unhealthy (or invalid) when its error correction code (CRC) is different from that determined by the extraction module ME.

Si une image traitée reçue est considérée comme intègre (ou valide) et qu'il n'y a pas eu de perte d'image depuis la réception de l'image précédente, alors le module de génération MG peut utiliser ses données d'image vidéo restantes et ses données de contrôle pour constituer une image de synthèse. If a processed image received is considered to be integrity (or valid) and there has been no image loss since the receipt of the previous image, then the generation module MG can use its image data video and its control data to create a computer image.

On notera que lorsque des données auxiliaires, reçues par le récepteur via le réseau RC, doivent être utilisées avec les données d'image vidéo restantes d'une image traitée reçue, de façon synchronisée, alors le module de génération MG se sert des données de contrôle qui sont contenues dans le message de contrôle de cette image traitée reçue et qui concernent ces données auxiliaires reçues, pour constituer son image de synthèse. En d'autres termes, le module de génération MG constitue une image de synthèse à afficher à partir des données d'image vidéo restantes dans l'image traitée reçue et des données auxiliaires et en fonction des données de contrôle extraites. Note that when auxiliary data, received by the receiver via the RC network, is to be used with the remaining video image data of a received processed image, in a synchronized manner, then the generation module MG uses the data of control which are contained in the control message of this received processed image and which concern these auxiliary data received, to constitute its synthesis image. In other words, the generation module MG constitutes a synthesis image to be displayed from the remaining video image data in the received processed image and auxiliary data and according to the extracted control data.

Tout type de données auxiliaires peut être ici utilisé pour compléter les données d'image vidéo restantes d'une image vidéo traitée. Ainsi, il pourra par exemple s'agir de données fonctionnelles relatives (ici) au véhicule, telles que la vitesse du véhicule, des indicateurs de phares utilisés, des indicateurs de panne ou de dysfonctionnement ou de phase de vie du véhicule (comme par exemple l'extinction ou l'allumage), ou des codes désignant un filtrage à appliquer (comme par exemple un effet graphique ou une ambiance graphique) ou un type de découpage (position, taille, forme) à appliquer. On notera également que toute technique connue de l'homme de l'art peut être utilisée pour constituer les images de synthèse à partir des données précitées. Aucune technique n'est en effet ici privilégiée. L'homme de l'art comprendra en effet qu'une fois qu'il possède des données de contrôle relatives à l'utilisation de données d'image vidéo et de données auxiliaires, il est alors en mesure d'utiliser ces données de contrôle pour constituer des images de synthèse à partir de ces données d'image vidéo et données auxiliaires. On notera également que lorsque le message de contrôle extrait a remplacé des données d'image vidéo (ou pixels) contenu(e)s dans une partie au moins d'une n-ième ligne ou d'une m-ième colonne (et donc dans une zone d'image devant être affichée), le second dispositif D2 peut automatiquement remplacer chaque pixel manquant par un niveau de gris qui est prédéfini ou bien choisi en fonction des pixels voisins (non remplacés). Cela permet de limiter l'impact visuel induit par un pixel manquant sur une image affichée. En effet, un pixel de couleur noire ou gris foncé est généralement moins visible dans un environnement qu'un pixel qui est clair (blanc) du fait qu'il est manquant. Dans une variante, le premier dispositif Dl peut par exemple utiliser des bits dont les valeurs définissent des niveaux de gris pour coder les données de contrôle d'un message de contrôle. Dans ce cas, en réception, le second dispositif D2 peut utiliser tels quels les bits des données de contrôle pour générer des pixels d'une image à afficher. Bien entendu, ces pixels (issus des données de contrôle) seront affichés en niveaux de gis. Dans une autre variante, lorsque les pixels des images sont par exemple codés en RGB (rouge - vert - bleu), c'est-à-dire en un groupe de P bits pour le rouge, un groupe de P bits pour le vert et un groupe de P bits pour le bleu, le premier dispositif Dl peut par exemple choisir de ne remplacer que certains des bits de chaque groupe d'un pixel par des bits définissant une donnée de contrôle d'un message de contrôle. Par exemple, on peut décider de dédier K bits de chaque groupe (de préférence toujours les mêmes) à une donnée de contrôle d'un message de contrôle. Par exemple, si P est égal à 6, K peut être compris entre 2 et 4. Ces K bits sont de préférence choisis parmi les bits de poids le plus faible (LSB) d'un groupe. Mais, dans une variante les K bits peuvent être choisis parmi les bits de poids le plus fort (MSB) d'un groupe. On comprendra alors que le P-K bits de chaque groupe peuvent alors prendre n'importe quelle valeur pour coder l'un des trois paramètres de couleur (R, G ou B) du pixel considéré, et les K bits restants de chaque groupe peuvent alors prendre n'importe quelle valeur pour coder une donnée de contrôle d'un message de contrôle. Dans ce cas, en réception, le second dispositif D2 peut utiliser les P-K bits de chaque groupe d'un pixel ayant fait l'objet d'un "remplacement" pour reconstituer sa couleur au sein de son image et les K bits complémentaires en tant que données de contrôle. Cela est particulièrement avantageux car cela permet d'afficher le pixel avec une couleur qui est certes dégradée, mais malgré toute assez proche de celle de sa couleur d'origine (avant remplacement). En outre, cela permet de limiter les risques inhérents aux erreurs de transmission de données. En effet, le codage des données de contrôle se trouve alors en quelque sorte "réparti" sur les trois paramètres de couleur (R, G ou B) de certains pixels, ce qui augmente ce que l'homme de l'art appelle la distance de Hamming. Afin de limiter encore plus les risques inhérents aux erreurs de transmission de données, il est également possible d'introduire une redondance des données de contrôle (qu'elles soient codées en niveaux de gris ou en RGB). Plus précisément, une même donnée de contrôle d'un message de contrôle peut par exemple être codée au moins deux fois au sein d'une même image, mais de préférence sur des pixels différents. Par exemple, une même donnée de contrôle d'un message de contrôle peut par exemple être codée de façon redondante sur les quatre pixels des "coins" d'un fichier d'image vidéo (à savoir le pixel de la première colonne et de la première ligne, le pixel de la dernière colonne et de la première ligne, le pixel de la première colonne et de la dernière ligne, et le pixel de la dernière colonne et de la dernière ligne). Cela permet en effet d'augmenter encore plus la distance de Hamming et donc de réduire encore plus les risques d'erreur de transmission. On notera également qu'une fois que le second dispositif D2 a généré une image de synthèse, celle-ci est prête à être affichée par des moyens d'affichage MA, comme par exemple un écran intégré dans la planche de bord du véhicule. Any kind of auxiliary data can be used here to supplement the remaining video image data of a processed video image. Thus, it may for example be functional data relating (here) to the vehicle, such as the speed of the vehicle, indicators of headlights used, indicators of failure or malfunction or phase of life of the vehicle (such as extinction or ignition), or codes designating a filtering to be applied (such as for example a graphic effect or a graphic environment) or a type of cutting (position, size, shape) to be applied. It should also be noted that any technique known to those skilled in the art can be used to constitute the computer-generated images from the aforementioned data. No technique is indeed here privileged. Those skilled in the art will understand that once they have control data relating to the use of video image data and auxiliary data, they are then able to use these control data. to constitute computer-generated images from these video image data and auxiliary data. It will also be noted that when the extracted control message has replaced video image data (or pixels) contained in at least a part of an nth or a mth column (and therefore in an image area to be displayed), the second device D2 can automatically replace each missing pixel with a gray level that is predefined or selected according to the neighboring pixels (not replaced). This makes it possible to limit the visual impact induced by a missing pixel on a displayed image. Indeed, a pixel of black or dark gray color is generally less visible in an environment than a pixel which is clear (white) because it is missing. In a variant, the first device D1 may for example use bits whose values define gray levels to code the control data of a control message. In this case, in reception, the second device D2 can use as such the bits of the control data to generate pixels of an image to be displayed. Of course, these pixels (from the control data) will be displayed in levels of gis. In another variant, when the pixels of the images are for example coded in RGB (red-green-blue), that is to say in a group of P bits for red, a group of P bits for green and a group of P bits for blue, the first device D1 may for example choose to replace only some of the bits of each group of a pixel by bits defining a control data of a control message. For example, it may be decided to dedicate K bits from each group (preferably always the same) to a control data of a control message. For example, if P is equal to 6, K can be between 2 and 4. These K bits are preferably selected from the least significant bits (LSB) of a group. But, in a variant, the K bits can be chosen from the most significant bits (MSB) of a group. It will then be understood that the PK bits of each group can then take any value to encode one of the three color parameters (R, G or B) of the pixel in question, and the remaining K bits of each group can then take any value for encoding control data of a control message. In this case, in reception, the second device D2 can use the PK bits of each group of a pixel that has been "replaced" to reconstitute its color within its image and the complementary K bits as than control data. This is particularly advantageous because it allows to display the pixel with a color that is certainly degraded, but still quite close to that of its original color (before replacement). In addition, this limits the risks inherent in data transmission errors. Indeed, the coding of the control data is then somehow "distributed" over the three color parameters (R, G or B) of certain pixels, which increases what the skilled person calls the distance of Hamming. In order to further limit the risks inherent in data transmission errors, it is also possible to introduce a redundancy of the control data (whether they are coded in grayscale or in RGB). More precisely, the same control data of a control message can for example be coded at least twice within the same image, but preferably on different pixels. For example, the same control data of a control message may for example be redundantly encoded on the four pixels of the "corners" of a video image file (i.e., the pixel of the first column and the first line, the pixel of the last column and the first line, the pixel of the first column and the last line, and the pixel of the last column and the last line). This makes it possible to further increase the Hamming distance and thus further reduce the risk of transmission errors. Note also that once the second device D2 has generated a synthesis image, it is ready to be displayed by display means MA, such as a screen integrated in the dashboard of the vehicle.

Par exemple, et comme illustré non limitativement sur l'unique figure, les moyens d'affichage MA sont connectés au réseau RC du véhicule, et donc sont externes au récepteur R. Par conséquent, les fichiers de données numériques, qui constituent les images de synthèse générées par le second dispositif D2, sont transmis du récepteur R aux moyens d'affichage MA via le réseau RC. Mais, cela n'est pas obligatoire. En effet, les moyens d'affichage MA pourraient être connectés directement au récepteur R (ou à l'équipement qui le comprend (par exemple un ordinateur de bord)), ou bien ils pourraient faire partie du récepteur R. L'invention ne se limite pas aux modes de réalisation de procédé de traitement, de dispositif de traitement, d'équipement source, de procédé de génération, de dispositif de génération et d'équipement de réception décrits ci-avant, seulement à titre d'exemple, mais elle englobe toutes les variantes que pourra envisager l'homme de l'art dans le cadre des revendications ci-après. For example, and as illustrated without limitation in the single figure, the display means MA are connected to the RC network of the vehicle, and therefore are external to the receiver R. Therefore, the digital data files, which constitute the images of synthesis generated by the second device D2, are transmitted from the receiver R to the display means MA via the network RC. But, this is not mandatory. Indeed, the display means MA could be connected directly to the receiver R (or to the equipment which understands it (for example an on-board computer)), or else they could be part of the receiver R. The invention is not process, processing device, source equipment, generating method, generating device and receiving equipment described above, only by way of encompasses all the variants that can be considered by those skilled in the art within the scope of the claims below.

Claims (20)

REVENDICATIONS1. Procédé de traitement d'images vidéo destinées à être transmises à un récepteur (R) en vue d'être utilisées pour constituer des images de synthèse à afficher, caractérisé en ce qu'il consiste à constituer une image traitée en remplaçant dans une image vidéo acquise certaines des données d'image vidéo qui la constituent par un message de contrôle contenant au moins un groupe de données de contrôle, de type non vidéo et définissant des informations destinées à être utilisées par ledit récepteur (R) pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo restantes, après ledit remplacement, dans ladite image traitée. REVENDICATIONS1. A method of processing video images intended to be transmitted to a receiver (R) for use in constituting synthetic images for display, characterized in that it consists in constituting a processed image by replacing in a video image acquired some of the video image data constituting it by a control message containing at least one group of control data, of non-video type and defining information intended to be used by said receiver (R) to constitute an image of synthesis to display from at least the remaining video image data, after said replacement, in said processed image. 2. Procédé selon la revendication 1, caractérisé en ce qu'en présence d'une image vidéo acquise constituée de données d'image vidéo agencées sous la forme de N lignes, on remplace une partie au moins de la n-ième ligne (avec 1 n N) par ledit message de contrôle. 2. Method according to claim 1, characterized in that in the presence of an acquired video image consisting of video image data arranged in the form of N lines, replacing at least a portion of the nth line (with 1 n N) by said control message. 3. Procédé selon la revendication 1, caractérisé en ce qu'en présence d'une image vidéo acquise constituée de données d'image vidéo agencées sous la forme de N lignes, on adjoint à ladite image une partie au moins d'une 0-ième ou N+1-ième ligne pour constituer ledit message de contrôle. 3. Method according to claim 1, characterized in that in the presence of an acquired video image consisting of video image data arranged in the form of N lines, said image is associated with at least a part of a th or N + 1-th line to constitute said control message. 4. Procédé selon la revendication 1, caractérisé en ce qu'en présence d'une image vidéo acquise constituée de données d'image vidéo agencées sous la forme de M colonnes, on remplace une partie au moins de la m-ième colonne (avec 1 m N) par ledit message de contrôle. 4. Method according to claim 1, characterized in that in the presence of an acquired video image consisting of video image data arranged in the form of M columns, replacing at least a portion of the mth column (with 1 m N) by said control message. 5. Procédé selon la revendication 1, caractérisé en ce qu'en présence d'une image vidéo acquise constituée de données d'image vidéo agencées sous la forme de M colonnes, on adjoint à ladite image une partie au moins d'une 0-ième ou M+1-ième colonne pour constituer ledit message de contrôle. 5. Method according to claim 1, characterized in that in the presence of an acquired video image consisting of video image data arranged in the form of M columns, is added to said image at least part of a 0- th or M + 1-th column to constitute said control message. 6. Procédé selon l'une des revendications 2 et 4, caractérisé en ce que l'on remplace en réception par un niveau de gris chaque donnée d'image vidéo remplacée. 6. Method according to one of claims 2 and 4, characterized in that is replaced in reception by a gray level each video image data replaced. 7. Procédé selon l'une des revendications 2 et 4, caractérisé en ce que l'on remplace des données d'image vidéo par des données d'un message decontrôle dont les valeurs définissent des niveaux de gris, et en réception on utilise le niveau de gris d'une donnée du message de contrôle pour reconstituer la couleur de la donnée d'image vidéo que cette donnée avait remplacée. 7. Method according to one of claims 2 and 4, characterized in that one replaces video image data with data of a control message whose values define gray levels, and in reception is used the gray level of a control message data to reconstruct the color of the video image data that this data had replaced. 8. Procédé selon l'une des revendications 2 et 4, caractérisé en ce qu'en présence de données d'image vidéo définies chacune par un groupe de P bits pour une couleur rouge, un groupe de P bits pour une couleur verte et un groupe de P bits pour une couleur bleue, on remplace K bits dans chaque groupe d'une donnée d'image vidéo par K bits dont les valeurs définissent une donnée d'un message de contrôle, et en réception on utilise les P-K bits non remplacés de chacun des trois groupes d'une donnée du message de contrôle pour reconstituer la couleur de la donnée d'image vidéo que cette donnée avait remplacée. 8. Method according to one of claims 2 and 4, characterized in that in the presence of video image data each defined by a group of P bits for a red color, a group of P bits for a green color and a group of P bits for a blue color, we replace K bits in each group of a video image data by K bits whose values define a data of a control message, and in reception we use the PK bits not replaced of each of the three groups of a control message data to reconstruct the color of the video image data that this data had replaced. 9. Procédé selon l'une des revendications 1 à 8, caractérisé en ce que 15 chaque donnée d'un message de contrôle est intégrée de façon redondante au moins deux fois dans une image vidéo. 9. Method according to one of claims 1 to 8, characterized in that each data of a control message is redundantly integrated at least twice in a video image. 10. Procédé selon l'une des revendications 1 à 9, caractérisé en ce que ledit message de contrôle comprend en outre une valeur d'un compteur représentative de la position de ladite image vidéo acquise au sein d'une 20 séquence. 10. Method according to one of claims 1 to 9, characterized in that said control message further comprises a value of a counter representative of the position of said video image acquired within a sequence. 11. Procédé selon l'une des revendications 1 à 10, caractérisé en ce que ledit message de contrôle comprend en outre un code de correction d'erreur représentatif desdites données d'image vidéo restantes dans ladite image traitée. 25 The method according to one of claims 1 to 10, characterized in that said control message further comprises an error correction code representative of said video image data remaining in said processed image. 25 12. Procédé selon la revendication 11, caractérisé en ce que ledit code de correction d'erreur est de type CRC. 12. The method as claimed in claim 11, characterized in that said error correction code is of CRC type. 13. Dispositif (Dl) de traitement d'images vidéo destinées à être transmises à un récepteur (R) en vue d'être utilisées pour constituer des images de synthèse à afficher, caractérisé en ce qu'il est agencé, en 30 présence d'une image vidéo acquise constituée de données d'image vidéo, pour constituer une image traitée en remplaçant dans cette image vidéo acquise certaines de ses données d'image vidéo par un message de contrôle contenant au moins un groupe de données de contrôle, de type non vidéo etdéfinissant des informations destinées à être utilisées par ledit récepteur (R) pour constituer une image de synthèse à afficher à partir au moins des données d'image vidéo restantes, après ledit remplacement, dans ladite image traitée. 13. Device (D1) for processing video images intended to be transmitted to a receiver (R) for use in constituting synthetic images for display, characterized in that it is arranged, in the presence of an acquired video image consisting of video image data, for constituting a processed image by replacing in said acquired video image some of its video image data with a control message containing at least one control data group, of type non-video and defining information for use by said receiver (R) to provide an image to be displayed from at least one of the video image data remaining after said replacement in said processed image. 14. Source (S) propre à transmettre des images vidéo à un récepteur (R), caractérisée en ce qu'elle comprend un dispositif de traitement (D1) selon la revendication 13 destiné à l'alimenter en images traitées devant être transmises audit récepteur (R). 14. Source (S) capable of transmitting video images to a receiver (R), characterized in that it comprises a processing device (D1) according to claim 13 for feeding it with processed images to be transmitted to said receiver (R). 15. Procédé de génération d'images de synthèse à afficher par un récepteur (R), caractérisé en ce qu'il consiste, en cas de réception d'une image traitée au moyen d'un procédé de traitement selon l'une des revendications 1 à 12, à extraire de cette image traitée les données de contrôle contenues dans son message de contrôle, puis à constituer une image de synthèse à afficher à partir au moins des données d'image vidéo restantes dans ladite image traitée reçue et en fonction desdites données de contrôle extraites. 15. Method for generating synthetic images to be displayed by a receiver (R), characterized in that it consists, in the case of receiving an image processed by means of a treatment method according to one of the claims. 1 to 12, to extract from this processed image the control data contained in its control message, then to constitute a summary image to be displayed from at least the remaining video image data in said processed image received and according to said extracted control data. 16. Procédé selon la revendication 15, caractérisé en ce que l'on constitue ladite image de synthèse à afficher à partir desdites données d'image vidéo restantes dans ladite image traitée reçue et de données auxiliaires et en fonction desdites données de contrôle extraites, qui pour certaines au moins sont relatives auxdites données auxiliaires. 16. The method according to claim 15, characterized in that said synthesis image is constituted to be displayed from said video image data remaining in said received processed image and auxiliary data and according to said extracted control data, which at least some are related to said auxiliary data. 17. Procédé selon l'une des revendications 15 et 16, caractérisé en ce qu'après avoir extrait lesdites données de contrôle on calcule un code de correction d'erreur représentatif des données d'image vidéo restantes dans ladite image traitée reçue, et l'on utilise ces données d'image vidéo restantes lorsque le code de correction d'erreur calculé est identique à celui qui est défini par certaines desdites données de contrôle extraites. 17. Method according to one of claims 15 and 16, characterized in that after extracting said control data is calculated an error correction code representative of the remaining video image data in said processed image received, and said remaining video image data is used when the calculated error correction code is the same as that defined by some of said extracted control data. 18. Dispositif (D2) de génération d'images de synthèse devant être affichées par un récepteur (R), caractérisé en ce qu'il est agencé, en cas de réception par ledit récepteur (R) d'une image traitée au moyen d'un procédé de traitement selon l'une des revendications 1 à 12, pour extraire de cette image traitée les données de contrôle contenues dans son message de contrôle, puis pour constituer une image de synthèse à afficher à partir aumoins des données d'image vidéo restantes dans ladite image traitée reçue et en fonction desdites données de contrôle extraites. 18. Device (D2) for generating synthetic images to be displayed by a receiver (R), characterized in that it is arranged, in the event of reception by said receiver (R) of an image processed by means of a processing method according to one of claims 1 to 12, for extracting from this processed image the control data contained in its control message, then to constitute a computer image to be displayed from at least video image data remaining in said received processed image and as a function of said extracted control data. 19. Récepteur (R) propre à recevoir des images traitées d'une source (S), caractérisé en ce qu'il comprend un dispositif de gestion (D) selon la revendication 18. 19. Receiver (R) adapted to receive processed images of a source (S), characterized in that it comprises a management device (D) according to claim 18. 20. Utilisation du procédé de traitement selon l'une des revendications 1 à 12, du dispositif de traitement (D1) selon la revendication 13, du procédé de génération selon l'une des revendications 15 à 17, et du dispositif de génération (D2) selon la revendication 18 pour la gestion de la génération et de l'utilisation d'images vidéo respectivement par une source (S) et par un récepteur (R) faisant partie d'un véhicule. 20. Use of the treatment method according to one of claims 1 to 12, the treatment device (D1) according to claim 13, the generation method according to one of claims 15 to 17, and the generation device (D2 ) according to claim 18 for managing the generation and use of video images respectively by a source (S) and a receiver (R) forming part of a vehicle.
FR1052051A 2010-03-22 2010-03-22 METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES Expired - Fee Related FR2957742B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1052051A FR2957742B1 (en) 2010-03-22 2010-03-22 METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES
BR112012023744-6A BR112012023744B1 (en) 2010-03-22 2011-02-22 VIDEO IMAGE TREATMENT METHOD AND DEVICE, SOURCE, SYNTHESIS IMAGE GENERATION METHOD AND DEVICE, RECEIVER AND USE THEREOF
EP11712622.7A EP2550805B1 (en) 2010-03-22 2011-02-22 Methods and devices for generating and using video images having control messages
PCT/FR2011/050370 WO2011117496A1 (en) 2010-03-22 2011-02-22 Methods and devices for generating and using video images comprising control messages
CN201180014919.0A CN102804764B (en) 2010-03-22 2011-02-22 For producing and using the method and apparatus including controlling the video image of message
US13/634,834 US9609267B2 (en) 2010-03-22 2011-02-22 Methods and devices for generating and using video images comprising control messages

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1052051A FR2957742B1 (en) 2010-03-22 2010-03-22 METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES

Publications (2)

Publication Number Publication Date
FR2957742A1 true FR2957742A1 (en) 2011-09-23
FR2957742B1 FR2957742B1 (en) 2012-04-13

Family

ID=43384721

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1052051A Expired - Fee Related FR2957742B1 (en) 2010-03-22 2010-03-22 METHODS AND DEVICES FOR GENERATING AND USING VIDEO IMAGES HAVING CONTROL MESSAGES

Country Status (6)

Country Link
US (1) US9609267B2 (en)
EP (1) EP2550805B1 (en)
CN (1) CN102804764B (en)
BR (1) BR112012023744B1 (en)
FR (1) FR2957742B1 (en)
WO (1) WO2011117496A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150209654A1 (en) 2013-11-12 2015-07-30 Deq Systems Corp. Reconfigurable playing cards and game display devices
US9659410B2 (en) * 2014-10-21 2017-05-23 Honeywell International Inc. Low latency augmented reality display
EP3780588A1 (en) * 2019-08-14 2021-02-17 Siemens Aktiengesellschaft Method for transmitting metainformation to an image of a video stream

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0901282A2 (en) * 1997-09-03 1999-03-10 Hitachi, Ltd. Method and apparatus for recording and reproducing electronic watermark information, and recording medium
WO2004021275A2 (en) * 2002-08-30 2004-03-11 Koninklijke Philips Electronics N.V. Embedding fingerprint data for media content identification
US20050286740A1 (en) * 2004-06-24 2005-12-29 Marc-Andre Sigle Vehicle with image data signal source identification
GB2455420A (en) * 2007-12-06 2009-06-10 Boeing Co Detecting faults in digital video signal

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010052911A1 (en) * 2000-01-07 2001-12-20 Dennis Boyle System and Method for image capture and management in an electronic device
US7292369B2 (en) * 2000-12-28 2007-11-06 Seiko Epson Corporation Logo data generating method and system
US7085006B2 (en) * 2000-12-28 2006-08-01 Seiko Epson Corporation Apparatus for generating two color printing data, a method for generating two color printing data and recording media
US7403204B2 (en) * 2004-08-23 2008-07-22 Hewlett-Packard Development Company, L.P. Method and apparatus for managing changes in a virtual screen buffer
EP1806870B1 (en) * 2006-01-06 2010-09-22 Alcatel Lucent Method for providing data and data transmission system
WO2008139251A2 (en) * 2006-04-14 2008-11-20 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US8390615B2 (en) * 2006-08-11 2013-03-05 Sharp Kabushiki Kaisha Image display apparatus, image data providing apparatus, and image display system providing a control script for executing basic functions
US8613671B2 (en) * 2009-06-08 2013-12-24 Cfph, Llc Data transfer and control among multiple computer devices in a gaming environment
US8771078B2 (en) * 2009-06-08 2014-07-08 Cfph, Llc Amusement device including means for processing electronic data in play of a game of chance
US8419535B2 (en) * 2009-06-08 2013-04-16 Cfph, Llc Mobile playing card devices
US8287386B2 (en) * 2009-06-08 2012-10-16 Cfph, Llc Electrical transmission among interconnected gaming systems
US8784189B2 (en) * 2009-06-08 2014-07-22 Cfph, Llc Interprocess communication regarding movement of game devices
US8545327B2 (en) * 2009-06-08 2013-10-01 Cfph, Llc Amusement device including means for processing electronic data in play of a game in which an outcome is dependant upon card values
US8545328B2 (en) * 2009-06-08 2013-10-01 Cfph, Llc Portable electronic charge device for card devices
US8270807B2 (en) * 2009-07-13 2012-09-18 Panasonic Corporation Recording medium, playback device, and integrated circuit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0901282A2 (en) * 1997-09-03 1999-03-10 Hitachi, Ltd. Method and apparatus for recording and reproducing electronic watermark information, and recording medium
WO2004021275A2 (en) * 2002-08-30 2004-03-11 Koninklijke Philips Electronics N.V. Embedding fingerprint data for media content identification
US20050286740A1 (en) * 2004-06-24 2005-12-29 Marc-Andre Sigle Vehicle with image data signal source identification
GB2455420A (en) * 2007-12-06 2009-06-10 Boeing Co Detecting faults in digital video signal

Also Published As

Publication number Publication date
WO2011117496A1 (en) 2011-09-29
CN102804764B (en) 2016-08-17
US9609267B2 (en) 2017-03-28
EP2550805A1 (en) 2013-01-30
BR112012023744A2 (en) 2017-10-03
CN102804764A (en) 2012-11-28
FR2957742B1 (en) 2012-04-13
BR112012023744B1 (en) 2022-04-19
US20130014198A1 (en) 2013-01-10
EP2550805B1 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
EP2550805B1 (en) Methods and devices for generating and using video images having control messages
WO1999004570A1 (en) Method for marking a compressed digital video signal
FR2769743A1 (en) Scanning of a plasma display panel to produce halftones
EP2444953B1 (en) Device for bitmap display of two merged images
EP2865100B1 (en) Device for correcting two errors using a code with a hamming distance of three or four
EP1952630A1 (en) High-dynamics image transmission system, encoding and decoding units and methods therefor
EP0985313A1 (en) Method for hiding binary data in a digital image
FR3088510A1 (en) SYNTHESIS OF VIEWS
FR2834146A1 (en) A compact turbo-decoder having high efficiency, comprises two sets of processors for computing in parallel the syndromes and for updating in parallel the block, respectively
WO2011117498A1 (en) Method and device for managing the use of video images by means of a validity counter
FR3053200A1 (en) METHOD FOR VERIFYING VALIDITY OF IMAGE DATA
FR2492204A1 (en) METHOD AND DEVICE FOR TRANSMITTING AND RECORDING DATA WITH REDUCED DATA RATE
WO2021214264A1 (en) Method for managing image data, and vehicle lighting system
EP3991433A1 (en) Method for encoding and decoding an image of a video sequence, and associated device
FR3083662A1 (en) ROBUST COMPRESSION AND DECOMPRESSION OF DIGITAL IMAGES
EP1096383A1 (en) Reconfigurable color converter
FR3121528A1 (en) Method and device for detecting an intrusion on a data bus of a vehicle
WO2021214265A1 (en) Method for managing image data, and vehicle lighting system
CA3160498A1 (en) Method for compressing a sequence of images displaying synthetic graphical elements of non-photographic origin
FR3137519A1 (en) Method for projecting a dynamic lighting beam by a lighting system of a motor vehicle
FR2969429A1 (en) Coding device for communicating body that transmits binary numbers in e.g. multiplexed communication network, has bits between most and least significant bits, where bits are characterized such that codes are provided as binary numbers
WO2021214266A1 (en) Method for managing image data, and vehicle lighting system
EP4139894A1 (en) Method for managing image data, and vehicle lighting system
FR3104887A1 (en) Image data management method and automotive lighting device
FR3102536A1 (en) Image data management method and automotive lighting device

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

CA Change of address

Effective date: 20180312

CD Change of name or company name

Owner name: PEUGEOT CITROEN AUTOMOBILES SA, FR

Effective date: 20180312

PLFP Fee payment

Year of fee payment: 11

ST Notification of lapse

Effective date: 20211105