FR2736495A1 - Procede permettant de generer une video a haute resolution - Google Patents

Procede permettant de generer une video a haute resolution Download PDF

Info

Publication number
FR2736495A1
FR2736495A1 FR9607616A FR9607616A FR2736495A1 FR 2736495 A1 FR2736495 A1 FR 2736495A1 FR 9607616 A FR9607616 A FR 9607616A FR 9607616 A FR9607616 A FR 9607616A FR 2736495 A1 FR2736495 A1 FR 2736495A1
Authority
FR
France
Prior art keywords
video signal
signal
scan lines
interleaves
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9607616A
Other languages
English (en)
Other versions
FR2736495B1 (fr
Inventor
Shaowei Pan
Shay Ping Thomas Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of FR2736495A1 publication Critical patent/FR2736495A1/fr
Application granted granted Critical
Publication of FR2736495B1 publication Critical patent/FR2736495B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/20Conversion of the manner in which the individual colour picture signal components are combined, e.g. conversion of colour television standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)

Abstract

On décrit un procédé permettant de générer un signal vidéo numérique, en temps réel, à haute résolution à partir d'un signal vidéo composite analogique comme un signal NTSC, PAL ou SECAM. Le signal vidéo analogique est numérisé (362) et les demi-entrelacements consécutifs du signal sont fusionnés (364) afin de produire une trame. Une interpolation non uniforme (366) est effectuée entre les lignes de balayage adjacentes de la trame afin de générer le signal vidéo à haute résolution.

Description

PROCEDE PERMETTANT DE GENERER UNE VIDEO A HAUTE
RESOLUTION
Inventions apparentées
La présente invention concerne les invention suivantes qui sont cédées au même cessionnare que celui de la présente invention
(1) "Système vidéo et procédé d'utilisation de celui-ci", ayant le numéro de série 08/49661, enregistré en même temps que la présente invention ; et
(2) "Circuit permettant d'interpoler des lignes de balayage d'un signal vidéo et procédé d tilisation de celui-ci", ayant le numéro de série 08/496795, enregistré en même temps que la présente invention.
Le sujet des inventions apparentée åentifiées cidessus est incorporé en tant que référence dans la description de la présente invention.
Domaine technique
La présente invention concerne généralement le traitement de signaux vidéo et, en partIculier, un procédé permettant d'interpoler les lignes de balayage dans un signal vidéo.
Arrière-plan de l'invention
Le premier système de télévision couleur a été mis au point aux Etats-Unis et, en décembre 1953, la FCC (Commission Fédérale de Télécommunications) a approuvé la norme de transmission. Le National Television System
Committee (NTSC) a effectué la plupart du travail visant à mettre au point une norme de transmission couleur. La norme NTSC propose un format permettant de diffuser un signal vidéo présentant 525 lignes de balayage (dont 485 représentent des pixels), 60 images/seconde et 2:1 entrelacements. Les émissions diffusées par la télévision aux Etats-Unis, au Japon et dans de nombreux autres pays utilisent couramment la norme NTSC.
L'équivalent européen de la norme NTSC est la norme de télévision en couleur PAL qui utilise 625 lignes de balayage, 50 images/seconde et 2:1 entrelacements. Une autre norme européenne, le SECAM, a été mise au point en
France au cours des années 1960. Comme le PAL, le SECAM est un système utilisant 625 lignes de balayage, 50 images/seconde et 2:1 entrelacements.
Les trois normes, NTSC, PAL et SECAM fournissent des sources vidéo analogiques ayant un format d'affichage entrelacé, c'est-à-dire que chaque image vidéo est balayée en tant que deux demi-entrelacements qui sont séparés dans le temps et décalés dans l'espace dans une direction verticale. La Figure 1 illustre la séparation dans le temps des demi-entrelacements dans un signal vidéo entrelacé. Le signal vidéo est composé d'une séquence de demi-entrelacements pairs et impairs alternatifs séparés par une période de temps permettant de synchroniser les demi-entrelacements. Le demientrelacement pair contient une ligne de balayage sur deux du demi-entrelacement, ou les lignes de balayage paires, alors que la trame impaire contient les lignes de balayage impaires. Ainsi, un demi-entrelacement NTSC contient 262,5 lignes de balayage.La Figure 2 représente un exemple d'une trame de balayage affichant un demientrelacement impair.
La Figure 3 présente un exemple d'une forme d'onde d'un signal vidéo composite NTSC. La forme d'onde représentée représente deux lignes de balayage. La forme d'onde comporte une impulsion de synchronisation horizontale 50 et une giclée de signaux de couleur 52 pour chaque ligne de balayage.
On a beaucoup discuté de l'introduction de nouvelles normes de télévision, telle que la télévision à haute définition (HDTV), pour améliorer la qualité des images et du son transmis. Les nouvelles normes de transmission nécessiteront un investissement sensible en nouvel équipement de la part des diffuseurs et des consommateurs. Un récepteur de télévision qui marche aussi bien qu'un poste de télévision à haute définition utilisant les normes actuelles de diffusion obtiendrait effectivement les mêmes résultats qu'avec les normes proposées, sans que les diffuseurs et les consommateurs doivent payer des coûts de conversion énormes.
Ainsi, on a besoin d'un système vidéo et d'un procédé qui génèrent des images haute définition à partir de diffusion de signaux vidéo utilisant les formats de transmission de télévision standards comme le NTSC, le
PAL ou le SECAM.
Brève description des dessins
La présente invention est décrite avec précision dans les revendications jointes. Toutefois, d'autres caractéristiques de la présente invention deviendront évidentes et l'invention sera mieux comprise si on fait référence à la description détaillée suivante conjointement avec les dessins joints dans lesquels
la Figure 1 illustre un schéma fonctionnel temporel d'un signal vidéo entrelacé.
La Figure 2 illustre une représentation graphique d'une trame de balayage représentée par le signal vidéo entrelacé de la Figure 1.
La Figure 3 illustre une représentation graphique d'un segment de forme d'onde d'un signal vidéo NTSC.
La Figure 4 illustre une représentation de schéma fonctionnel d'une première version d'un système vidéo utilisant un circuit de vidéo renforcée en accord avec un mode de réalisation de la présente invention.
La Figure 5 illustre une représentation de schéma fonctionnel d'une deuxième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention.
La Figure 6 illustre une représentation de schéma fonctionnel d'une troisième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention.
La Figure 7 illustre une représentation de schéma fonctionnel d'une quatrième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention.
La Figure 8 illustre de façon conceptuelle une interpolation non uniforme effectuée selon un mode de réalisation de la présente invention.
La Figure 9 illustre une représentation graphique d'une interpolation non uniforme et linéaire effectuée selon un mode de réalisation de la présente invention.
La Figure 10 illustre une représentation graphique d'une interpolation non uniforme et non linéaire effectuée selon un mode de réalisation de la présente invention.
La Figure 11 illustre un organigramme d'un procédé d'utilisation des systèmes vidéo représentés sur les
Figures 4 à 7.
La Figure 12 est un schéma fonctionnel détaillé du convertisseur représenté sur les Figures 4 à 7.
La Figure 13 est un schéma fonctionnel détaillé du circuit de vidéo renforcée représenté sur les Figures 4 à 7.
La Figure 14 est un schéma fonctionnel détaillé d'une autre version du circuit de vidéo renforcée représenté sur les Figures 4 à 7 selon un mode de réalisation de la présente invention.
La Figure 15 est un organigramme d'un procédé d'utilisation des circuits de vidéo renforcée représentés sur les Figures 13 et 14.
La Figure 16 illustre un organigramme d'un procédé de traitement d'un signal vidéo entrelacé qui est en accord avec un mode de réalisation de la présente invention.
La Figure 17 illustre un organigramme d'un procédé de traitement d'un signal vidéo couleur entrelacé qui est en accord avec un mode de réalisation préféré de la présente invention.
La Figure 18 illustre un schéma contextuel d'un système de diffusion qui utilise au moins l'un des systèmes vidéo représentés sur les Figures 4 à 7.
La Figure 19 illustre un schéma contextuel d'un système de diffusion par câble qui utilise au moins l'un des systèmes vidéo représentés sur les Figures 4 à 7.
Description détaillée d'un mode de réalisation préféré
Un avantage de la présente invention est qu'elle fournit un procédé permettant de générer un signal vidéo qui améliore la définition d'une image représentée par un signal vidéo. Un autre avantage de la présente invention est qu'elle fournit un procédé qui traite des signaux vidéo qui sont fondés sur les normes de transmission de télévision actuelles, permettant ainsi à des images de haute qualité d'être dérivées des diffusions par télévision classiques.
En référence maintenant à la Figure 4, un premier système vidéo utilisant un procédé selon un mode de réalisation de la présente invention est représenté. Le système vidéo comporte un convertisseur 70, une mémoire 72, un circuit de vidéo renforcée 74, un moniteur 76 et un générateur de synchronisation 78. Le convertisseur 70 fournit un moyen permettant de convertir un signal vidéo 80 en une pluralité de signaux de l'espace des couleurs.
Le format du signal vidéo 80 peut être fondé sur des normes classiques de transmission de télévision telles que le NTSC, le PAL ou le SECAM. Les signaux de l'espace des couleurs peuvent être interprétés en tant que mots binaires qui représentent des valeurs dans un espace des couleurs donné, tel que l'espace des couleurs YIQ, YUV ou
RGB (RVG). Les signaux de l'espace des couleurs passent du convertisseur 70 à la mémoire 72. La mémoire 72 mémorise la pluralité des signaux de l'espace des couleurs correspondant à une trame d'entrée et, à son tour, fournit les signaux de l'espace des couleurs en sortie. Le circuit de vidéo renforcée 74 reçoit les signaux de l'espace des couleurs de la mémoire 72 et effectue une interpolation non uniforme entre les signaux de l'espace des couleurs adjacents.Une fois l'interpolation non uniforme effectuée, le circuit de vidéo renforcée 74 génère une pluralité de signaux d'éléments d'image interpolés qui représentent une image de sortie ayant un nombre supérieur de lignes de balayage verticales à celui la trame d'entrée. Les signaux d'éléments d'image interpolés peuvent être interprétés en tant que mots binaires représentant des valeurs dans le même espace des couleurs que celui des signaux de l'espace des couleurs.
Le générateur de synchronisation 78 génère un signal de déclenchement de synchronisation 86, un signal d'échantillonnage 82 et un signal de synchronisation des demi-entrelacements 92. Tous ces signaux sont générés à partir du signal vidéo 80. Le signal de déclenchement de synchronisation 86 est réparti dans la mémoire 72 et le circuit de vidéo renforcée 74 afin de coordonner le transfert des signaux de l'espace des couleurs de la mémoire 72 au circuit de vidéo renforcée 74. Le signal d'échantillonnage 82 synchronise le fonctionnement du convertisseur 70 et de la mémoire 72. Si le signal vidéo 80 est un signal NTSC, les fréquences du signal d'échantillonnage 82, du signal de déclenchement de synchronisation 86 et du signal de synchronisation des demi-entrelacements 92 sont respectivement d'environ 12,27 MHz, 24,54 MHz et 60 Hz.
Le moniteur 76 affiche une image représentée par les signaux d'éléments d'image interpolés qui est reçue du circuit de vidéo renforcée 74. En général, le moniteur 76 est n'importe quel moyen permettant de recevoir et d'afficher une image visuelle représentée par un signal électronique. Par exemple, le moniteur 76 pourrait être un poste de télévision grand public, un poste de télévision à grand écran, un moniteur d'ordinateur ou un affichage à cristaux liquides (LCD).
La Figure 5 illustre une deuxième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention. Le système vidéo comporte le convertisseur 70, la mémoire 72, le générateur de synchronisation 78 et le moniteur 76 représentés sur la Figure 4. De plus, le système vidéo préféré comporte une PLL (boucle à phase asservie) 104 et un circuit de vidéo renforcée 100 qui permettent au système vidéo de faire varier le nombre de lignes de balayage verticales de la trame de sortie. La PLL 104 génère au moins un signal de synchronisation de la bande supérieure à partir du signal de synchronisation des demi-entrelacements 92. La PLL 104 peut être soit une PLL analogique, soit une PLL numérique. La PLL 104 fournit un signal de synchronisation de la bande supérieure au circuit de vidéo renforcée 100.Le signal de synchronisation de la bande supérieure est utilisé pour transférer les signaux d'éléments d'image interpolés depuis le circuit de vidéo renforcée 100.
La Figure 6 illustre une troisième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention. Tout comme le système vidéo de la Figure 4, le système vidéo de la Figure 6 comporte le convertisseur 70, la mémoire 72, le circuit de vidéo renforcée 74, le générateur de synchronisation 78 et le moniteur 76. Toutefois, en plus de ces éléments, le système vidéo de la Figure 6 comporte un convertisseur de l'espace des couleurs 124 permettant de convertir les signaux d'éléments d'image interpolés provenant du circuit de vidéo renforcée 74 en une pluralité de signaux de format de sortie. Les signaux de format de sortie sont transmis au moniteur 76 qui, en réponse à cela, affiche une image représentée par les signaux. Des exemples de signaux de format de sortie possibles sont des signaux RVG et des signaux YCrCb.Le convertisseur de l'espace des couleurs 124 est utile lorsque les signaux de l'espace des couleurs et le moniteur 76 sont différents. Par exemple, le convertisseur 70 peut générer en sortie une pluralité de signaux YW, tandis que le moniteur 76 répond aux signaux
RVG. Dans ce cas, il faudrait que le convertisseur de l'espace des couleurs 124 convertisse les signaux YUV en signaux RVG correspondants.
La Figure 7 illustre une quatrième version d'un système vidéo utilisant un procédé qui est en accord avec un mode de réalisation de la présente invention. Cette version du système vidéo comporte le convertisseur 70, la mémoire 72, le générateur de synchronisation 78, le moniteur 76, le circuit de vidéo renforcée 100 et la PLL 104 tels que représentés sur la Figure 5. De plus, le système vidéo comporte le convertisseur de l'espace des couleurs 124 permettant de convertir les signaux d'éléments d'image interpolés provenant du circuit de vidéo renforcée 100 en une pluralité de signaux de format de sortie. Les signaux de format de sortie sont transmis au moniteur 76 qui, en réponse à cela, affiche une image représentée par les signaux. Des exemples de signaux de format de sortie possibles sont les signaux RVG et les signaux YCrCb.
Le circuit de vidéo renforcée 100 et la PLL 104 permettent au système vidéo de faire varier le nombre de lignes de balayage verticales de la trame de sortie. La
PLL 104 génère au moins un signal de synchronisation de la bande supérieure à partir du signal de synchronisation des demi-entrelacements 92. Le signal de synchronisation de la bande supérieure est asservi en phase sur le signal de synchronisation des demi-entrelacements et présente une fréquence qui est un multiple du signal de synchronisation des demi-entrelacements. La PLL 104 fournit le signal de synchronisation de la bande supérieure au circuit de vidéo renforcée 100 et au convertisseur de l'espace des couleurs 124.
La Figure 8 illustre de façon conceptuelle une interpolation non uniforme effectuée selon un mode de réalisation de la présente invention. Le signal vidéo 80 reçu par le système vidéo comprend une pluralité de lignes de balayage, dont quatre sont représentées sur la
Figure 8. Chaque ligne de balayage comporte une pluralité de signaux de l'espace des couleurs. Les lignes de balayage d'entrée sont indexées, de k à k+1, en fonction de leur position verticale relative dans une trame. Le système vidéo traite le signal vidéo d'entrée afin de générer une pluralité correspondante de lignes de balayage de sortie. Chaque ligne de balayage de sortie comporte une pluralité de signaux d'éléments d'image interpolés.Dans l'exemple représenté, les signaux de l'espace des couleurs de chaque paire de lignes de balayage adjacentes sont interpolés afin de produire trois lignes de balayage de sortie de signaux d'éléments d'image interpolés. Par exemple, les lignes de balayage d'entrée k et k+l constituent une paire adjacente de lignes de balayage et contiennent ainsi une pluralité de signaux adjacents de l'espace des couleurs. Les trois lignes de balayage de sortie les plus élevées sont générées à partir des lignes de balayage d'entrée k et k+l en utilisant des interpolations non uniformes. Les lignes de balayage de sortie sont représentées comme étant espacées régulièrement toutefois, une interpolation non uniforme peut également être utilisée pour générer des lignes de balayage de sortie espacées de façon irrégulière.En outre, une paire adjacente de lignes de balayage d'entrée peut être interpolée de façon non uniforme afin de générer un nombre quelconque de lignes de balayage de sortie correspondantes. Par exemple, un signal NTSC, qui présente environ 485 lignes de balayage par trame, peut être interpolé de façon non uniforme afin de générer des images de sortie présentant 700, 800, 900, 1000, 1200 ou 1920 lignes de balayage.
La Figure 9 illustre une interpolation non uniforme et linéaire effectuée selon un mode de réalisation de la présente invention. Il apparaîtra clairement à une personne ayant une connaissance ordinaire de la technique qu une interpolation linéaire est un cas particulier d'interpolation non linéaire. Une interpolation non uniforme et linéaire est fondée sur une fonction
Yi = Clik*dk + c 2ik*dk+1 Equation 1
où Yi représente un signal d'élément d'image interpolé, dk et dk+1 représentent une paire de signaux de l'espace des couleurs adjacents ; clik représente un premier coefficient ; c2ik représente un deuxième coefficient ; et i et k sont des indices entiers correspondant aux lignes de balayage de sortie et aux lignes de balayage d'entrée, respectivement.
Les coefficients peuvent être interprétés comme étant des valeurs de poids selon lesquelles clik + C2ik = 1, et O S clik S 1 et O < c2ik < N
Sur la Figure 9, le signal d'élément d'image interpolé Yi correspond aux signaux de l'espace des couleurs adjacents d1 et d2 situés dans les lignes de balayage d'entrée k et k+1, respectivement. Les variables x1, x2 et x3 représentent des distances. Les coefficients sont déterminés comme suit
Clik = X1/X3 Equation 2
C2ik = X2/X3 Equation 3
La Figure 10 illustre une interpolation non uniforme et non linéaire effectuée selon un mode de réalisation de la présente invention.La Figure 10 représente une interpolation non linéaire de deuxième ordre fondée sur une fonction
Yi = Clik*dk + C2ik*dk+l C3ik*dk+2 Equation 4
où Yi représente un signal d'élément d'image interpolé ; dk, dk+l et dk+2 représentent trois signaux de l'espace des couleurs adjacents successifs ; clik représente un premier coefficient ; C2ik représente un deuxième coefficient ; et i et k sont des indices entiers correspondant aux lignes de balayage de sortie et aux lignes de balayage d'entrée, respectivement. Les coefficients peuvent être interprétés comme étant des valeurs de poids. Bien que la Figure 10 représente une interpolation non linéaire de deuxième ordre, un mode de réalisation de la présente invention peut utiliser n'importe quelle interpolation non linéaire de nième ordre.De plus, l'interpolation non linéaire peut être fondée sur un développement polynôme de nième ordre.
Sur la Figure 10, le signal d'élément d'image interpolé Yi correspond aux signaux de l'espace des couleurs dl, d2 et d3 situés dans les lignes de balayage d'entrée k, k+l et k+2, respectivement. Fondamentalement, une fonction d'interpolation du second degré est appliquée aux trois signaux de l'espace des couleurs adjacents afin d'obtenir le signal d'élément d'image interpolé. Les variables xl, x2, x3, x4, x5 et x6 représentent des distances. Les coefficients sont déterminés comme suit
Clik = (x6 * x3)/(x5 * xl) Equation 5
C2ik = (x6 * x4)/(x2 * xl) Equation 6
C3ik = (x4 * x3)/(x5 * x2) Equation 7
La Figure 11 illustre un organigramme d'un procédé d'utilisation des systèmes vidéo représentés sur les
Figures 4 à 7 pour traiter un signal vidéo. A la case 170, le signal vidéo 80 est transmis à au moins un récepteur.A la case 172, le signal vidéo est reçu par un récepteur. Le récepteur incorpore un système vidéo qui met en oeuvre la présente invention. Par exemple, le récepteur pourrait être un poste de télévision grand public, un poste de télévision à grand écran, un moniteur d'ordinateur, un poste de télévision à affichage à cristaux liquides (LCD), un moniteur d'ordinateur à affichage à cristaux liquides ou n'importe quel autre moyen permettant de recevoir ou d'afficher une image visuelle représentée par un signal électronique.
A la case 174, le signal de déclenchement de synchronisation 86 et le signal d'échantillonnage 82 sont générés à partir du signal vidéo 80. Le signal de déclenchement de synchronisation 86 est ensuite réparti dans la mémoire 72 et le circuit de vidéo renforcée 74, 100 afin de coordonner le transfert des signaux de l'espace des couleurs provenant de la mémoire 72 au circuit de vidéo renforcée 74, 100. De même, le signal d'échantillonnage 82 est réparti dans le convertisseur 70 et la mémoire 72 afin de synchroniser leur fonctionnement.
A la case 176, le signal vidéo 80 est converti en la pluralité des signaux de l'espace des couleurs représentant une image d'entrée. Ensuite, à la case 178, les signaux de l'espace des couleurs représentant la trame d'entrée sont mémorisés dans la mémoire 72. Bien que la mémoire 72 puisse être conçue de façon à être suffisamment grande pour mémoriser les signaux de l'espace des couleurs d'une trame entière, une personne ayant une connaissance ordinaire de la technique comprendra que si le signal vidéo 80 est entrelacé avec deux demi-entrelacements, la mémoire 72 n'a alors besoin de mémoriser que les signaux de l'espace des couleurs correspondant à l'un de ces demi-entrelacements.
A la case 180, une interpolation non uniforme entre les signaux de l'espace des couleurs adjacents est effectuée pour générer une pluralité de signaux d'éléments d'image interpolés qui représentent une trame de sortie ayant un nombre supérieur de lignes de balayage verticales à celui de la trame d'entrée. L'interpolation non uniforme peut être fondée soit sur une interpolation linéaire, soit sur une interpolation non linéaire.
A la case 182, une image représentée par les signaux d'éléments d'image interpolés est affichée par le moniteur 76.
La Figure 12 est un schéma fonctionnel détaillé du convertisseur 70 représenté sur les Figures 4 à 7. Le convertisseur 70 comporte un convertisseur A/N 190, un convertisseur de signaux 192 et un décodeur 194. Le convertisseur A/N 190 numérise le signal vidéo 80 en une pluralité correspondante de signaux codés de façon binaire. Le convertisseur de signaux 192, qui réagit aux signaux codés de façon binaire, génère une pluralité de signaux de chrominance et une pluralité de signaux de luminance. Après réception des signaux de chrominance et de luminance, le décodeur 194 génère les signaux de l'espace des couleurs correspondants. Le fonctionnement du convertisseur A/N 190, du convertisseur de signaux 192 et du décodeur 194 est synchronisé par le signal d échantillonnage 82.
La Figure 13 est un schéma fonctionnel détaillé d'une version des circuits de vidéo renforcée 74, 100 représentés sur les Figures 4 à 7. Cette version du circuit de vidéo renforcée peut être utilisée pour calculer des interpolations non uniforme fondées sur la fonction donnée à l'Equation 1. Le circuit de vidéo renforcée comprend une pluralité de circuits d'interpolation 208a-c, une mémoire 202, une unité de commande 200, un tampon de ligne 204, un tampon de retard 206 et un tampon de sortie 218. Bien que le circuit de vidéo renforcée puisse comporter un nombre quelconque de circuits d'interpolation, il comporte en général un circuit d'interpolation par couleur composante. Par exemple, un seul circuit d'interpolation serait nécessaire pour effectuer une interpolation non uniforme d'un signal vidéo monochrome.Le circuit de vidéo renforcée servant d'exemple représenté sur la Figure 13 a pour objectif de traiter un signal vidéo ayant jusqu'à trois composantes de couleur, tel qu'un signal RVG ainsi, le circuit comporte trois circuits d'interpolation 208a-c.
Bien qu'un spécialiste de la technique comprenne que le circuit de vidéo renforcée est capable d'effectuer une interpolation non uniforme en utilisant n'importe quel format de signaux vidéo composants, la discussion suivante se référant aux Figures 11 et 12 utilisera, par exemple, des signaux RVG pour illustrer les fonctions des différentes versions du circuit de vidéo renforcée.
Les circuits d'interpolation 208a-c génèrent une pluralité de signaux d'éléments d'image interpolés en réponse à une pluralité de signaux de l'espace des couleurs reçus sur un bus de données d'entrée. Le bus de données d'entrée comporte un bus rouge 224, un bus vert 226 et un bus bleu 228. Dans l'exemple représenté, le circuit d'interpolation rouge 208a reçoit les signaux de l'espace des couleurs représentant la composante rouge d'un signal RVG sur le bus rouge 224 ; le circuit d'interpolation vert 208b reçoit les signaux de l'espace des couleurs représentant la composante verte d'un signal
RVG sur le bus vert 226 ; et le circuit d'interpolation bleu 208c reçoit les signaux de l'espace des couleurs représentant la composante bleue d'un signal RVG sur le bus bleu 228.
Chaque circuit d'interpolation effectue une interpolation non uniforme entre des signaux de l'espace des couleurs adjacents et comporte au moins un circuit arithmétique 210a-i pour calculer l'interpolation non uniforme. Bien qu'un circuit d'interpolation puisse comprendre un nombre quelconque de circuits arithmétiques, dans l'exemple donné, chaque circuit d'interpolation comporte trois circuits arithmétiques.
Chaque circuit arithmétique comporte un premier multiplicateur, un deuxième multiplicateur et un additionneur permettant de produire un signal d'élément d'image interpolé. Par exemple, le circuit d'interpolation rouge 208a comporte trois circuits arithmétiques rouges 210a-c ; le circuit d'interpolation vert 208b comporte trois circuits arithmétiques verts 210d-f ; et le circuit d'interpolation bleu 208c comporte trois circuits arithmétiques bleus 210g-i.
La fonction des circuits arithmétiques 210a-i peut être illustrée en faisant référence au premier circuit arithmétique rouge 210a. Tel que représenté, le premier circuit arithmétique rouge 210a comporte un premier multiplicateur 212, un deuxième multiplicateur 214 et un additionneur 216. Le premier multiplicateur 212 multiplie un signal de composante rouge reçu sur le bus rouge 224 par un coefficient pour produire un premier signal de produit. Le deuxième multiplicateur 214 multiplie une composante rouge mémorisée par un coefficient pour produire un deuxième signal de produit. L'additionneur 216 additionne les premier et deuxième signaux de produit afin de générer un signal d'élément d'image interpolé rouge.Les coefficients présentent généralement différentes valeurs ; toutefois, dans certaines conditions, comme celles d'une génération de lignes de balayage de sortie qui sont équidistantes des lignes de balayage d'entrée, ils peuvent présenter la même valeur.
La mémoire 202 fournit un moyen permettant de mémoriser les coefficients et fournit au moins un coefficient aux circuits d'interpolation 208a-c. Dans l'exemple représenté, les coefficients utilisés dans l'interpolation non uniforme de signaux de l'espace des couleurs dans la composante rouge traversent un bus de mémoire rouge 238 ; les coefficients utilisés dans l'interpolation non uniforme des signaux de l'espace des couleurs de la composante verte traversent un bus de mémoire vert 240 ; et les coefficients utilisés dans l'interpolation non uniforme des signaux de l'espace des couleurs de la composante bleue traversent un bus de mémoire bleu 242.
L'unité de commande 200 génère une adresse 236 pouvant être utilisée par la mémoire 202 pour récupérer au moins un coefficient. L'unité de commande 200 génère l'adresse 236 en réponse à la réception d'une adresse de ligne de balayage 222 correspondant aux signaux de l'espace des couleurs adjacents qui sont interpolés.
L'unité de commande 200 peut être programmée pour faire varier le nombre de lignes de balayage représentées par les signaux d'éléments d'image interpolés. Cela est accompli par l'unité de commande 200 qui reçoit une instruction 220 puis décode l'instruction pour choisir une valeur décalée d'une adresse différente qui est incluse dans l'adresse 236. Le décalage d'adresse désigne essentiellement un espace de mémoire différent contenant un autre ensemble de coefficients. Dans une version du circuit de vidéo renforcée, la mémoire 202 mémorise les ensembles de coefficients de façon à générer des trames de sortie présentant 700, 800, 900, 1000, 1200 ou 1920 lignes de balayage.
L'unité de commande 200 peut également générer des signaux de commande qui sont transmis au tampon de ligne 204, au tampon de retard 206 et au tampon de sortie 218.
Ces signaux de commandes peuvent être utilisés pour coordonner le transfert des données, ou peuvent également être utilisés pour initialiser ou remettre à zéro les tampons. De plus, l'unité de commande 200 génère un signal de synchronisation de sortie 234 qui est utilisé pour transférer les données sur un premier bus de sortie 230 ou un deuxième bus de sortie 232.
Le tampon de ligne 204 et le tampon de retard 206 constituent un tampon permettant de mémoriser les signaux de l'espace des couleurs correspondant à une ligne de balayage. Le tampon de retard 206 reçoit une séquence de signaux de l'espace des couleurs représentant une ligne de balayage. Après réception d'une séquence correspondant à une ligne de balayage complète, le tampon de retard transfère son contenu au tampon de ligne 204. A ce moment, le tampon de retard 206 commence à mémoriser le signal de l'espace des couleurs de la ligne de balayage suivante et le tampon de ligne 204 conserve les signaux de l'espace des couleurs de la ligne de balayage précédemment achevée. Les signaux de l'espace des couleurs mémorisés dans le tampon de ligne 204 sont répartis dans les circuits d'interpolation 208a-c sur leur bus tampon respectif.Un bus tampon rouge 204 connecte le tampon de ligne 204 au circuit d'interpolation rouge 208a. Un bus tampon vert 246 connecte le tampon de ligne 204 au circuit d'interpolation vert 208b. Un bus tampon bleu 248 connecte le tampon de ligne 204 au circuit d'interpolation rouge 208c. Par essence, le tampon de ligne 204 et le tampon de retard 206 agissent comme un tampon double qui mémorise les signaux de l'espace des couleurs des lignes de balayage adjacentes.
Le tampon de sortie 218 reçoit des signaux d'éléments d'image interpolés des circuits d'interpolation 208a-c et transmet les signaux d'éléments d'image interpolés d'une ligne de balayage de sortie courante sur les bus de sortie 230 à 232. Les éléments d'image interpolés qui ne font pas partie de la ligne de balayage de sortie courante sont mémorisés temporairement dans le tampon de sortie 218. Chacun des bus de sortie 230 à 232 peuvent transmettre en même temps des signaux d'éléments d'image interpolés rouge, bleu et vert. Deux bus de sortie sont fournis pour augmenter la largeur de bande de la sortie. En général, les lignes de balayage de sortie sont transmises à une fréquence plus élevée que celle des lignes de balayage d'entrée.
Le tampon de sortie 218 peut comporter de façon facultative un moyen (non représenté) permettant d'effectuer une interpolation entre les éléments d'image adjacents à l'intérieur d'une ligne de balayage afin de produire un nombre supérieur d'éléments d'image dans la ligne de balayage de sortie. L'interpolation effectuée dans le tampon de sortie 218 peut être une interpolation non uniforme soit linéaire, soit non linéaire. Par exemple, l'interpolation peut être fondée sur l'Equation 1 ou sur l'Equation 4. Dans un mode de réalisation de la présente invention, le moyen permettant d'effectuer l'interpolation génère des éléments d'image interpolés horizontalement en faisant simplement la moyenne de deux éléments d'image adjacents.En interpolant à l'intérieur des lignes de balayage, c'est-à-dire en effectuant une interpolation bidimensionnelle, la définition d'une image représentée par le signal vidéo peut être davantage renforcée.
La Figure 14 est un schéma fonctionnel détaillé d'une autre version de circuit de vidéo renforcée représenté sur les Figures 4 à 7. Cette version du circuit de vidéo renforcée peut être utilisée pour calculer les interpolations non uniformes fondées sur la fonction donnée à l'Equation 4. Le circuit de vidéo renforcée comprend une pluralité de circuits d'interpolation 272a-c, une mémoire 202, une unité de commande 200, un premier tampon de ligne 266, un deuxième tampon de ligne 268, un tampon de retard 206 et un tampon de sortie 218. Bien que le circuit de vidéo renforcée puisse comporter un nombre quelconque de circuits d'interpolation, il comporte généralement un circuit d'interpolation par couleur composante. Par exemple, un seul circuit d'interpolation serait nécessaire pour effectuer une interpolation non uniforme sur un signal vidéo monochrome.Le circuit de vidéo renforcée servant d'exemple représenté sur la Figure 14 a pour objectif de traiter un signal vidéo ayant jusqu'à trois couleurs composantes, comme un signal RVG ; ainsi, le circuit comporte trois circuits d'interpolation 272a-c.
Les circuits d'interpolation 272a-c génèrent une pluralité de signaux d'éléments d'image interpolés en réponse à une pluralité de signaux de l'espace des couleurs reçus sur le bus d'entrée de données. Chacun des circuits d'interpolation 272a-c est capable de générer en même temps jusqu'à trois signaux d'éléments d'image interpolés. Le bus d'entrée de données comporte un bus rouge 224, un bus vert 226 et un bus bleu 228.Dans l'exemple représenté, le circuit d'interpolation rouge 272a reçoit des signaux de l'espace des couleurs représentant la composante rouge d'un signal RVG sur le bus rouge 224 ; le circuit d'interpolation vert 272b reçoit des signaux de l'espace des couleurs représentant la composante verte d'un signal RVG sur le bus vert 226 et le circuit d'interpolation bleu 272c reçoit des signaux de l'espace des couleurs représentant la composante bleue d'un signal RVG sur le bus bleu 228.
Chaque circuit d'interpolation effectue une interpolation non uniforme et non linéaire entre des signaux de l'espace des couleurs adjacents et comporte au moins un circuit arithmétique 274a-i pour calculer l'interpolation non uniforme. Bien qu'un circuit d'interpolation puisse comprendre un nombre quelconque de circuits arithmétiques, dans l'exemple donné, chaque circuit d'interpolation comporte trois circuits arithmétiques. Chaque circuit arithmétique comporte un premier multiplicateur, un deuxième multiplicateur, un troisième multiplicateur, un premier additionneur et un deuxième additionneur permettant de produire un signal d'élément d'image interpolé. Par exemple, le circuit d'interpolation rouge 272a comporte trois circuits arithmétiques rouges 274a-c ; le circuit d'interpolation vert 272b comporte trois circuits arithmétiques verts 274d-f ; et le circuit d'interpolation bleu 272c comporte trois circuits arithmétiques bleus 274g-i.
La fonction des circuits arithmétiques 274a-i peut être illustrée en faisant référence au premier circuit arithmétique rouge 274a. Tel que représenté, le premier circuit arithmétique rouge 274a comporte un premier multiplicateur 286, un deuxième multiplicateur 288, un troisième multiplicateur 290, un premier additionneur 284 et un deuxième additionneur 282. Le premier multiplicateur multiplie un signal de composante rouge par un coefficient pour produire un premier signal de produit. Le deuxième multiplicateur 288 multiplie une première composante rouge mémorisée par un coefficient pour produire un deuxième signal de produit. Le premier additionneur 284 additionne le premier signal de produit et le deuxième signal de produit pour générer un premier signal de somme.La troisième multiplicateur 290 multiplie un deuxième signal de composante rouge mémorisé par un coefficient pour générer un troisième signal de produit. Le deuxième additionneur 282 additionne le premier signal de somme et le troisième signal de produit pour produire un signal d'élément d'image rouge interpolé. Les coefficients présentent généralement des valeurs différentes ; toutefois, dans certaines conditions, comme celle d'une génération de lignes de balayage de sortie qui sont équidistantes des lignes de balayage d'entrée, ils peuvent présenter la même valeur.
La mémoire 202 fournit un moyen permettant de mémoriser des coefficients et fournit au moins un coefficient aux circuits d'interpolation 272a-c. Dans l'exemple représenté, les coefficients utilisés dans l'interpolation non uniforme et non linéaire des signaux de l'espace des couleurs de la composante rouge traversent un bus de mémoire rouge 276, alors que les coefficients pour les signaux de l'espace des couleurs de la composante verte traversent un bus mémoire vert 278, et les coefficients pour les signaux de l'espace des couleurs de la composante bleue traversent un bus mémoire bleu 280.
L'unité de commande 220 génère une adresse 236 pouvant être utilisée par la mémoire 202 pour récupérer au moins un coefficient. L'unité de commande 200 génère l'adresse 236 en réponse à la réception d'une adresse de ligne de balayage 222 correspondant aux signaux de l'espace des couleurs adjacents interpolés. L'unité de commande 200 peut être programmée pour faire varier le nombre de lignes de balayage représentées par les signaux d'éléments d'image interpolés. Cela est accompli par l'unité de commande 200 qui reçoit une instruction 220 puis décode l'instruction de façon à choisir une valeur décalée d'une adresse différente qui est incluse dans l'adresse 236. Le décalage d'adresse désigne essentiellement un espace de mémoire différent contenant un autre ensemble de coefficients.Dans une version du circuit de vidéo renforcée, la mémoire 202 mémorise des ensembles de coefficients pour générer des images de sortie ayant 700, 800, 900, 1000, 1200 ou 1920 lignes par trame.
L'unité de commande 200 peut également générer des signaux de commande qui sont transmis au premier tampon de ligne 266, au deuxième tampon de ligne 268, au tampon de retard 206 et au tampon de sortie 218. Ces signaux de commande peuvent être utilisés pour coordonner le transfert des données, ou ils peuvent également être utilisés pour initialiser ou remettre à zéro les tampons.
De plus, l'unité de commande 200 génère un signal de synchronisation de sortie 234 qui est utilisé pour transférer les données sur un premier bus de sortie 230 ou un deuxième bus de sortie 232.
Le premier tampon de ligne 266, le deuxième tampon de ligne 268 et le tampon de retard 206 constituent un tampon permettant de mémoriser les signaux de l'espace des couleurs correspondant à trois lignes de balayage consécutives. Le tampon de retard 206 reçoit une séquence de signaux de l'espace des couleurs représentant une ligne de balayage. Après réception d'une séquence correspondant à une ligne de balayage achevée, le tampon de retard 206 transfère son contenu au deuxième tampon de ligne 268. A ce moment, le tampon de retard 206 commence à mémoriser le signal de l'espace des couleurs de la ligne de balayage suivante et le deuxième tampon de ligne 268 conserve les signaux de l'espace des couleurs de la ligne de balayage précédemment achevée.Après réception de la ligne de balayage suivante, le contenu du deuxième tampon de ligne 268 est déplacé vers le premier tampon de ligne 266 et le contenu du tampon de retard est déplacé vers le deuxième tampon de ligne 268. A ce moment, les premiers et deuxième tampons de ligne contiennent les signaux de l'espace des couleurs de deux lignes de balayage adjacentes. Les signaux de l'espace des couleurs mémorisés dans le premier tampon de ligne 266 et le deuxième tampon de ligne 268 sont répartis dans les circuits d'interpolation 272a-c sur leur bus tampon respectifs. Un premier bus tampon rouge 281 connecte le premier tampon de ligne 266 au circuit d'interpolation rouge 272a, tandis qu'un deuxième bus tampon rouge 287 connecte le deuxième tampon de ligne 268 au circuit d'interpolation rouge 272a.Un premier bus tampon vert 283 connecte le premier tampon de ligne 268 au circuit d'interpolation vert 272b, alors qu'un deuxième bus tampon vert 289 connecte le deuxième tampon de ligne 268 au circuit d'interpolation vert 272b. Un premier bus tampon bleu 285 connecte le premier tampon de ligne 266 au circuit d'interpolation bleu 272c, tandis qu'un deuxième bus tampon bleu 291 connecte le deuxième tampon de ligne 268 au circuit d'interpolation bleu 272c. Par essence, le premier tampon de ligne 266, le deuxième tampon de ligne 268 et le tampon de retard 206 agissent comme un tampon triple qui mémorise les signaux de l'espace des couleurs de trois lignes de balayage adjacentes.
Le tampon de sortie 218 reçoit les signaux d'éléments d'image interpolés des circuits d'interpolation 272a-c et transmet les signaux d'éléments d'image interpolés à une ligne de balayage de sortie courante sur les bus de sortie 230 à 232. Les éléments d'image interpolés qui ne font pas partie de la ligne de balayage de sortie courante sont temporairement mémorisés dans le tampon de sortie 218. Chacun des bus de sortie 230 à 232 peut transmettre en même temps les signaux d'éléments d'image interpolés rouges, bleus et verts.
Deux bus de sortie sont fournis pour augmenter la largeur de bande de la sortie. Généralement, les lignes de balayage de sortie sont transmises à une fréquence supérieure à celle des lignes de balayage d'entrée.
Le tampon de sortie 218 peut comporter, de façon facultative, un moyen (non représenté) permettant d'effectuer une interpolation entre des éléments d'image adjacents à l'intérieur d'une ligne de balayage afin de produire un nombre supérieur d'éléments d'image dans le ligne de balayage de sortie. L'interpolation effectuée dans le tampon de sortie 218 peut être une interpolation non uniforme soit linéaire, soit non linéaire. Dans un mode de réalisation de la présente invention, le moyen permettant d'effectuer l'interpolation génère des éléments d'image interpolés horizontalement en faisant simplement la moyenne de deux éléments d'image adjacents.
En effectuant l'interpolation à l'intérieur des lignes de balayage, c'est-à-dire en effectuant une interpolation bidimensionnelle, la définition d'une image représentée par le signal vidéo peut être davantage renforcée.
Bien que le circuit de vidéo renforcée de la présente invention soit de préférence mis en oeuvre en tant que circuit intégré, comme un ASIC, une personne ayant une connaissance ordinaire de la technique comprendra que le circuit de vidéo renforcée de la présente invention peut être mis en oeuvre soit dans un logiciel soit dans du matériel ou dans une combinaison de ceux-ci.
La Figure 15 est un organigramme d'un procédé d'utilisation des circuits de vidéo renforcée représentés sur les Figures 13 et 14 pour générer une pluralité de signaux d'éléments d'image interpolés. A la case 300, une pluralité de signaux adjacents de l'espace des couleurs est reçue sur le bus d'entrée de données.
A la case 302, au moins un coefficient correspondant aux signaux de l'espace des couleurs adjacents est choisi dans la mémoire 202. Cela est effectué lorsque l'adresse de la ligne de balayage 222 correspondant aux signaux de l'espace des couleurs adjacents est reçue et décodée par l'unité de commande 200 pour générer l'adresse 236. Les coefficients mémorisés à l'adresse 236 sont ensuite récupérés de la mémoire 202. En décodant l'instruction 220, l'unité de commande 200 peut produire un décalage d'adresse qui est utilisé pour choisir un ensemble différent de coefficients. En choisissant un ensemble différent de coefficients, l'unité de commande 200 peut, en effet, choisir un nombre différent de lignes de balayage représentées par les signaux d'éléments d'image interpolés.
A la case 304, une interpolation non uniforme est effectuée entre les signaux de l'espace des couleurs adjacents en utilisant les coefficients récupérés pour générer la pluralité de signaux d'éléments d'image interpolés. Le circuit de vidéo renforcée représenté sur la Figure 13 effectue une interpolation linéaire qui est fondée sur la fonction donnée à l'Equation 1, alors que le circuit de vidéo renforcée représenté sur la Figure 14 effectue une interpolation non linéaire de deuxième ordre qui est fondée sur la fonction donnée à l'Equation 4.
Une personne ayant une connaissance ordinaire de la technique comprendra que le concept d'un circuit de vidéo renforcée peut être étendu jusqu'à comporter un circuit arithmétique qui effectue une interpolation non linéaire d'ordre supérieur à deux. Par exemple, les circuits d'interpolation 272a-c représentés sur la Figure 14 peuvent comporter des circuits arithmétiques qui mettent en oeuvre une interpolation de troisième ordre, quatrième ordre ou cinquième ordre.
La Figure 16 illustre un organigramme d'un procédé de traitement d'un signal vidéo entrelacé pour générer un signal vidéo à haute résolution. Les systèmes vidéo représentés sur les Figures 4 à 7 peuvent être utilisés pour effectuer ce procédé. Le procédé entraîne la génération d'un signal vidéo à haute résolution ayant un nombre supérieur de lignes de balayage à celui du signal vidéo entrelacé.
A la case 360, un signal vidéo entrelacé ayant deux demi-entrelacements consécutifs est reçu. Le signal vidéo entrelacé peut être formaté selon les normes de transmission de télévision classiques comme le PAL, le
NTSC ou le SECAM. Dans un tel signal, l'un des deux demientrelacements consécutifs a des lignes de balayage paires et l'autre demi-entrelacement a des lignes de balayage impaires. Dans la plupart des circonstances, le signal vidéo entrelacé est un signal continu qui comporte une séquence de plus de deux demi-entrelacements.
A la case 362, le signal vidéo entrelacé est numérisé pour produire un signal vidéo numérique ayant une pluralité de demi-entrelacements numérisés correspondant aux deux demi-entrelacements consécutifs.
En général, il y a une correspondance de un à un entre les demi-entrelacements du signal vidéo entrelacé et les demi-entrelacements numérisés. Toutefois, il existe de nombreuses applications de ce procédé dans lesquelles il est souhaitable de produire deux demi-entrelacements numérisés ou plus à partir d'un seul demi-entrelacement entrelacé, par exemple lors de la manipulation séparée de parties d'une image représentée par le demi-entrelacement entrelacé.
A la case 364, les demi-entrelacements numérisés sont fusionnés pour produire une trame qui comporte les lignes de balayage paires et les lignes de balayage impaires. La fusion des demi-entrelacements entraîne généralement la mémorisation d'un premier demientrelacement reçu puis sa combinaison avec un demientrelacement reçu par la suite. Toutefois, le procédé présenté dans le présent document n'est pas limité à un procédé particulier permettant de fusionner des demientrelacements.
Ensuite, à la case 366, une interpolation non uniforme est effectuée entre les lignes de balayage adjacentes de la trame pour générer le signal vidéo à haute résolution. Le signal vidéo à haute résolution a un nombre supérieur de lignes de balayage verticales à celui du signal vidéo entrelacé.
A la case 368, une image représentée par le signal vidéo à haute résolution est affichée sur un moniteur, tel que le moniteur 76 représenté sur les Figures 4 à 7.
Les étapes des cases 360 à 368 peuvent être répétées pour générer une pluralité de trames, et ainsi une pluralité correspondante d'images. Une image animée, représentée par le signal vidéo à haute résolution, peut être rendue en laissant chacune des trames correspondre à une paire consécutive différente de demi-entrelacements.
La Figure 17 illustre un organigramme d'un procédé de traitement d'un signal vidéo couleur entrelacé pour générer un signal vidéo à haute résolution. Les systèmes vidéo représentés sur les Figures 4 à 7 peuvent être employés pour effectuer ce procédé. Outre les étapes représentées sur la Figure 16, le procédé de la Figure 17 comporte également l'étape donnée à la case 374. A la case 374, le signal vidéo numérique est décodé en une pluralité de signaux de composante de couleur. Les signaux de composante de couleur représentent les composantes d'un espace des couleurs. Par exemple, dans l'espace des couleurs RVG, l'un des signaux des composantes de couleur représente l'espace du rouge, un autre représente l'espace du vert et un troisième représente l'espace du bleu.
Les autres étapes de ce procédé, représentées aux cases 376 à 380, sont effectuées pour chacune des composantes de couleur. Ainsi, en poursuivant l'exemple de l'espace des couleurs RVG, à la case 376, deux demientrelacements rouges consécutifs sont fusionnés pour produire une trame rouge qui comporte à la fois les lignes de balayage paires et impaires. De même, deux demi-entrelacements verts consécutifs sont fusionnés pour produire une trame verte, et deux demi-entrelacements bleus consécutifs sont fusionnés pour produire une trame bleue. A la case 378, pour chaque couleur, une interpolation non uniforme est effectuée entre les lignes de balayage adjacentes dans la trame de la composante respective. Les éléments d'images interpolés des composantes de couleur obtenues forment un signal vidéo à haute résolution qui représente l'espace des couleurs. Le signal vidéo à haute résolution a un nombre supérieur de lignes de balayage verticales à celui du signal vidéo entrelacé original. A la case 380, une image en couleur, représentée par le signal vidéo à haute résolution, est affichée sur un moniteur, tel que le moniteur 76 décrit sur les Figures 4 à 7.
Les étapes des cases 370 à 380 peuvent être répétées pour générer une pluralité de trames et ainsi, une pluralité correspondante d'images. Une image animée en couleur, représentée par le signal vidéo à haute résolution, peut être rendue en laissant chacune des trames correspondre à une paire consécutive différente de demi-entrelacements.
La Figure 18 illustre un schéma contextuel d'un système de diffusion qui utilise au moins l'un des systèmes vidéo représentés sur les Figures 4 à 7. Le système de diffusion comporte une station de diffusion 420 et un récepteur 424. La station de diffusion 420 comporte un émetteur 420 qui émet un signal vidéo 422 qui se déplace dans l'atmosphère vers le récepteur 424.
L'émetteur 421 peut comporter une antenne située au sol, un relais hertzien ou un satellite. Le signal vidéo peut comporter des informations de diffusion formatées selon les normes de transmission de télévision classiques comme le NTSC, le PAL, le SECAM ou toute variation de ces normes. Le récepteur 424 comporte un mode de réalisation de la présente invention et peut être interprété comme étant un moyen quelconque permettant de recevoir le signal vidéo 422 et d'afficher une image transmise. Par exemple, le récepteur 424 peut comporter un récepteur de télévision couleur, un poste de télévision à grand écran ou un ordinateur.
La Figure 19 illustre un schéma conceptuel d'un système de diffusion par câble qui utilise au moins l'un des systèmes vidéo représentés sur les Figures 4 à 7. Le système de diffusion par câble comporte une source vidéo 430, un moyen de transmission 432, tel qu'un câble coaxial, et un récepteur 434. La source vidéo 430 comporte un émetteur qui émet un signal vidéo qui se déplace par l'intermédiaire du moyen de transmission 432 vers le récepteur 434. La source vidéo 430 peut comporter un lecteur de cassettes vidéo, une caméra vidéo qui repasse des images ou un CD ROM. Le signal vidéo peut comporter des informations de diffusion formatées selon les normes de transmission de télévision classiques comme le NTSC, le PAL, le SECAM ou toute autre variation de ces normes.Le récepteur 434 peut être n'importe quel moyen comportant un mode de réalisation de la présente invention permettant de recevoir le signal vidéo et d'afficher une image transmise. Par exemple, le récepteur 434 peut comporter un poste de télévision, un poste de télévision à grand écran ou un ordinateur.
Ainsi, on a décrit ici un concept, ainsi que plusieurs modes de réalisation comportant un mode de réalisation préféré, d'un procédé permettant de générer un signal vidéo à haute résolution qui comporte une étape d'exécution d'une interpolation non uniforme. Puisque les nombreux modes de réalisation du procédé tels que décrits ici effectuent une interpolation non uniforme afin d'augmenter le nombre de lignes de balayage dans un système vidéo en temps réel, ils produisent une image vidéo d'une qualité largement renforcée.
Bien que des modes de réalisation spécifiques de la présente invention aient été représentés et décrits, il apparaîtra clairement aux spécialistes de la technique que l'invention décrite peut être modifiée de différentes façons et peut supposer l'utilisation de n'importe quel mode de réalisation autre que la forme préférée spécifiquement établie et décrite ci-dessus.
Par conséquent, l'objectif des revendications jointes est de recouvrir toutes les modifications de l'invention qui restent dans le véritable esprit et dans le cadre de l'invention.

Claims (9)

REVENDICATIONS
1. Dans un récepteur vidéo, procédé de génération d'une image à haute résolution, caractérisé par les étapes suivantes
réception d'un signal vidéo entrelacé ayant deux demi-entrelacements consécutifs, l'un des deux demientrelacements consécutifs ayant des lignes de balayage paires et l'autre des deux demi-entrelacements consécutifs ayant des lignes de balayage impaires
numérisation du signal vidéo entrelacé pour produire un signal vidéo numérique
décodage du signal vidéo numérique pour obtenir une pluralité de signaux de composantes de couleur
pour chacun des signaux de composante de couleur, fusion des deux demi-entrelacements consécutifs pour produire une trame qui comporte les lignes de balayage paires et les lignes de balayage impaires
pour chacun des signaux de composante de couleur, exécution d'une interpolation non uniforme entre les lignes de balayage adjacentes de la trame afin de générer un signal vidéo à haute résolution ayant un nombre supérieur de lignes de balayage verticales à celui du signal vidéo entrelacé ; et
affichage d'une image représentée par le signal vidéo à haute résolution sur un moniteur.
2. Procédé selon la revendication 1, comprenant en outre l'étape de
répétition des étapes (a) - (f) afin de générer une pluralité d'images.
3. Procédé selon la revendication 2, dans lequel le signal vidéo entrelacé comporte une séquence de plus de deux demi-entrelacements, et chacune des trames correspond à une paire consécutive différente des demientrelacements.
4. Procédé selon la revendication 1, dans lequel le nombre de lignes de balayage verticales du signal vidéo à haute résolution est choisi dans le groupe comprenant : 700 lignes par trame, 800 lignes par trame, 900 lignes par trame, 1000 lignes par trame, 1200 lignes par trame, et 1920 lignes par trame.
5. Procédé selon la revendication 1, dans lequel l'interpolation non uniforme est fondée sur une fonction
yi = Clik*dk + C2ik*dk+l où yi représente un signal d'éléments d'image interpolé inclus dans le signal vidéo à haute résolution, dk représente un premier signal d'éléments d'image à partir d'une ligne de balayage k du signal vidéo entrelacé, dk+1 représente un deuxième signal d'éléments d'image à partir d'une ligne de balayage k+1 du signal vidéo entrelacé, Cîik représente un premier coefficient, C2ik représente un deuxième coefficient et i et k sont des indices entiers.
6. Procédé selon la revendication 1, dans lequel 0 < clik < 1 et O < C2ik < 1, et dans lequel clik + c2ik = 1.
7. Système vidéo selon la revendication 1, dans lequel l'interpolation non uniforme est fondée sur une fonction
Y1 = Clik*dk + C2ik*dk+1 + C3ik*dk+2 où Yi représente un signal d'éléments d'image interpolé, dk, dk+1 et dk+2 représentent trois signaux successifs de l'espace des couleurs adjacents , cîik représente un premier coefficient, c2ik représente un deuxième coefficient, et i et k sont des indices entiers.
8. Procédé selon la revendication 1, dans lequel le signal vidéo entrelacé est choisi dans le groupe comprenant : un signal NTSC et un signal PAL.
9. Procédé de génération d'un signal vidéo à haute résolution, caractérisé par les étapes suivantes
réception d'un signal vidéo entrelacé ayant deux demi-entrelacements consécutifs, l'un des deux demientrelacements consécutifs ayant des lignes de balayage paires et l'autre des deux demi-entrelacements consécutifs ayant des lignes de balayage impaires
numérisation du signal vidéo entrelacé afin de produire un signal vidéo numérique ayant une pluralité de demi-entrelacements numérisés correspondant aux deux demi-entrelacements consécutifs ; et
fusion des demi-entrelacements numérisés afin de produire une trame qui comporte les lignes de balayage paires et les lignes de balayage impaires
exécution d'une interpolation non uniforme entre les lignes de balayage adjacentes de la trame afin de générer le signal vidéo à haute résolution ayant un nombre supérieur de lignes de balayage verticales à celui du signal vidéo entrelacé.
FR9607616A 1995-06-29 1996-06-19 Procede permettant de generer une video a haute resolution Expired - Fee Related FR2736495B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/496,793 US5784116A (en) 1995-06-29 1995-06-29 Method of generating high-resolution video

Publications (2)

Publication Number Publication Date
FR2736495A1 true FR2736495A1 (fr) 1997-01-10
FR2736495B1 FR2736495B1 (fr) 2002-12-06

Family

ID=23974163

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9607616A Expired - Fee Related FR2736495B1 (fr) 1995-06-29 1996-06-19 Procede permettant de generer une video a haute resolution

Country Status (6)

Country Link
US (1) US5784116A (fr)
KR (1) KR19990028353A (fr)
CN (1) CN1100446C (fr)
AU (1) AU6158996A (fr)
FR (1) FR2736495B1 (fr)
WO (1) WO1997001936A1 (fr)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478070B1 (ko) * 1996-05-30 2005-09-14 소니 가부시끼 가이샤 화상정보변환장치와방법및적화연산회로와방법
JPH1098662A (ja) * 1996-09-20 1998-04-14 Pioneer Electron Corp 自発光表示器の駆動装置
KR20000001754A (ko) * 1998-06-13 2000-01-15 윤종용 순차주사방식의 투사형 영상 디스플레이장치
KR100275700B1 (ko) * 1998-07-10 2000-12-15 윤종용 영상신호 규격 변환장치
US6646647B1 (en) * 2000-09-29 2003-11-11 Intel Corporation Display of images from tiled memory
CN1315330C (zh) * 2003-05-12 2007-05-09 瑞昱半导体股份有限公司 视频信号处理方法及其装置
US8625663B2 (en) * 2007-02-20 2014-01-07 Pixar Home-video digital-master package
KR101590881B1 (ko) * 2008-12-24 2016-02-02 삼성전자 주식회사 화상처리장치 및 그 제어방법
CN103313114A (zh) * 2013-06-29 2013-09-18 苏州市牛勿耳关电器科技有限公司 一种物联网led电视机
CN103347216A (zh) * 2013-06-29 2013-10-09 苏州市牛勿耳关电器科技有限公司 一种智能led电视机

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276565A (en) * 1978-01-18 1981-06-30 British Broadcasting Corporation Method and apparatus for standards conversion of television signals
US4587556A (en) * 1983-05-17 1986-05-06 Sony Corporation Television standards converters
US4602273A (en) * 1983-08-30 1986-07-22 Rca Corporation Interpolated progressive-scan television display with line-crawl artifact filtration
EP0280932A1 (fr) * 1987-03-04 1988-09-07 Hitachi, Ltd. Dispositif d'affichage des signaux vidéo à définition réduite sur moniteurs vidéo à haute définition
EP0431845A2 (fr) * 1989-12-05 1991-06-12 Rasterops Corporation Convertion de signaux vidéo
EP0462396A2 (fr) * 1990-06-20 1991-12-27 International Business Machines Corporation Triple tampon de trame pour la mémorisation d'image de télévision et visualisation sur un appareil d'affichage graphique à trame
US5097257A (en) * 1989-12-26 1992-03-17 Apple Computer, Inc. Apparatus for providing output filtering from a frame buffer storing both video and graphics signals
EP0587130A2 (fr) * 1992-09-07 1994-03-16 Kabushiki Kaisha Toshiba Circuit de traitement d'un signal de télévision

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5124688A (en) * 1990-05-07 1992-06-23 Mass Microsystems Method and apparatus for converting digital YUV video signals to RGB video signals
US5233684A (en) * 1990-06-26 1993-08-03 Digital Equipment Corporation Method and apparatus for mapping a digital color image from a first color space to a second color space
KR930011844B1 (ko) * 1991-01-22 1993-12-21 삼성전자 주식회사 영상신호의 2차원 내삽에 의한 보간 및 주사선 변환회로
DE4121968A1 (de) * 1991-06-28 1993-01-14 Noell K & K Abfalltech Verfahren zur kombinierten klaerschlamm- und muellverbrennung
KR930015760A (ko) * 1991-12-31 1993-07-24 강진구 텔레비젼모드 자동변환장치
KR0128245B1 (ko) * 1992-10-07 1998-04-02 배순훈 화면 분할 기능을 갖는 디지탈 방식 고선명 텔레비젼
JPH07131761A (ja) * 1993-10-29 1995-05-19 Toshiba Corp テレビジョン信号処理回路

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276565A (en) * 1978-01-18 1981-06-30 British Broadcasting Corporation Method and apparatus for standards conversion of television signals
US4587556A (en) * 1983-05-17 1986-05-06 Sony Corporation Television standards converters
US4602273A (en) * 1983-08-30 1986-07-22 Rca Corporation Interpolated progressive-scan television display with line-crawl artifact filtration
EP0280932A1 (fr) * 1987-03-04 1988-09-07 Hitachi, Ltd. Dispositif d'affichage des signaux vidéo à définition réduite sur moniteurs vidéo à haute définition
EP0431845A2 (fr) * 1989-12-05 1991-06-12 Rasterops Corporation Convertion de signaux vidéo
US5097257A (en) * 1989-12-26 1992-03-17 Apple Computer, Inc. Apparatus for providing output filtering from a frame buffer storing both video and graphics signals
EP0462396A2 (fr) * 1990-06-20 1991-12-27 International Business Machines Corporation Triple tampon de trame pour la mémorisation d'image de télévision et visualisation sur un appareil d'affichage graphique à trame
EP0587130A2 (fr) * 1992-09-07 1994-03-16 Kabushiki Kaisha Toshiba Circuit de traitement d'un signal de télévision

Also Published As

Publication number Publication date
CN1100446C (zh) 2003-01-29
CN1189277A (zh) 1998-07-29
FR2736495B1 (fr) 2002-12-06
US5784116A (en) 1998-07-21
KR19990028353A (ko) 1999-04-15
WO1997001936A1 (fr) 1997-01-16
AU6158996A (en) 1997-01-30

Similar Documents

Publication Publication Date Title
FR2736236A1 (fr) Systeme video et procede d&#39;utilisation de celui-ci
US6243129B1 (en) System and method for videoconferencing and simultaneously viewing a supplemental video source
FR2593988A1 (fr) Systeme de television a balayage progressif avec composantes de somme et de difference, et procede de codage du signal
US6208382B1 (en) Color video processing system and method
US5321500A (en) Non-real-time film scanning system
DK166339B (da) Videofremvisningsanlaeg til fremvisning af videosignaler med stort og standard formatforhold
JP2004522365A (ja) 多チャンネル入力の高画質多重画面分割装置及び方法
CA1230669A (fr) Systeme d&#39;affichage a balayage progressif pour la television
FR2599204A1 (fr) Processeur de signaux video a balayage progressif
FR2736495A1 (fr) Procede permettant de generer une video a haute resolution
EP0412003B1 (fr) Dispositif de transformation d&#39;une information de mouvement en un signal de détection de mouvement à la fréquence trame et au nombre de lignes souhaitées pour un récepteur de télévision haute définition
FR2574240A1 (fr) Systeme de television a balayage progressif
US5717466A (en) Circuit for interpolating scan lines of a video signal and method of using same
EP0391760B1 (fr) Dispositif de conversion de fréquence trame pour un récepteur de télévision haute définition, et procédé de détection du mouvement dans une image de télévision codée
FR2585203A1 (fr) Systeme de reduction de la frequence d&#39;echantillons numeriques
JPS6314587A (ja) テレビジヨン伝送方式
JP3097140B2 (ja) テレビジョン信号の受信、処理装置
JP4447679B2 (ja) 映像信号処理装置および映像信号処理方法
JPS6313595A (ja) テレビジヨン方式
JPH01132281A (ja) テレビジヨン受像機
JPH01255388A (ja) デジタルキヤプテン端末装置
JPH02260980A (ja) テレビジョン受像機
JPS6314586A (ja) テレビジヨン伝送方式
FR2691600A1 (fr) Dispositif de correction de l&#39;effet de scintillement de signaux dits compatibles.
JPH03132184A (ja) テレビジョン受信機

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20100226