FR2762699A1 - Procede et appareil pour le codage et le decodage d'images mobiles, sur la base de regions - Google Patents

Procede et appareil pour le codage et le decodage d'images mobiles, sur la base de regions Download PDF

Info

Publication number
FR2762699A1
FR2762699A1 FR9800730A FR9800730A FR2762699A1 FR 2762699 A1 FR2762699 A1 FR 2762699A1 FR 9800730 A FR9800730 A FR 9800730A FR 9800730 A FR9800730 A FR 9800730A FR 2762699 A1 FR2762699 A1 FR 2762699A1
Authority
FR
France
Prior art keywords
region
regions
coding
image
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9800730A
Other languages
English (en)
Other versions
FR2762699B1 (fr
Inventor
Shunichi Sekiguchi
Yoshimi Isu
Kohtaro Asai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of FR2762699A1 publication Critical patent/FR2762699A1/fr
Application granted granted Critical
Publication of FR2762699B1 publication Critical patent/FR2762699B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Abstract

L'invention concerne un procédé et un appareil pour le codage et le décodage d'images mobiles, sur la base de régions.L'appareil comporte une section (2) de subdivision d'une image d'entrée en régions, qui comprend une section de traitement de subdivision (12) pour subdiviser l'image en une pluralité de régions selon un critère et une section de traitement d'intégration (14) pour intégrer chacune des régions avec des régions adjacentes, et un codeur servant à coder des signaux d'image pour chacune des régions qui subsistent après l'intégration par la section (14).Application notamment à des appareils portables ou fixes de transmission d'images tels que des vidéotéléphones et dans des magnétoscopes et des serveurs vidéo.

Description

La présente invention concerne un procédé et un appareil pour introduire
et coder une image mobile, et un appareil pour décoder l'image mobile codée. La présente invention a trait notamment à une technique pour coder une image complète en subdivisant tout d'abord cette image en de multiples régions, et a trait à une technique pour
décoder l'image complète codée.
La figure 1, annexée à la présente demande, est un schéma-bloc d'une première technique antérieure représentant la configuration d'un codeur d'images mobiles basé sur la recommandation ITU-T H.263, sur lequel le chiffre de référence 1 désigne un signal d'image numérique d'entrée (désigné ci-après simplement sous l'expression image d'entrée), le chiffre de référence 101 désigne un différenciateur, le chiffre de référence 102 désigne un signal de prédiction, le chiffre de référence 103 désigne un signal d'erreur de prédiction, le chiffre de référence 104 désigne un codeur, le chiffre de référence 105 désigne des données codées, le chiffre de référence 106 désigne un décodeur, le chiffre de référence 107 désigne un signal d'erreur de prédiction décodé, le chiffre de référence 108 désigne un additionneur, le chiffre de référence 109 désigne un signal local décodé, le chiffre de référence 110 désigne une mémoire, le chiffre de référence 111 désigne une section de prédiction et le chiffre de référence 112
désigne un vecteur de déplacement.
L'image d'entrée 1 devant être codée est tout d'abord envoyée au différenciateur 101. Le différenciateur 101 prélève la différence entre l'image d'entrée 1 et le signal de prédiction 102 pour la délivrer en tant que signal d'erreur de prédiction 103. Le codeur 104 code l'image d'entrée 1, qui est un signal original, ou un signal d'erreur de prédiction 103 et délivre des données codées 105. Le procéde de codage dans le codeur 104 utilise une technique indiquée dans la recommandation mentionnée précédemment, dans laquelle un signal d'erreur de prédiction 103 est transformé depuis le domaine spatial en un domaine de fréquences en utilisant une transformation en cosinus discret (DCT), un type de transformation orthogonale, et le coefficient de transformation obtenu est
quantifié linéairement.
Les données codées 105 sont séparées en deux parties dirigées dans deux directions, une partie étant envoyée à un récepteur ou à un appareil de décodage d'images (non représenté) et dont l'autre partie est envoyée à un décodeur 106 à l'intérieur du présent appareil. Le décodeur 106 exécute une opération qui est inverse de celle du codeur 104 et délivre un signal d'erreur de prédiction décodé 107 à partir de données codées 105. L'additionneur 108 additionne le signal de prédiction 102 au signal d'erreur de prédiction décodé 107 et délivre le résultat sous la forme du signal d'image décodé 109. La section de prédiction 111 exécute une prédiction, compensée du point de vue du déplacement, en utilisant le signal d'image 1 et le signal d'image décodé 109 de l'image complète précédente mémorisée dans la mémoire 110 et délivre le signal de prédiction 102 et le vecteur de déplacement 112. A cet instant, la compensation de déplacement est exécutée en des unités de blocs ayant
des dimensions fixées et désignées sous le terme de macro-
bloc comprenant 16 x 16 pixels. En tant que fonction optionnelle pour un bloc dans une région comprenant des déplacements conséquents, la prédiction, compensée du point
de vue du déplacement, peut être exécutée avec le macro-
bloc subdivisé en quatre unités formant sous-blocs de 8 x 8 pixels. Le vecteur de déplacement obtenu 112 est transmis à l'appareil de décodage d'images, et le signal de prédiction 102 est envoyé au différenciateur 102 et à l'additionneur 108. Conformément à cet appareil, la quantité de données de l'image mobile peut être comprimée tout en conservant la qualité d'image grâce à l'utilisation de la prédiction
compensée du peint de vue déplacement.
Dans cette technique antérieure, la forme de la région de l'unité de codage est limitée à deux types. En outre les deux formes sont rectangulaires. C'est pourquoi, il existe naturellement une limite au codage qui peut être adaptée à la structure de la scène ou à des caractéristiques d'une image. Par exemple, s'il est souhaitable d'augmenter la quantité de code uniquement pour un objet présentant des déplacements conséquents, il est préférable, bien que ceci soit difficile dans cette technique antérieure, de définir une région ayant une forme
identique à celle de l'objet.
La figure 2, annexée à la présente demande, est un schéma-bloc d'un appareil de codage d'images concernant une seconde technique antérieure. Cet appareil est basé sur un procédé de codage qui a été proposé dans l'article "A Very Low Bit Rate Video Coder Based on Vector Quantization" de L. C. Real et al. (IEEE Transactions on Images Processing, Vol. 5, N 2, Février 1996). Sur la même figure, le chiffre de référence 113 désigne une section de subdivision en régions, le chiffre de référence 114 désigne une section de prédiction, le chiffre de référence 115 désigne une section de détermination de régions, le chiffre de référence 116 désigne une information de mode de codage comprenant une information de codage à l'intérieur d'une image complète et une information de codage entre images complètes, le chiffre de référence 117 désigne un vecteur de déplacement, le chiffre de référence 118 désigne un codeur et le chiffre de référence 119 désigne des données codées. Dans cet appareil, l'image d'entrée 1 est tout d'abord subdivisée en de multiples régions par la section de subdivision en régions 113. La section de subdivision en régions 113 détermine des dimensions de régions en fonction de l'erreur de prédiction compensée du point de vue déplacement. La section de subdivision en régions 113 exécute une évaluation en utilisant un seuil en rapport avec la dispersion du signal entre images complètes et affecte de petits blocs à des régions dans lesquelles il existe un déplacement conséquent, et de grands blocs à des régions, tels que des arrière-plans, ayant un petit déplacement à partir de dix types de tailles de blocs préparées par avance et égales à 4 x 4, 4 x 8, 8 x 4, 8 x 8, 8 x 16, 16 x 8, 16 x 16, 16 x 32, 32 x 16 et 32 x 32. En termes concrets, une valeur de dispersion est calculée par une section de détermination de régions 115 pour le signal d'erreur de prédiction obtenu par la section de prédiction 114 et, sur la base de cette valeur, la taille du bloc est déterminée. Une information d'attribut 116, telle qu'une information de forme de région et une information de mode de codage, ainsi qu'un vecteur de déplacement 117 sont déterminés à cet instant, et le signal d'erreur de prédiction ou le signal original est codé par le codeur 118 conformément à l'information de mode de codage de manière à fournir des données codées 119. Des traitements ultérieurs
sont identiques à ceux de la première technique antérieure.
Cette technique antérieure a une souplesse de traitement plus grande que la première technique antérieure, du point de vue de la préparation de blocs ayant des tailles multiples. Cependant, cet appareil limite également chaque région à une forme rectangulaire. Par conséquent, même avec des formes rectangulaires en dix tailles, il existe des possibilités d'améliorations du caractère adaptatif en rapport avec des régions d'images
dans des formes quelconques.
La présente invention tient compte de ces problèmes en vue de fournir une technique de codage d'images mobiles permettant d'exécuter un traitement plus souple conformément aux conditions de l'image devant être traitée. Plus concrètement, la présente invention a pour but de fournir une technique de codage d'images utilisant des techniques de subdivision en régions qui permettent de traiter d'une manière précise différentes structures d'image. Un autre but de la présente invention est de fournir un critère de séparation basé sur différents points de vue lors de la subdivision en régions pour le codage. Un autre but de la présente invention est de fournir une technique permettant de décoder correctement les données codées de régions, qui ont été subdivisées en différentes formes. Le procédé de codage d'images mobiles selon la présente invention inclut deux étapes. Une première étape subdivise une image d'entrée en de multiples régions sur la
base d'un critère prédéterminé d'évaluation de subdivision.
Le codage jusqu'à ce point est identique au codage général classique basé sur des régions. Cependant, lors d'une seconde étape, la présente invention inclut chacune des régions multiples séparées avec des régions adjacentes sur la base d'un critère prédéterminé d'évaluation d'intégration. Ensuite, lors d'une troisième étape, le signal d'image est codé pour chacune des régions qui subsistent après l'intégration. Conformément à ce procédé, le processus d'intégration permet d'avoir différentes formes pour les régions. Par conséquent, on peut produire une région ayant une forme étroitement adaptée à la
structure d'une image ou au contour d'un objet.
L'appareil de codage d'images mobiles selon la présente invention comprend une section de subdivision en régions et un codeur. La section de subdivision en régions comprend une section de traitement de subdivision pour subdiviser l'image d'entrée en de multiples régions sur la base d'un critère prédéterminé d'évaluation de subdivision, et une section de traitement d'intégration pour intégrer chacune de multiples régions séparées par la section de traitement de subdivision, avec des régions adjacentes sur la base d'un critère prédéterminé d'évaluation d'intégration. Le codeur code le signal d'image pour chacune des régions qui subsistent après l'intégration par la section de traitement d'intégration. Conformément à cette technique, on peut obtenir une qualité d'image comparativement élevée, pour des taux de compression de données comparativement élevés, tout en supportant avec
souplesse les structures d'images.
La section de traitement d'intégration mentionnée précédemment effectue un codage et un décodage préliminaires d'images pour chaque région et peut examiner la quantité de code et la distorsion de codage. Dans un tel cas, la distorsion de codage peut être réduite dans le cadre de la contrainte d'une quantité prédéterminée de code. La section de traitement de subdivision mentionnée précédemment inclut une section d'identification de classes servant à classer l'importance de régions scus la forme de classes, et peut évaluer si il faut ou non séparer chaque région sur la base d'une activité devant être décrite ultérieurement et sur la base de la classe. Si la référence de la section d'identification de classe caractérise les paramètres dans des images, la reconnaissance d'objets devient possible, ce qui facilite
l'obtention d'une subdivision plus précise en régions.
D'autre part, l'appareil de décodage d'images mobiles selon la présente invention introduit et décode les données de l'image, qui a été codée après avoir été subdivisée en de multiples régions. Cet appareil inclut une section de rétablissement de la forme des régions et un codeur de données d'image. La section de rétablissement de la forme des régions rétablit, sur la base de l'information de formes de régions contenue dans les données codées, la forme de chaque région qui a été subdivisée pendant le codage. Après spécification de la séquence dans laquelle des régions ont été codées sur la base des formes des régions rétablies, le décodeur de données d'image décode
l'image pour chaque région à partir des données codées.
Conformément à cet appareil, on obtient un décodage précis même si des régions ayant des formes différentes sont
produites dans l'étage de codage.
De façon plus précise l'invention concerne un procédé de codage d'images mobiles, caractérisé en ce qu'il comprend les étapes consistant à: subdiviser une image d'entrée en une pluralité de régions sur la base d'un critère prédéterminé d'évaluation de subdivision; intégrer des régions avec des régions adjacentes, pour l'ensemble des différentes régions séparées, sur la base d'un critère prédéterminé d'évaluation d'intégration; et coder des signaux d'image pour des régions qui subsistent après l'intégration. Selon une autre caractéristique de l'invention, ledit critère d'évaluation de subdivision implique une comparaison entre l'exécution du codage avec une région donnée séparée et l'exécution du codage sans la région séparée. Selon une autre caractéristique de l'invention, ledit critère d'évaluation d'intégration implique une comparaison entre l'exécution d'un codage avec une région donnée composée avec des régions adjacentes et exécuter le
codage sans la région composée avec les régions adjacentes.
L'invention a trait en outre à un appareil de codage d'images mobiles, caractérisé en ce qu'il comporte: une section de subdivision en régions, qui inclut une section de traitement de subdivision pour subdiviser une image d'entrée en une pluralité de régions sur la base d'un critère prédéterminé d'évaluation de subdivision et une section de traitement d'intégration pour intégrer chacune d'une pluralité de régions séparées par la section de traitement de subdivision, avec des régions adjacentes; et un codeur pour coder des signaux d'image pour chacune des régions qui subsistent après l'intégration au moyen de la
section de traitement d'intégration.
Selon une autre caractéristique de l'invention, ladite section de traitement d'intégration comprend: un codeur provisoire effectuant un codage provisoire pour coder de façon préliminaire une image pour chaque région et calculer la quantité de code de cette image; un décodeur pour décoder l'image codée au moyen du code en effectuant un codage provisoire; une section de calcul de distorsion de codage pour calculer la distorsion de codage en utilisant l'image décodée par le décodeur; et une section de calcul d'une valeur d'évaluation pour calculer une valeur d'évaluation pour évaluer l'avantage du codage lorsqu'on prend en compte à la fois la quantité de code et la distorsion de codage; une détermination étant effectuée pour chaque région pour savoir s'il faut effectuer ou non l'intégration pour la région sur la base d'un résultat de comparaison de la valeur d'évaluation, qui est obtenue dans le cas o la région est intégrée avec des régions adjacentes, et la valeur d'évaluation qui est obtenue dans le cas o la région n'est pas intégrée avec des régions adjacentes. Selon une autre caractéristique de l'invention, ladite section de traitement de subdivision comprend: une section de calcul d'activité pour calculer une puissance d'erreur de prédiction accompagnant une prédiction, compensée du point de vue déplacement, de chaque région en tant qu'activité de la région; et une section d'évaluation de subdivision pour comparer l'activité calculée à une valeur formant critère, qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur de critère, en des régions plus
petites.
Selon une autre caractéristique de l'invention, ladite section de traitement de subdivision comprend: une section de calcul d'activité pour calculer une intensité de bord d'un signal original pour chaque région en tant qu'activité de la région; et une section d'évaluation de subdivision pour calculer l'activité calculée à une valeur de critère qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur
de critère en des régions plus petites.
Selon une autre caractéristique de l'invention, ladite section de traitement de subdivision comprend: une section de calcul d'activité pour calculer, pour chaque région, une somme linéaire d'une pluralité de valeurs numériques indiquant les caractéristiques de l'image de la région; et une section d'évaluation de subdivision pour comparer l'activité calculée à une valeur de critère qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur de critère en des
régions plus petites.
Selon une autre caractéristique de l'invention, ladite pluralité de valeurs numériques comprend une puissance d'erreur de prédiction et un paramètre de déplacement de chaque région, qui accompagnent une
prédiction compensée du point de vue déplacement.
Selon une autre caractéristique de l'invention, ladite pluralité de valeurs numériques comprend une quantité de code d'un paramètre de déplacement de chaque région, une puissance d'erreur de prédiction qui accompagne une compensation de déplacement, une valeur de dispersion d'un signal original, une intensité de bord et une
amplitude du paramètre de déplacement de chaque région.
Selon une autre caractéristique de l'invention, ladite section de traitement de subdivision comprend en outre une section d'identification de classes et évalue s'il faut ou non subdiviser chaque région sur la base à la
fois de ladite activité et de ladite classe.
Selon une autre caractéristique de l'invention, ladite section d'identification de classes observe une structure d'objet recouvrant une pluralité de régions et fixe des classes pour les régions. Selon une autre caractéristique de l'inventicn, ladite structure d'objet est évaluée sur la base d'une dispersion, dans le signal original, de la région, de l'intensité de bord et du degré de raccordement du bord à
des régions adjacentes.
Selon une autre car--".'-istique de l'invention, ladite section d'identification de classes observe des caractéristiques d'une image, effectue une détection d'objets et, sur la base des résultats de cette observation
et de cette détection, fixe des classes pour la région.
Selon une autre caractéristique de l'invention, ladite section d'identification de classes mémorise par avance, pour chaque objet prédit comme devant être inclus dans l'image, des caractéristiques de l'image incluant l'objet, et détermine la classe de chaque région sur la base du degré de coïncidence entre les caractéristiques de l'image de chaque région et les caractéristiques mémorisées
de l'objet.
Selon une autre caractéristique de l'invention, ladite section de traitement de subdivision comprend: un codeur provisoire effectuant un codage provisoire peur coder de façon préliminaire l'image pour chaque région et calculer la quantité de code de cette région; un décodeur pour décoder l'image codée au moyen du codeur provisoire; une section de calcul de distorsion de codage pour calculer la distorsion de codage en utilisant l'image décodée par le
décodeur; et une section de calcul d'une valeur d'évalua-
tion pour calculer une valeur d'évaluation pour évaluer l'avantage du codage lorsqu'on prend en compte à la fois la quantité de code et la distorsion de codage; une détermination étant effectuée pour chaque région pour savoir s'il faut effectuer ou non l'intégration pour la région sur la base d'un résultat de comparaison de la valeur d'évaluation, qui est obtenue dans le cas o la région est subdivisée en supplément en régions plus petites, et la valeur d'évaluation qui est obtenue dans le cas o la région n'est pas subdivisée en supplément en
régions plus petites.
Selon une autre caractéristique de l'invention, un paramètre de quantification d'un signal d'erreur de prediction accompagnant une prédiction, compensée du point de vue déplacement, est réglé d'une manière variable dans ledit codeur réalisant un codage provisoire, et ladite section de calcul de la valeur d'évaluation calcule la valeur d'évaluation tout en modifiant le paramètre de quantification. Selon une autre caractéristique de l'invention, une section de calcul de la valeur d'évaluation servant à obtenir, en tant que valeur d'évaluation, une somme linéaire de la puissance d'erreur de prédiction et de la quantité de code du paramètre de déplacement de chaque région accompagnant la prédiction, compensée du point de vue du déplacement, est disposée dans un étage situé en amont de celui dudit codeur effectuant un codage provisoire, et ledit codeur effectuant un codage provisoire détecte le paramètre de déplacement sur la base de la
valeur d'évaluation.
L'invention concerne en outre un appareil pour produire et décoder des données codées d'une image qui a été codée après avoir été subdivisée en une pluralité de régions, caractérisé en ce qu'il comporte: une section de régénération de la forme de la région, servant à régénérer, sur la base d'une information de la forme de région contenue dans les données codées, la forme de chaque région qui a été séparée pendant le codage; et un décodeur de données d'image pour décoder l'image de chaque région à
partir de données codées correspondant à sa région.
Selon une autre caractéristique de l'invention, ladite information concernant la forme de la région inclut une information se rapportant au traitement lorsque des régions sont séparées et intégrées pendant le codage et, sur la base de cette information, ladite section de rétablissement de la forme de la région identifie l'état séparé de régions par reproduction du même processus que
celui de l'appareil de codage.
L'invention concerne en outre un procédé de codage d'images mobiles, caractérisé en ce qu'il comprend les étapes consistant à: intégrer des régions préalablement séparées, avec des régions adjacentes sur la base d'un critère prédéterminé d'évaluation d'intégration; et coder des signaux d'image pour des régions qui
subsistent après l'intégration.
L'invention concerne en outre un appareil de codage d'images mobiles, caractérisé en ce qu'il comporte: une section de traitement d'intégration pour intégrer chacune d'une pluralité de régions préalablement séparées, avec des régions adjacentes, et un codeur pour coder des signaux d'image pour chacune des régions qui subsistent après l'intégration par la section de traitement
d'intégration.
D'autres caractéristiques et avantages de la
présente invention ressortiront de la description donnée
ci-après prise en référence aux dessins annexés, sur lesquels: - la figure 1, dont il a déjà été fait mention, représente un appareil de codage d'images mobiles relatif à un premier art antérieur; - la figure 2, dont il a déjà été fait mention, représente un appareil de codage d'images mobiles relatif à un second art antérieur; - la figure 3 est un schéma-bloc usuel pour un appareil général de codage d'images mobiles selon une forme de réalisation; - la figure 4 est un organigramme illustrant le fonctionne:aent de l'appareil de codage d'images de la figure 3; - la figure 5 est un schéma-bloc interne de la section de subdivision en régions de la figure 3; - la figure 6 est un schéma-bloc interne de la section de traitement de subdivision de la figure 5; - la figure 7 est un organigramme illustrant un fonctionnement de la section de traitement de subdivision de la figure 6; - la figure 8 représente un exemple d'un résultat de subdivision uniforme dans la section de traitement de subdivision de la figure 6; - la figure 9 représente un résultat d'une première subdivision initiale dans la section de traitement de subdivision de la figure 6; - la figure 10 représente un résultat final de subdivision initiale dans la section de traitement de subdivision de la figure 6; - la figure 11 est un schéma-bloc interne de la section de traitement d'intégration de la figure 5; - la figure 12 est un organigramme illustrant un fonctionnement de la section de traitement d'intégration de la figure 11; - la figure 13 représente un exemple d'étiquetage d'une région dans la section de traitement d'intégration de la figure 11; - la figure 14 représente un exemple de positionnement de régions adjacentes dans la section de traitement d'intégration de la figure 11; - la figure 15 est un organigramme illustrant la procédure de S19 sur la figure 12; - la figure 16 est un schéma-bloc interne d'une autre forme de réalisation de la section de traitement de subdivision de la figure 5; - la figure 17 représente un résultat final d'une subdivision initiale dans la section de traitement de subdivision de la figure 16; la figure 18 est un schéma-bloc interne d'une autre forme de réalisation de la section de traitement de subdivision de la figure 5; - la figure 19 est un organigramme illustrant une opération de fonctionnement de la section de traitement de subdivision de la figure 18; - la figure 20 représente une autre forme de réalisation de la section d'identification de classes de la figure 18; - la figure 21 représente une prédiction, compensée du point de vue déplacement, sur la base d'une mise en correspondance de blocs; - la figure 22 est un schéma-bloc interne d'une autre forme de réalisation de la section de traitement de subdivision de la figure 5; - la figure 23 est un organigramme illustrant un fonctionnement de la section de traitement de subdivision de la figure 22; - la figure 24 est un schéma-bloc interne d'une autre forme de réalisation de la section de traitement d'intégration de la figure 5; - la figure 25 est un organigramme illustrant un fonctionnement de la section de traitement d'intégration de la figure 24; - la figure 26 est un schémabloc interne d'une autre forme de réalisation de la section de traitement d'intégration de la figure 5; - la figure 27 est un schéma- bloc interne d'un appareil de décodage d'images mobiles associé à la forme de realisation; et - la figure 28 est un organigramme illustrant un
fonctionnement de l'appareil de décodage de la figure 24.
On va donner ci-après une forme de description
détaillée des formes de réalisation préférées.
PREMIERE FORME DE REALISATION
La figure 3 est un schéma-bloc représentant une configuration d'un appareil de codage d'images mobiles associé à cette forme de réalisation. Cet appareil peut être utilisé dans un équipement portable ou fixe pour des transmission d'images, tels que des vidéotéléphones et des circuits de conférence de télévision. On peut également l'utiliser en tant qu'appareil de codage d'images mobiles dans un appareil de mémorisation et d'enragistrement d'images tels que des magnétoscopes numériques ou des serveurs vidéo. En outre les processus intervenant dans cet appareil peuvent être égalementés en tant que programmes de codage d'images mobiles devant être installé sous la forme d'un logiciel ou d'un logiciel microprogrammé
DSP.
Sur la figure 3, le chiffre de référence 1 désigne l'image d'entrée, le chiffre de référence 2 désigne une section de subdivision en régions, le chiffre de référence 3 désigne une information concernant la forme des régions, le chiffre de référence 4 désigne un signal d'image de région, le chiffre de référence 5 désigne une information de déplacement de région, le chiffre de référence 6 désigne une information d'attribut de région, le chiffre de référence 7 designe un codeur, le chiffre de référence 8 désigne une information de déplacement de région, le chiffre de référence 6 désigne une information d'attribut de région, le chiffre de référence 7 désigne un codeur, le chiffre de référence 8 désigne une image localedécodée, le chiffre de référence 9 désigne une mémoire, le chiffre de référence 10 désigne une image de référence et le chiffre de référence 11 désigne un flux binaire codé. La figure 4 est un crganigramme illustrant un fonctionnement de l'appareil. On va tout d'abord décrire le fonctionnement
d'ensemble de l'appareil en référence aux figures 3 et 4.
L'image d'entrée 1 est envoyée à une section de subdivision en régions 2 (Sl), dans laquelle l'image est subdivisée en de multiples régions. La section de subdivision en régions 2 exécute une subdivision initiale (S2) et une intégration de régions adjacentes (S3), comme cela sera décrit plus loin. La section de subdivision en régions 2 transmet une information de forme 3, un signal d'image 4, une information d'attribut 6 telle que des mots de codage des régions, et une information de déplacement 11 pour chaque région obtenue en tant que résultat de la subdivision au codeur 7. Le codeur 7 transforme et multiplexe ces éléments d'information en un profil binaire sur la base d'un procédé de codage prédéterminé pour le
délivrer sous la forme d'un flux binaire codé 11 (S4, S5).
Pour effectuer la subdivision en régions et le codage sur la base d'une prédiction compensée du point de vue déplacement, le codeur 7 produit une image locale décodée 8 pour chaque région et l'introduit en mémoire dans une mémoire 9. La section de subdivision en régions 2 et le codeur 7 extraient l'image locale décodée mémorisée dans la mémoire 9, en tant qu'image de référence 10 pour effectuer
une prédiction compensée du point de vue déplacement.
La figure 5 représente un schéma-bloc détaillé de la section de subdivision en régions 2, sur lequel le chiffre de référence 12 désigne une section de traitement de subdivision, le chiffre de référence 13 désigne une information initiale sur la forme de subdivision et le chiffre de référence 14 désigne une section de traitement d'informations. (1) Subdivision initiale La subdivision initiale correspondant à S2 sur la figure 4 est exécutée dans la section de traitement de subdivision 12. L'expression subdivision initiale désigne
la subdivision qui est exécutée avant de passer à l'inté-
gration, et le compte total de subdivision dépend de l'état de l'image, à savoir les particularités ou caractéristiques
de l'image.
La figure 6 représente une configuration interne d'une section de traitement de subdivision 12, dans laquelle le chiffre de référence 15 désigne une section de subdivision uniforme, le chiffre de référence 16 désigne une section de calcul d'activité, le chiffre de référence 17 désigne une activité, le chiffre de référenze 18 désigne une section d'évaluation de subdivision, et le chiffre de référence 19 désigne un signal d'instruction d'état de subdivision. L'activité se réfère à une valeur évaluée permettant d'évaluer les particularités ou caractéristiques de l'image au regard d'une propriété prédéterminée. Une puissance d'erreur de prédiction accompagnant une prédiction, compensée du point de vue déplacement, pour une région est utilisée en tant qu'activité dans cette forme de réalisation. La figure 21 représente un procédé de prédiction, compensé du point de vue déplacement, sur la base d'un procédé de mise en correspondance de blocs. Dans le procédé de mise en correspondance de blocs, un vecteur v fourni par la formule suivante est trouvé en tant que vecteur de
déplacement de la région S devant être prédite.
Dmin = min(Z [fs(x + vx, y + vy, t-l) - fs(x,y,t)]) vER S Le terme fs(x, y, t) est la valeur du pixel dans (x, y) à l'instant t de la région prédite S, fs(x, y, t-l) est la valeur du pixel dans (x, y) à l'instant t-l, et fs(x+vx, y+Vy, t-l) est la valeur de pixel de la position qui est déplacée, et ce du module du vecteur v, à partir de la position (x, y, t-l). R représente la gamme de recherche
du vecteur de déplacement.
A partir du vecteur v obtenu, l'image de prédiction est obtenue au moyen de fs(x+vx, y+vy, t-1), et la puissance d'erreur de prédiction ou activité devient Dmin. La définition de l'activité avec ce procédé permet d'exécuter la subdivision en régions en fonction de la complexité du déplacement local de l'image. La commande devient possible, comme par exemple pour un codage détaillé pour des parties ayant des déplacements conséquents, et un codage approximatif pour des parties ayant de petits déplacements. On peut utiliser une compensation du déplacement affine pour l'obtention de paramètres de déplacement affine et la compensation de déplacement en perspective pour la détection d'un déplacement
tridimensionnel.
La figure 7 est un organigramme illustrant un fonctionnement de la section de traitement de subdivision 12, dans laquelle une subdivision uniforme inconditionnelle en blocs est tout d'abord exécutée (S8) au moyen de la section de subdivision uniforme 15. Simultanément, une image complète est subdivisée par exemple en blocs de
32 x 32 pixels comme cela est représenté sur la figure 8.
Ce processus de subdivision est désigné comme étant un étage de subdivision d'ordre 0. Le nombre de blocs produits dans l'étage de subdivision d'ordre O est désigné par NO et
chaque bloc est désigné par B0n (1 < n < NO).
Ensuite, une évaluation est faite individuellement pour déterminer s'il faut effectuer ou non une autre subdivision en blocs pour chaque B0n (S9). A cet effet, l'activité 17 pour chaque B0n est calculée dans la section de calcul d'activité 16. La section d'évaluation de subdivision 18 compare le seuil TH0, qui a été réglé par avance avec l'activité de chaque bloc, et si l'activité 17 est supérieure à TH0, le bloc correspondant Bon est en outre subdivisé en quatre blocs (S10). Ceci est désigné
comme étant un 1-er étage de subdivision.
La figure 9 illustre l'image subdivisée au niveau de la 1-ère étape de subdivision. Le nombre de blocs de 16 x 16 pixels nouvellement produits est désigné par N1 et chaque bloc est désigné par Bln (1 < n < N1). Ensuite, on calcule l'activité de chaque B1n et on exécute une 2-ème étape de subdivision en utilisant le seuil TH1. Ensuite, on applique le seuil THj au bloc BJn produit dans une j-ème étape de subdivision et on exécute la j+1-ème étape de subdivision (S13 à S16). Le positionnement initial est terminé lorsque j atteint une valeur limite supérieure
prédéterminée. On suppose ici pour la description que le
traitement se termine à la fin de leur 2-ème étape de subdivision. Dans ce cas, des blocs tels que représentés sur la figure 10 sont produits. Les tailles des blocs sont comprises entre 8 x 8 pixels et 32 x 32 pixels. Le nombre de blocs à la fin de la subdivision initiale est désigné par M0 et la région initiale de chaque bloc est désignée par SOn. L'information de forme pour S0n est transmise à la section de traitement d'intégration 14 en tant
qu'information 13 sur la forme de la subdivision initiale.
(2) Intégration de régions adjacentes La section de traitement d'intégration 14 exécute une intégration avec des régions adjacentes pour chaque SOn. La configuration interne de la section de traitement d'intégration 14 est représentée sur la figure 11, sur laquelle le chiffre de référence 20 désigne une section d'étiquetage, le chiffre de référence 21 désigne une section de positionnement de régions adjacentes, le chiffre de référence 22 désigne un codeur réalisant un codage provisoire, le chiffre de référence 23 désigne un codeur, le chiffre de référence 24 désigne une section de calcul de déformation de codage, le chiffre de référence 25 désigne une section de calcul de la valeur d'évaluation, le chiffre de référence 26 désigne une constante pour le calcul de la valeur d'évaluation, le chiffre de référence 27 désigne une section d'évaluation d'intégration, et le chiffre de référence 28 désigne un signal d'instruction d'itération du
processus d'intégration.
La figure 12 est un organigramme illustrant un fonctionnement de la section de traitement d'informations 14. Comme cela est représenté sur l'organigramme, les nombres ou étiquettes sont tout d'abord affectés à des régions initiales SOn par la section d'étiquetage 20 en fonction d'une règle prédéterminée (S17). Par exemple, des nombres sont affectés en séquence à des régions bien que l'image complète soit balayée horizontalement selon des unités de pixels depuis le coin supérieur gauche jusqu'au coin supérieur droit. Un simple exemple d'étiquetage est illustré sur la figure 13, les étiquettes "1", "2", etc.
étant affectées aux régions selon leur séquence d'appari-
tion sur la ligne de balayage. A cet instant, on néglige la taille de la région. Ensuite, la valeur d'étiquette de la région Skn est désignée par l(Skn). Le k correspond ici à une k-ème étape de subdivision qui sera décrite plus loin,
l'état initial étant k=C.
Ensuite les "régions adjacentes" de chaque région sont définies par la section 21 de positionnement de régions adjacentes (S18) qui utilise les étiquettes. La figure 14 est un exemple de régions adjacentes, dans lesquelles les régions adjacentes d'une région SOn sont basées sur les étiquettes de la figure 13. Les régions B, C et D, qui sont adjacentes aux bords de la région A et comportent des valeurs d'étiquettes supérieures à celles de
la région A, sont définies en tant que régions adjacentes.
Ensuite, une évaluation est faite pour chaque région de manière à déterminer si la région peut être intégrée ou non avec ses régions adjacentes. Pour cette raison, une valeur d'évaluation pour l'intégration est calculée (S19) par le codeur 22 réalisant un codage provisoire, le décodeur 23, la section 24 de calcul de distorsion de codage et la section 25 de calcul de la valeur d'évaluation. La valeur d'évaluation est une quantité de code - coût de distorsion L(Skn) exprimée par la formule suivante: L(Skn) = D(Skn) + ÀR(Skn) Formule 1 Ici D(Skn) est la distorsion de codage de SSkn, c'est-à-dire la sommation d'erreurs au carré, R(Skn) est la
quantité de code de Skn et À est la constante 26. L'intégra-
tion s'effectue dans la direction des valeurs décroissantes de L(Skn). La diminution de L(Skn) est équivalente à la diminution de la distorsion de codage à l'intérieur de la gamme de la quantité prédéterminée de code basée sur la constante donnée A. Une réduction de la sommation de L(Skn) permet de réduire la distorsion de codage lorsqu'on utilise
la même quantité de code.
La figure 15 est un organigramme détaillé de S19.
Tout d'abord Sk est codé de façon préliminaire (S22) dans n le décodeur 22 réalisant un codage provisoire. Ce codage est exécuté à titre de préparatifs pour le calcul de la quantité de code R(Skn) et l'obtention de la distorsion de codage D(Skn). Dans cette forme de réalisation, le codeur 22 réalisant un codage provisoire exécute une compensation de déplacement en utilisant l'image de référence 10. Les données devant être codées comprennent les données d'image, à savoir le signal d'erreur de prédiction ou le signal original, l'information de déplacement pour spécifier l'image de prédiction et l'information d'attribut telle que celle du mode de ccdage, la sommation des quantités de ces codes étant R(Skn). Le signal d'erreur de prédiction est obtenu en tant que différence du signal original de Skn et
de l'image de prédiction.
La figure 23 produit l'image locale décodée pour Skn (S23) en utilisant les données décodées fournies par le codeur 22 réalisant un codage provisoire. Ensuite la distorsion D(Skn) de l'image locale décodée et de l'image originale est calculée (S24) par la section de calcul de distorsion de codage 24. La section de calcul de la valeur d'évaluation 25 calcule (S25) la quantité de code - coût de distorsion L(Skn) à partir de R(Skn) et D(Skn).
Le pas 19 exécute le calcul de la valeur d'éva-
luation précédente pour toutes les régions pour les trois types de 1. Chaque région Skn elle-même: L(Skn) 2. Des régions adjacentes Ni[Skn] de Skn: L(Ni[Skn]) 3. Région intégrant temporairement skn et Ni[Skn]: L(Skn+Ni[Skn]) Ici, Ni[Skn] désigne une régicn adjacente de Skn et i est un nombre servant à distinguer les multiples régions
adjacentes.
Ensuite dans la section d'intégration d'évalua-
tion 27, un emplacement à l'intérieur de l'image complète, dans lequel on a DL = L(Skn)+L(Ni[Skn])-L(Skn+Ni[Skn]) est maximum, est recherché et les valeurs correspondantes Skn et Ni[Skn] sont intégrées (S20). C'est la k-ème étape
d'intégration. Ensuite, la section d'évaluation d'intégra-
tion 27 commande à la section d'étiquetage 20 de mettre à jour des étiquettes au moyen d'un signal 28 de commande d'itération du processus d'intégration. La section d'étiquetage 20 remplace l'étiquette l(Ni[Skn]) par l(Skn), et positionne à nouveau des régions adjacentes au moyen de la section de positionnement de régions adjacentes 21. Ceci fournit une nouvelle région Sk+ln et de nouvelles adjacentes Ni[sk+ln], ce qui détermine L(Sk+ln), LNi[Sk+in]
et L(Sk+ln+Ni[sk+ln]). La section d'évaluation d'intégra-
tion 27 bloque les instructions envoyées à la section d'étiquetage 20 lorsqu'il n'existe pas d'autres combinaisons fournissant des valeurs positives de DL et
arrête le processus d'intégration (S21).
Ceci termine le traitement de subdivision et d'intégration, et l'information 3 exprimant l'état de l'image d'entrée 1 subdivisée en régions, l'état de l'image 4 pour chaque région, l'information de déplacement 5 et l'information d'attribut 6 sont envoyées au codeur 7. Ensuite un codage est exécuté conformément à un procédé de
codage prédéterminé.
Dans cette forme de réalisation, l'intégration a été réalisée ainsi que la subdivision et chaque région peut être exprimée comme un ensemble de blocs rectangulaires de différentes tailles. Par exemple un objet à l'intérieur d'une image présentant des déplacements conséquent peut être intégré dans une seule région ayant une forme similaire aux contours de l'objet. Il en résulte que la quantité de code est commandée par la modification des paramètres de quantification pour chaque objet de manière à permettre un traitement souple d'images sur la base de leurs structures réelles. En outre, une subdivision optimale en régions, qui réduit la distorsion de codage, est obtenue dans le cas d'une quantité fixe de code. C'est pourquoi, par rapport à l'appareil classique de codage d'images mobiles, on peut obtenir une qualité d'image plus
importante avec une plus faible quantité de code.
Bien que la subdivision initiale dans cette forme de réalisation se soit terminée à la fin de la 2-ème étape de subdivision, elle peut naturellement se terminer au cours d'une autre étape. Par exemple, si le déplacement d'ensemble de l'image est faible, la subdivision initiale peut être interrompue dans la 1-ère étape et, si ce n'est pas le cas, le nombre d'étapes peut être accru. En outre, bien que des images complètes aient été codées dans cette forme de réalisation, il est également possible d'appliquer ce codage d'une manière similaire à une zone d'image rectangulaire incluant un objet de forme quelconque dans
l'image complète.
Pour le codeur décrit 7 et le codeur provisoire 22 réalisant un codage provisoire, le codage de Sk était n exécuté au moyen d'une combinaison de DCT et d'une quantification linéaire. Cependant, on peut utiliser d'autres procédés de codage, tels qu'une quantification vectorielle, un codage de bandes secondaires ou un codage en vaguelettes. On peut préparer de multiples procédés de codage et on peut utiliser une configuration utilisant de façon sélective le procédé fournissant le meilleur
rendement de codage.
Bien que l'on ait adopté la puissance d'erreur de prédiction pour l'activité dans cette forme de réalisation,
on peut considérer d'autres exemples indiqués ci-après.
Un premier exemple est une valeur de dispersion dans la région. La valeur de dispersion exprime la complexité de la distribution des pixels de la région, et la valeur de dispersion devient supérieure pour une région qui inclut des images dans lesquelles des valeurs de pixels, telles que celles présentes au niveau des bords, varient brusquement. La valeur de dispersion as est fournie par la formule suivante lorsque la valeur de pixel dans la région S est fixée à fs(x, y, t) et que la moyenne de la valeur du pixel dans la région S est réglée à ps as = - Z (fs(x,y,t) p5)2 N S Sur la base de cette activité, on peut séparer les régions conformément à la complexité de la structure locale de l'image, et il est possible de réaliser une commande pour un codage détaillé de parties, dans lesquelles des valeurs de pixels varient fortement et pour réaliser un codage approximatif de parties, dans lesquelles
des valeurs de pixels varient de façon minimale.
Un second exemple est l'intensité de bord de la région. L'intensité de bord peut être résolue en utilisant un opérateur Sobel comme cela est mentionné dans "Edge detection by compass gradient masks" de G. Robinson (Journal of Computer Graphics and Image Processing, Vol. 6, N 5, Octobre 1977) en tant que nombre de pixels distribués sur le bord ou dans la zone de distribution de bord. Dans le cas de ce procédé, les régions peuvent être subdivisées conformément à la structure de bord de l'image, et la commande est possible pour un codage détaillé de parties dans lesquelles des bords sont situés, et un codage approximatif de parties, au niveau desquelles des bords
n'existent pas.
Comme troisième exemple, on peut indiquer l'amplitude du paramètre de déplacement sur la base d'une prédiction, compensée du point de vue déplacement, de la région. Sous l'effet de la prédiction compensée du point de vue déplacement, on obtient le paramètre de déplacement. Ce paramètre correspond au vecteur v dans le procédé de mise en correspondance de blocs. Conformément à ce procédé, on peut subdiviser des régions conformément au degré de déplacement de l'image, et une commande est possible pour un codage détaillé de parties dans lesquelles des déplacements localisés conséquents de l'image se produisent, comme par exemple des régions de l'objet, et un codage approximatif de parties dans lesquelles les déplacements apparaissent rarement, comme par exemple des
régions d'arrière-plan.
Un quatrième exemple est la somme linéaire de la quantité de code du paramètre de déplacement basée sur une prédiction, compensée du point de vue du déplacement, de la région et sur la puissance d'erreur de prédiction. La valeur d'évaluation de cela est définie dans la formule suivante: mc = Dmc + Rmc Formule 2 Ici Dmc est la puissance d'erreur de prédiction déterminée au cours de la détection du paramètre de déplacement, À est une constante et Rmc est la quantité de code du paramètre de déplacement. Le paramètre de déplacement réduisant Lmc est déterminé et la valeur
d'évaluation à cet instant est réglée en tant qu'activité.
Conformément à ce procédé, des régions sont subdivisées de manière à réduire le coût total de codage y compris la quantité d'information des paramètres de déplacement et la quantité d'information basée sur la complexité du déplacement de l'image, ce qui permet d'effectuer un codage
de subdivisions avec une faible quantité d'information.
Un cinquième exemple est la somme linéaire des valeurs d'activité. En effectuant une pondération appropriée pour chaque activité, il devient possible de
traiter une variété d'images.
Bien que la subdivision initiale soit exécutée dans la section de traitement de subdivision 12 dans cette forme de réalisation, cette section analogue peut être prévue à l'extérieur de la section de subdivision en régions 2. Avec cet agencement la subdivision initiale est exécutée à l'extérieur du dispositif de codage d'images mobiles représenté sur la figure, et une image préalablement subdivisée est envoyée directement à la
section de subdivision de région 2.
SECONDE FORME DE REALISATION
Cette forme de réalisation concerne un appareil dans lequel la section de subdivision en régions 2 de la
première forme de réalisation a été partiellement modifiée.
La figure 16 est un schéma-bloc interne d'une section 2 de
subdivision en régions dans cette forme de réalisation.
Comme cela est représenté sur ce schéma, la section de subdivision en régions 2 de la seconde forme de réalisation possède une configuration dans laquelle la section de traitement de subdivision 12 de la figure 5 a été remplacée par la section de subdivision uniforme 15. Comme représenté sur la figure 17, l'évaluation de seuil de l'activité n'est pas effectuée pendant le processus de subdivision initiale dans cette configuration, et une subdivision uniforme est exécutée d'une manière inconditionnelle selon des blocs carrés ayant une surface de région minimale. On peut prévoir que cette surface de région minimale peut être sélectionnée. Le réglage du seuil est inutile dans cette forme de réalisation, et la subdivision en régions est exécutée uniquement pour une quantité de code - coût de distorsion en tant que valeur d'évaluation. Par conséquent, la procédure associée au réglage du seuil devient inutile de
même que le calcul de l'activité et le traitement d'évalua-
tion de comparaison. Par conséquent, on peut utiliser cette forme de réalisation en plus de la première forme de réalisation pour réduire la charge de calcul relative à ces processus.
TROISIEME FORME DE REALISATION
Dans le processus de subdivision selon cette forme de réalisation, une évaluation est faite concernant le fait qu'une subdivision est possible ou non y compris non seulement l'activité, mais également un index (désigné ci-après sous le terme classe) indiquant l'importance de la région. Il est préférable d'exécuter un codage détaillé pour la région ayant une grande importance et de réduire les surfaces des régions. Les régions ayant une faible importance sont rendues aussi grandes que possible de
manière à réduire la quantité de code par pixel.
L'activité est par exemple une valeur statistique logique fermée à l'intérieur de la région. D'autre part, les classes dans cette forme de réalisation sont basées sur les caractéristiques des régions couvrant l'image. Dans cette forme de réalisation, les classes sont définies sur la base du degré avec lequel une personne voit la région, à savoir un degré d'observation de la personne, en raison de la structure d'objet traversant la région. Par exemple, lorsque la distribution de bord d'une région donnée s'étend sur une distance conséquente et que la liaison avec des régions adjacentes est serrée, il est tout à fait possible que la région soit située au niveau de la limite d'un objet. La figure 18 est un schéma-bloc interne de la section de traitement de subdivision 12 de cette forme de réalisation. En dehors de ce qui est représenté, la représentation est identique à celle de la première forme
de réalisation et la description qui va suivre concerne les
différences par rapport à la première forme de réalisation.
Sur le même schéma, le chiffre de référence 29 indique une section d'identification de classes, le chiffre de référence 30 désigne un identifiant de la classe, et le chiffre de référence 31 désigne une section d'évaluation de subdivision. La figure 19 est un organigramme représentant un fonctionnement de la fonction de traitement de
subdivision 12 représenté sur la figure 18.
Comme cela est représenté sur la figure 19, on
effectue tout d'abord une subdivision uniforme (S26).
Ensuite, la classe 30 de chaque région est déterminée (S27) au moyen de la section 29 d'identification de classes. La section 29 d'identification de classes détermine la classe en évaluant l'amplitude a de la dispersion à l'intérieur de la région, l'état e de la distribution de bord à l'intérieur de la région (y compris la direction du bord et la zone de distribution) et la connectivité y pour les bords avec des régions adjacentes. Par exemple une région possédant une dispersion a qui est inférieure à une valeur prédéterminée est réglée en tant que classe la plus basse (classe A), tandis que la distribution de bord e à l'intérieur de la région est en outre déterminée pour des régions ayant une dispersion a qui est supérieure à la valeur prédéterminée. La détermination de e peut être réalisée par exemple au moyen de l'opérateur Sobel mentionné précédemment. Si f est inférieur à la valeur prédéterminée, la région est considérée comme étant une petite zone ayant un bord indépendant plutôt qu'une limite d'objet, puis est classée dans une classe intermédiaire (classe B). Lorsque atteint une certaine valeur élevée, la connectivité y est évaluée, et si y possède une valeur élevée, la région est classée dans la classe la plus
importante (classe C).
Après classification en des classes, l'activité 17 est calculée dans la section de calcul d'activité 16, et une évaluation de seuil concernant l'activité est tout d'abord effectuée (S28) par la section d'évaluation de subdivision 31. Pour une région évaluée ici comme nécessitant une subdivision, une évaluation est faite de manière à permettre la subdivision basée sur la classe 30 (S29). Par conséquent, la section d'évaluation de subdivision 31 retient par avance un critère qui définit sur quelle valeur de taille une région de chaque classe doit être subdivisée. Si l'autorisation de subdivision est accordée en rapport avec une classe, la région est subdivisée (S30). Ceci est exécuté pour toutes les régions, et le même processus de subdivision est également exécuté pour les régions subdivisées nouvellement créées (S33 à S38). Conformément à cette forme de réalisation, le codage d'images peut être exécuté tout en prenant en compte des caractéristiques d'image englobant de multiples régions, en particulier les contours d'objets. Une commande est possible de telle sorte que des régions ayant un faible degré d'observation soient codées de façon approximative pour réduire la quantité d'informations, et que la quantité d'informations réduite est appliquée à des régions ayant un
degré élevé d'observation.
QUATRIEME FORME DE REALISATION
Le degré d'observation de la personne a été utilisé dans la détermination des classes dans la troisième forme de réalisation. Dans cette forme de réalisation, les caractéristiques d'une image connue sont mémorisées et les classes sont déterminées en fonction du degré de coïncidence entre les caractéristiques mémorisées et les
caractéristiques calculées à partir de chaque région.
Par exemple, pour des images de visages, une recherche considérable a été exécutée, et de nombreuses techniques ont été proposées pour numériser les structures de visages. Une fois que ces caractéristiques sont mémorisées, un visage d'une personne (ayant en général une grande importance) peut être détecté à partir de l'intérieur de l'image. Pour d'autres buts, il existe également de nombreux cas o on peut décrire ces objets au moyen de caractéristiques basées sur une information de luminance et de texture. Pour exprimer clairement le visage d'une personne, la région présentant des caractéristiques coïncidant avec des caractéristiques du visage de lapersonne est réglée comme étant la classe la plus importante A, tandis que d'autres régions sont réglées comme faisant partie de la classe B, ayant une importance normale. La figure 20 est un schéma-bloc de la section 29 d'identification de classes dans cette forme de réalisation. Les autres blocs sont équivalents à ceux de la troisième forme de réalisation. Sur la figure 20, le chiffre de référence 21 désigne une mémoire de caractéristiques, le chiffre de référence 32 désigne une section de calcul du degré de coïncidence de caractéristiques, et le chiffre de référence 34 désigne une
section de détermination de classe.
La mémoire de caractéristiques 32 conserve les caractéristiques associées à des objets pour chaque objet classé dans des classes. La section 33 de calcul de degré de coïncidence des caractéristiques calcule le degré de coïncidence d'une image d'entrée 1 et des caractéristiques de l'objet classé selon des classes. Le degré de coïncidence est déterminé par exemple en tant qu'erreur entre les caractéristiques d'une image d'entrée 1 et les caractéristiques à l'intérieur de la mémoire de caractéristiques 32. Ensuite, l'objet possédant le degré maximum de coïncidence est détecté par la section de détermination de classe 34, et les régions concernées sont
classées dans cette classe d'objets.
Conformément à cette forme de réalisation, l'identification ou la détection d'objets devient possible en fonction de caractéristiques de l'image. La qualité d'image peut être en outre améliorée lorsque cela est nécessaire. La classification d'objets en des classes peut être exécutée conformément aux caractéristiques associées au degré d'observation de la personne, auquel cas un codage peut être exécuté tout en tenant compte de caractéristiques
visuelles humaines en rapport avec l'image.
CINQUIEME FORME DE REALISATION
On a tenu compte d'une distorsion de codage pendant le processus d'intégration, dans la première forme de réalisation. Dans cette première forme de réalisation, une distorsion de codage lors de l'étape du processus de
subdivision est prise en considération.
La figure 22 est un schéma-bloc interne de la section de traitement de subdivision 12 dans cette forme de réalisation, le chiffre de référence 35 désignant une section d'évaluation de subdivision, le chiffre de référence 36 indiquant un signal d'instruction d'itération du processus de subdivision. La figure 23 est un organigramme illustrant un fonctionnement de la section de
traitement de subdivision 12 de la figure 22.
La section de traitement de subdivision 12 de cette forme de réalisation utilise une formule 1 qui a été introduite dans la première forme de réalisation. Grâce à l'utilisation de cette formule, le processus de subdivision initiale est exécuté dans le sens d'une réduction de la sommation de L(Skn) dans l'image complète de sorte que la distorsion de codage peut être réduite lorsqu'on utilise la même quantité de code. Comme représenté sur la figure 23, une subdivision en blocs uniformes est tout d'abord exécutée (S39) dans la section de subdivision uniforme 15 par
exemple de telle sorte qu'on obtient l'état de la figure 8.
Cela correspond à l'étape de subdivision d'ordre 0. Le nombre de blocs obtenus à cet instant est désigné par No et chaque bloc est désigné par B0n (1 < n < NO). Une évaluation est faite pour chaque B0n pour déterminer s'il faut exécuter ou non une subdivision supplémentaire en blocs. Une comparaison est effectuée entre L(B0n) associé à
B0n et la sommation de L(SB0n(i)) associée à chaque sous-
bloc SBO n(i) (1 < i < 4) obtenu après que Bo n a été subdivisé en quatre parties. La subdivision est permise si
elle est plus petite.
Lors du calcul de la quantité de code - coût de distorsion, un codage de B0n et de B0n(i) est tout d'abord
exécuté dans le codeur 22 effectuant le codage provisoire.
Ensuite dans le décodeur 23, les images locales décodées de Bon et de SBOn(i) sont produites à partir des données codées obtenues à partir du codeur 2 réalisant un codage provisoire. Ensuite la distorsion entre les images locales décodées et l'image originale D(B0n) et D(B0n(i)), sont calculées par la section de calcul de distorsion de codage 24. La section de calcul de la valeur d'évaluation 25 calcule L(B0n) et L(B0n(i)) à partir des quantités de codes R(B0n) et R(B0n(i)) et des distorsions de codage D(BO0n) et
D(BO n(i)) (S40, S41).
La section d'évaluation de subdivision 35 compare L(B0n) et la sommation des quatre sous-blocs de L(B0n(i)) (i = 1, 2, 3, 4) (S42) et subdivise SB0 en quatre parties de SB0n(i) si cette dernière est plus petite (S43). Cela correspond à la 1-ère étape de subdivision. Les blocs subdivisés en SB0n(i) sont désignés, d'une nouvelle manière, par Bin (1<n<N1) et la même évaluation de subdivision est exécutée en rapport avec Bln (S46 à S51). Ensuite le même processus de subdivision est exécuté un nombre prédéterminé de fois. Comme résultat on obtient
l'état subdivisé représenté sur la figure 10 par exemple.
Etant donné que des opérations associées à l'activité ne sont pas utilisées dans cette forme de réalisation, cette forme de réalisation est particulièrement avantageuse si on place de l'importance à la réduction de la quantité d'opérations.
SIXIEME FORME DE REALISATION
Un autre exemple de la section de traitement d'intégration 14 représentée sur la figure 11 de la première forme de réalisation est décrite. La figure 24 est un schéma-bloc interne de la section de traitement d'informations 14 de cette forme de réalisation, dans laquelle le chiffre de référence 37 désigne une section de réglage du paramètre de quantification, le chiffre de référence 38 désigne un paramètre de quantification et le chiffre de référence 39 désigne un codeur réalisant un codage provisoire. Le fonctionnement de la section de traitement d'intégration 14 est fondamentalement identique
à celui représenté sur la figure 12, à l'exception de S19.
La figure 25 est un organigramme illustrant un processus de calcul de la valeur d'évaluation correspondant à S19. Le calcul de la valeur d'évaluation est exécuté au moyen du codeur 39 effectuant un codage provisoire, du codeur 23, de la section de calcul de distorsion de codage
24 et de la section de calcul de la valeur d'évaluation 25.
Tout d'abord, une valeur de paramètre initiale est positionnée dans la section de réglage du paramètre de quantification 37 et est envoyée (S52) au codeur 39 réalisant un codage provisoire. Pendant le codage, une quantification est exécutée en utilisant le paramètre de
quantification réglé.
Le décodeur 23 produit l'image locale décodée de Skn à partir des données codées obtenues de cette manière (S54). Ensuite, la distorsion D(Skn) entre l'image locale décodée et l'image originale est calculée (S55) dans la section de calcul de distorsion de codage 24. La section 25 de calcul de la valeur d'évaluation calcule L(Skn) à partir de la quantité de code R(Skn) et de la distorsion de codage D(Skn) (S56). La valeur de coût obtenue à partir du calcul initial est conservée en tant que Lmin, à la suite de quoi le paramètre de quantification est modifié et le même calcul de coût est exécuté. Etant donné qu'une modification du paramètre de quantification modifie l'équilibre entre la quantité de code et la distorsion, on utilise le paramètre pour lequel la quantité de code - le coût de distorsion est minimum, ce qui conduit à une quantité de code coût de distorsion L(Skn) de la région Sk (S57 à S60). Le reste
est identique à la première forme de réalisation.
Conformément à cette forme de réalisation, on obtient un processus d'intégration cptimum tout en prenant en compte le paramètre de quantification. Le procédé d'inclusion du paramètre de quantification est également applicable au processus de subdivision basé sur la quantité de code - le coût de distorsion décrit dans la cinquième
forme de réalisation.
SEPTIEME FORME DE REALISATION
On va décrire dans cette forme de réalisation un autre exemple de la sixième forme de réalisation. La figure 26 est un schéma-bloc interne de la section de traitement d'intégration 14 de cette forme de réalisation, dans laquelle le chiffre de référence 40 désigne une section de calcul du coût de prédiction, compensée du point de vue déplacement, le chiffre de référence 41 désigne un coût de prédiction compensé du point de vue déplacement et le chiffre de référence 42 désigne un codeur réalisant un
codage provisoire.
Le codeur 42 réalisant un codage provisoire utilise un codage basé sur une prédiction, compensée du point de vue déplacement, pour déterminer le paramètre de déplacement. A cet instant, on utilise le coût de prédiction compensé du point de vue déplacement (formule 2) décrit dans la première forme de réalisation. En d'autres termes, la détermination du paramètre de déplacement pendant un codage temporaire est exécutée de telle sorte que le coût est réduit par l'établissement d'un équilibre entre la distorsion de mise en correspondance, basée sur une compensation du déplacement, et la quantité de code du paramètre de déplacement. Concrètement, lors du codage réalisé par le codeur 42 réalisant un codage provisoire, le paramètre de déplacement est déterminé à partir de la valeur du coût qui est calculée par la section 40 de calcul du coût de prédiction, compensée du point de vue déplacement. Le reste du processus est similaire à celui de
la sixième forme de réalisation.
Conformément à cette forme de réalisation, pour une valeur À constante donnée, la forme de réalisation peut être déterminée tout en réduisant la quantité de code selon le coût de distorsion global depuis la compensation de déplacement jusqu'au codage. Il en résulte que la distorsion de codage basée sur une quantité prédéterminée
de code peut être réduite.
HUITIEME FORME DE REALISATION
* Dans cette forme de réalisation, un appareil de décodage d'images mobiles est décrit pour le décodage de flux binaires codés, qui sont produits par différents appareils de codage d'images mobiles. La figure 27 représente une configuration de l'appareil de décodage, dans lequel le chiffre de référence 43 désigne un analyseur du flux binaire, le chiffre de référence 44 désigne un décodeur de mise en forme de régions, le chiffre de référence 45 désigne un décodeur d'informations d'attribut, le chiffre de référence 46 désigne un décodeur de données d'image, le chiffre de référence 47 désigne un décodeur de l'information de déplacement, le chiffre de référence 48 désigne un paramètre de déplacement, le chiffre de référence 49 désigne une section de compensation de déplacement, le chiffre de référence 50 désigne une image de prédiction, le chiffre de référence 51 désigne un décodeur d'images, le chiffre de référence 52 désigne une mémoire externe et le chiffre de référence 53 désigne une
image reproduite.
Cet appareil de décodage décode les flux binaires codés constitués par une information de formes de régions représentant un état subdivisé en régions associé à une image complète ou à une image partielle dans une image complète (désignées ci-après par "images complètes et analogues"), des données d'image pour des régions codées au moyen d'un procédé prédéterminé, une information d'attribut de régions et une information de déplacement de régions; rétablit des images de régions; et reproduit des images
complètes et analogues.
Pour cette forme de réalisation, le procédé de
description pour une information de formes de régions
diffère de procédés classiques généraux en ce que des régions de forme non rectangulaire sont produites dans le
processus de codage. Le procédé de description utilisé dans
cette forme de réalisation est basé sur i) des coordonnées explicites de sommets de chaque région; ii) un processus explicite de codage lorsque des régions sont séparées ou intégrées, ou analogues. Dans le procédé ii) par exemple le nombre des régions séparées lors de la 1-ère étape de subdivision et
le nombre de régions intégrées dans la j-ème étape d'inté-
gration pour des i et j quelconques sont marquées. Comme dans l'appareil de codage, l'étape de subdivision d'ordre 0 est tout d'abord exécutée conformément à la figure 8 dans l'appareil de décodage, à la suite de quoi l'état subdivisé final peut être rétabli au moyen d'un suivi de la même procédure que dans l'appareil de codage. Dans le procédé selon ii), la quantité de données est en général faible par
rapport au procédé de notation directe et de coordonnées.
La figure 28 est un organigramme représentant un fonctionnement de cet appareil de décodage. Le flux binaire 11 est tout d'abord introduit par un analyseur de flux binaire 43, dans lequel le flux binaire est converti en des données codées (S61). Parmi les données codées, l'information sur la forme des régions est décodée dans le décodeur de formes de régions 44, et l'état subdivisé en régions est rétabli (S62) pour des images complètes et
analogues, en utilisant le procédé mentionné précédemment.
En rétablissant la région, la séquence codée de l'information de région codée en des flux binaires suivants
est identifiée. Les régions sont désignées par Sn.
Ensuite, les données de régions sont décodées en séquences à partir du flux binaire conformément à la séquence codée. Tout d'abord, l'information d'attribut pour la région Sn est décodée par le décodeur d'informations d'attribut 45, et l'information de mode de codage pour la région est décodé (S63). Si le mode actuel est un mode inter-image (mode de codage inter-image), c'est-à-dire un mode dans lequel le signal d'erreur de prédiction est codé (S64), le paramètre de déplacement 48 est décodé par le décodeur d'information de déplacement 47 (S65). le paramètre de déplacement 48 est envoyé à la section 49 de compensation de déplacement et, sur la base de ceci, la section 49 de compensation du déplacement calcule une adresse de mémoire correspondant à l'image de prédiction parmi des images de référence mémorisées dans une mémoire externe 52, et extrait l'image de prédiction 50 de la mémoire externe 52 (S66). Ensuite, les données d'image pour la région Sn sont décodées dans le décodeur de données d'image 46 (S67). Dans le cas du mode inter-image, les données d'image décodées et l'image de prédiction 50 sont ajoutées pour obtenir l'image finale reproduite pour la
région Sn.
D'autre part, dans le cas du mode intérieur d'une image complète (mode de codage à l'intérieur d'une image complète), les données d'image décodées deviennent
directement l'image finale reproduite 53 pour la région Sn.
L'image reproduite est utilisée étant donné que l'image de référence pour la production ultérieure de l'image de
prédiction est ainsi écrite dans la mémoire externe 52.
Cette évaluation et ce rétablissement de l'image reproduite
sont exécutés dans le décodeur d'images 51 (S68).
La série de processus se termine lorsque les processus ont été exécutés pour toutes les régions incluses dans des images complètes et analogues. Des processus similaires peuvent être également exécutés pour d'autres
images complètes suivantes et analogues.
Bien que l'on ait décrit ici ce que l'on considère actuellement comme étant des formes de réalisation préférées de l'invention, on comprendra que
différentes modifications peuvent y être apportées.

Claims (22)

REVEND I CATIONS
1. Procédé de codage d'images mobiles, caractérisé en ce qu'il comprend les étapes consistant à: subdiviser une image d'entrée en une pluralité de régions ($2) sur la base d'un critère prédéterminé d'éva- luation de subdivision; intégrer des régions avec des régions adjacentes (S3), pour l'ensemble des différentes régions séparées, sur
la base d'un critère prédéterminé d'évaluation d'inté-
gration; et coder des signaux d'image pour des régions qui
subsistent après l'intégration (S4,S5).
2. Procédé selon la revendication 1, caractérisé en ce que ledit critère d'évaluation de subdivision implique une comparaison entre l'exécution du codage avec une région donnée séparée et l'exécution du codage sans la
région séparée.
3. Procédé selon l'une des revendications i ou 2,
caractérisé en ce que ledit critère d'évaluation d'intégration implique une comparaison entre l'exécution d'un codage avec une région donnée composée avec des régions adjacentes et l'exécution du codage sans la région
composée avec les régions adjacentes.
4. Appareil de codage d'images mobiles, caractérisé en ce qu'il comporte: une section (2) de subdivision en régions, qui inclut une section de traitement de subdivision (12) pour subdiviser une image d'entrée en une pluralité de régions sur la base d'un critère prédéterminé d'évaluation de subdivision et une section de traitement d'intégration (14) pour intégrer chacune d'une pluralité de régions séparées par la section de traitement de subdivision, avec des régions adjacentes; et un codeur (7) pour coder des signaux d'image pour chacune des régions qui subsistent après l'intégration au
moyen de la section de traitement d'intégration (14).
5. Appareil selon la revendication 4, caractérisé en ce que ladite section de traitement d'intégration (14) comprend: un codeur provisoire (22) effectuant un codage provisoire pour coder de façon préliminaire une image pour chaque région et calculer la quantité de code de cette image; un décodeur (23) pour décoder l'image codée au moyen du code en effectuant un codage provisoire; une section (24) de calcul de distorsion de codage pour calculer la distorsion de codage en utilisant l'image décodée par le décodeur; et
une section (25) de calcul d'une valeur d'évalua-
tion pour calculer une valeur d'évaluation pour évaluer l'avantage du codage lorsqu'on prend en compte à la fois la quantité de code et la distorsion de codage; une détermination étant effectuée pour chaque région pour savoir s'il faut effectuer ou non l'intégration pour la région sur la base d'un résultat de comparaison de la valeur d'évaluation, qui est obtenue dans le cas o la région est intégrée avec des régions adjacentes, et la valeur d'évaluation qui est obtenue dans le cas o la
région n'est pas intégrée avec des régions adjacentes.
6. Appareil selon l'une des revendications 4 ou
, caractérisé en ce que ladite section de traitement de subdivision (12) comprend: une section de calcul d'activité (16) pour calculer une puissance d'erreur de prédiction accompagnant une prédiction, compensée du point de vue déplacement, de chaque région en tant qu'activité de la région; et une section d'évaluation de subdivision (18) pour comparer l'activité calculée à une valeur formant critère, qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur de critère, en des régions plus petites.
7. Appareil selon l'une des revendications 4 ou
, caractérisé en ce que ladite section de traitement de subdivision (12) comprend: une section de calcul d'activité (16) pour calculer une intensité de bord d'un signal original pour chaque région en tant qu'activité de la région; et une section d'évaluation de subdivision (18) pour calculer l'activité calculée à une valeur de critère qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur de critère en des régions plus petites.
8. Appareil selon l'une des revendications 4 ou
, caractérisé en ce que ladite section de traitement de subdivision (12) comprend: une section de calcul d'activité (16) pour calculer, pour chaque région, une somme linéaire d'une pluralité de valeurs numériques indiquant les caractéristiques de l'image de la région; et une section d'évaluation de subdivision (18) pour comparer l'activité calculée à une valeur de critère qui a été fixée par avance; et subdivise en outre des régions ayant une activité supérieure à la valeur de critère en des régions plus petites.
9. Appareil selon la revendication 8, caractérisé en ce que ladite pluralité de valeurs numériques comprend une puissance d'erreur de prédiction et un paramètre de déplacement de chaque région, qui accompagnent une
prédiction compensée du point de vue déplacement.
10. Appareil selon la revendication 8, caractérisé en ce que ladite pluralité de valeurs numériques comprend une quantité de code d'un paramètre de déplacement de chaque région, une puissance d'erreur de prédiction qui accompagne une compensation de déplacement, une valeur de dispersion d'un signal original, une intensité de bord et une amplitude du paramètre de déplacement de chaque région.
11. Appareil selon l'une quelconque des
revendications 6 à 10, caractérisé en ce que ladite section
de traitement de subdivision (12) comprend en outre une section d'identification de classes (29) et évalue s'il faut ou non subdiviser chaque région sur la base à la fois
de ladite activité et de ladite classe.
12. Appareil selon la revendication 11, caractérisé en ce que ladite section d'identification de classes (29) observe une structure d'objet recouvrant une
pluralité de régions et fixe des classes pour les régions.
13. Appareil selon la revendication 12, caractérisé en ce que ladite structure d'objet est évaluée sur la base d'une dispersion, dans le signal original, de la région, de l'intensité de bord et du degré de
raccordement du bord à des régions adjacentes.
14. Appareil selon la revendication 11, caractérisé en ce que ladite section d'identification de classes (29) observe des caractéristiques d'une image, effectue une détection d'objets et, sur la base des résultats de cette observation et de cette détection, fixe
des classes pour la région.
15. Appareil selon la revendication 14, caractérisé en ce que ladite section d'identification de classes (29) mémorise par avance, pour chaque objet prédit comme devant être inclus dans l'image, des caractéristiques de l'image incluant l'objet, et détermine la classe de chaque région sur la base du degré de coïncidence entre les caractéristiques de l'image de chaque région et les
caractéristiques mémorisees de l'objet.
16. Appareil selon l'une des revendications 4 ou
, caractérisé en ce que ladite section de traitement de subdivision (12) comprend: un codeur provisoire (22) effectuant un codage provisoire pour coder de façon préliminaire l'image pour chaque région et calculer la quantité de code de cette région; un décodeur (23) pour décoder l'image codée au moyen du codeur provisoire; une section (24) de calcul de distorsion de codage pour calculer la distorsion de codage en utilisant l'image décodée par le décodeur; et
une section (25) de calcul d'une valeur d'évalua-
tion pour calculer une valeur d'évaluation pour évaluer l'avantage du codage lorsqu'on prend en compte à la fois la quantité de code et la distorsion de codage; une détermination étant effectuée pour chaque région pour savoir s'il faut effectuer ou non l'intégration pour la région sur la base d'un résultat de comparaison de la valeur d'évaluation, qui est obtenue dans le cas o la région est subdivisée en supplément en régions plus petites, et la valeur d'évaluation qui est obtenue dans le cas o la région n'est pas subdivisée en supplément en
régions plus petites.
17. Appareil selon l'une des revendications 5 ou
16, caractérisé en ce qu'un paramètre de quantification d'un signal d'erreur de prédiction accompagnant une prédiction, compensée du point de vue déplacement, est réglé d'une manière variable dans ledit codeur (22) réalisant un codage provisoire, et ladite section (25) de calcul de la valeur d'évaluation calcule la valeur d'évaluation tout en modifiant le paramètre de quantification.
18. Appareil selon l'une des revendications 5 ou
16, caractérisé en ce qu'une section (40) de calcul de la valeur d'évaluation servant à obtenir, en tant que valeur d'évaluation, une somme linéaire de la puissance d'erreur de prédiction et de la quantité de code du paramètre de déplacement de chaque région accompagnant la prédiction, compensée du point de vue du déplacement, est disposée dans un étage en amont de celui dudit codeur (22) effectuant un codage provisoire, et ledit codeur effectuant un codage provisoire détecte le paramètre de déplacement sur la base
de la valeur d'évaluation.
19. Appareil pour produire et décoder des données codées d'une image qui a été codée après avoir été subdivisée en une pluralité de régions, caractérisé en ce qu'il comporte: une section (44) de régénération de la forme de la région, servant à régénérer, sur la base d'une information de la forme de région contenue dans les données codées, la forme de chaque région qui a été séparée pendant le codage; et un décodeur de données d'image (51) pour décoder l'image de chaque région à partir de données codées
correspondant à sa région.
20. Appareil selon la revendication 19, caractérisé en ce que ladite information concernant la forme de la région inclut une information se rapportant au traitement lorsque des régions sont séparées et intégrees pendant le codage et, sur la base de cette information, ladite section (44) de rétablissement de la forme de la région identifie l'état séparé de régions par reproduction
du même processus que celui de l'appareil de codage.
21. Procédé de codage d'images mobiles, caractérisé en ce qu'il comprend les étapes consistant à: intégrer des régions préalablement séparées, avec des régions adjacentes sur la base d'un critère prédéterminé d'évaluation d'intégration; et coder des signaux d'image pour des régions qui
subsistent après l'intégration.
22. Appareil de codage d'images mobiles, caractérisé en ce qu'il comporte: une section de traitement d'intégration pour intégrer chacune d'une pluralité de régions préalablement séparées, avec des régions adjacentes, et un codeur pour coder des signaux d'image pour chacune des régions qui subsistent après l'intégration par
la section de traitement d'intégration.
FR9800730A 1997-04-24 1998-01-23 Procede et appareil pour le codage et le decodage d'images mobiles, sur la base de regions Expired - Lifetime FR2762699B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10707297 1997-04-24
JP26142097 1997-09-26

Publications (2)

Publication Number Publication Date
FR2762699A1 true FR2762699A1 (fr) 1998-10-30
FR2762699B1 FR2762699B1 (fr) 2001-06-29

Family

ID=26447144

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9800730A Expired - Lifetime FR2762699B1 (fr) 1997-04-24 1998-01-23 Procede et appareil pour le codage et le decodage d'images mobiles, sur la base de regions

Country Status (5)

Country Link
US (5) US6633611B2 (fr)
JP (8) JP3835919B2 (fr)
DE (1) DE19803781C2 (fr)
FR (1) FR2762699B1 (fr)
SG (1) SG65041A1 (fr)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998042134A1 (fr) * 1997-03-17 1998-09-24 Mitsubishi Denki Kabushiki Kaisha Codeur et decodeur d'image, methode de codage et de decodage d'image, et systeme de codage/decodage d'image
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
US6529634B1 (en) * 1999-11-08 2003-03-04 Qualcomm, Inc. Contrast sensitive variance based adaptive block size DCT image compression
KR100359115B1 (ko) * 2000-05-24 2002-11-04 삼성전자 주식회사 영상 코딩 방법
JP4665372B2 (ja) 2000-05-29 2011-04-06 ソニー株式会社 画像処理装置及び方法、通信システム及び方法、並びに記録媒体
US7085424B2 (en) 2000-06-06 2006-08-01 Kobushiki Kaisha Office Noa Method and system for compressing motion image information
TW515192B (en) 2000-06-06 2002-12-21 Noa Kk Off Compression method of motion picture image data and system there for
US8798166B2 (en) * 2001-08-17 2014-08-05 Broadcom Corporation Video encoding scheme supporting the transport of audio and auxiliary information
CN1299510C (zh) * 2001-01-30 2007-02-07 株式会社欧菲士诺亚 压缩运动图像信息的方法和系统
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
JP4752158B2 (ja) * 2001-08-28 2011-08-17 株式会社豊田中央研究所 環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置
EP1453322A1 (fr) * 2001-11-01 2004-09-01 Kabushiki Kaisha Office Noa Procede de compression d'information d'images mobiles et systeme associe
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
DE10163084A1 (de) * 2001-12-20 2003-07-17 Infineon Technologies Ag Elektronisches Bauteil und Verfahren zu seiner Herstellung
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7944971B1 (en) * 2002-07-14 2011-05-17 Apple Inc. Encoding video
US20040022322A1 (en) * 2002-07-19 2004-02-05 Meetrix Corporation Assigning prioritization during encode of independently compressed objects
US8949922B2 (en) * 2002-12-10 2015-02-03 Ol2, Inc. System for collaborative conferencing using streaming interactive video
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
FR2872975A1 (fr) * 2004-07-06 2006-01-13 Thomson Licensing Sa Procede et dispositif pour choisir un mode de codage
EP1790167B1 (fr) * 2004-09-16 2010-01-06 Thomson Licensing Procede et appareil de selection rapide de mode entre trames
JP4804107B2 (ja) * 2004-12-14 2011-11-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びそのプログラム
JP4556694B2 (ja) * 2005-02-07 2010-10-06 ソニー株式会社 符号化装置および方法、記録媒体、プログラム、並びに画像処理システム
US8422546B2 (en) 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
US7885335B2 (en) * 2005-09-16 2011-02-08 Sont Corporation Variable shape motion estimation in video sequence
CN101273641B (zh) 2005-09-26 2013-03-06 三菱电机株式会社 运动图像编码装置以及运动图像译码装置
US8149918B2 (en) * 2005-11-10 2012-04-03 Electronics And Telecommunications Research Institute Method of estimating coded block pattern and method of determining block mode using the same for moving picture encoder
US7646922B2 (en) * 2005-12-30 2010-01-12 Honeywell International Inc. Object classification in video images
US8059721B2 (en) 2006-04-07 2011-11-15 Microsoft Corporation Estimating sample-domain distortion in the transform domain with rounding compensation
US20070237237A1 (en) * 2006-04-07 2007-10-11 Microsoft Corporation Gradient slope detection for video compression
US7974340B2 (en) 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8130828B2 (en) * 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US8711925B2 (en) * 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation
EP2055108B1 (fr) 2006-08-25 2011-04-20 Thomson Licensing Procédés et appareil destinés à effectuer un partitionnement à résolution réduite
US9418450B2 (en) 2006-08-31 2016-08-16 Ati Technologies Ulc Texture compression techniques
KR101242013B1 (ko) * 2006-10-10 2013-03-12 니폰덴신뎅와 가부시키가이샤 인트라 예측 부호화 제어 방법 및 장치, 그 프로그램 및 프로그램을 기록한 기억 매체
JP2008141616A (ja) * 2006-12-04 2008-06-19 Fujifilm Corp 動きベクトル算出装置、方法およびプログラム、動画像圧縮記録装置ならびに撮像装置
JP4885698B2 (ja) * 2006-12-20 2012-02-29 富士フイルム株式会社 動きベクトル算出装置、方法およびプログラム、動画像圧縮記録装置ならびに撮像装置
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
WO2008107943A1 (fr) * 2007-03-01 2008-09-12 Nippon Telegraph And Telephone Corporation Procédé et dispositif de codage échelonnable, procédé et dispositif de décodage échelonnable, programme de ceux-ci et support d'enregistrement
WO2008112072A2 (fr) * 2007-03-09 2008-09-18 Dolby Laboratories Licensing Corporation Extrapolation de mouvements multi-vues à partir de sources vidéo comprimées
EP3107292B1 (fr) 2007-03-20 2018-08-15 Fujitsu Limited Procédé et appareil de codage vidéo et appareil de décodage vidéo
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US20080240257A1 (en) * 2007-03-26 2008-10-02 Microsoft Corporation Using quantization bias that accounts for relations between transform bins and quantization bins
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8331438B2 (en) * 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
TWI336588B (en) * 2007-06-14 2011-01-21 Novatek Microelectronics Corp A focusing method, suitable for an image capturing apparatus using in an environment of low brightness and image capturing apparatus using the same
EP2213098A2 (fr) * 2007-10-16 2010-08-04 Thomson Licensing Procédés et dispositif pour l'encodage et le décodage vidéo de super-blocs partitionnés géométriquement
US20090154567A1 (en) * 2007-12-13 2009-06-18 Shaw-Min Lei In-loop fidelity enhancement for video compression
JP2009147807A (ja) * 2007-12-17 2009-07-02 Fujifilm Corp 画像処理装置
JP5188356B2 (ja) * 2008-02-28 2013-04-24 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 復号器において画像を逆トーンマッピングする方法
MX2010009194A (es) * 2008-03-07 2010-09-10 Toshiba Kk Metodo y dispositivo de codificacion/decodificacion dinamica de imagen.
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8948822B2 (en) * 2008-04-23 2015-02-03 Qualcomm Incorporated Coordinating power management functions in a multi-media device
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
US8908763B2 (en) * 2008-06-25 2014-12-09 Qualcomm Incorporated Fragmented reference in temporal compression for video coding
WO2010017166A2 (fr) 2008-08-04 2010-02-11 Dolby Laboratories Licensing Corporation Architecture d'estimation et de compensation de disparité de blocs chevauchants
US8964828B2 (en) * 2008-08-19 2015-02-24 Qualcomm Incorporated Power and computational load management techniques in video processing
US8948270B2 (en) 2008-08-19 2015-02-03 Qualcomm Incorporated Power and computational load management techniques in video processing
US8483285B2 (en) 2008-10-03 2013-07-09 Qualcomm Incorporated Video coding using transforms bigger than 4×4 and 8×8
US8619856B2 (en) * 2008-10-03 2013-12-31 Qualcomm Incorporated Video coding with large macroblocks
US8503527B2 (en) 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
US8634456B2 (en) 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
EP2222086A1 (fr) 2009-02-18 2010-08-25 EcoDisc Technology AG Procédé et dispositif destiné à empêcher des erreurs d'arrondi après l'exécution d'une transformation inverse discrète orthogonale
JP5133290B2 (ja) * 2009-03-31 2013-01-30 株式会社Kddi研究所 動画像符号化装置および復号装置
BRPI1015982A2 (pt) * 2009-06-19 2016-04-19 Mitsubishi Eletric Corp dispositivos e métodos de codificação de imagem e de decodificação de imagem.
FR2947134A1 (fr) * 2009-06-23 2010-12-24 France Telecom Procedes de codage et de decodages d'images, dispositifs de codage et de decodage, flux de donnees et programme d'ordinateur correspondants.
KR101456498B1 (ko) * 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20110017719A (ko) * 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
JP2011082801A (ja) * 2009-10-07 2011-04-21 Fujitsu Ltd 画像処理装置および画像処理方法
CN102577393B (zh) * 2009-10-20 2015-03-25 夏普株式会社 运动图像编码装置、运动图像解码装置、运动图像编码/解码系统、运动图像编码方法及运动图像解码方法
KR101452713B1 (ko) * 2009-10-30 2014-10-21 삼성전자주식회사 픽처 경계의 부호화 단위를 부호화, 복호화 하는 방법 및 장치
KR101484280B1 (ko) * 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
US9369736B2 (en) 2010-04-05 2016-06-14 Samsung Electronics Co., Ltd. Low complexity entropy-encoding/decoding method and apparatus
WO2011126283A2 (fr) 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Procédé et appareil destinés à coder une vidéo sur la base d'un incrément de profondeur de bit interne et procédé et appareil destinés à décoder une vidéo de décodage sur la base d'un incrément de profondeur de bit interne
US8982961B2 (en) 2010-04-05 2015-03-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using transformation index, and method and apparatus for decoding video by using transformation index
KR20110112168A (ko) * 2010-04-05 2011-10-12 삼성전자주식회사 내부 비트뎁스 확장에 기반한 비디오 부호화 방법 및 그 장치, 내부 비트뎁스 확장에 기반한 비디오 복호화 방법 및 그 장치
EP2670141A4 (fr) * 2010-12-27 2016-03-30 Nec Corp Dispositif de codage vidéo, dispositif de décodage vidéo, procédé de codage vidéo, procédé de décodage vidéo et programme
JP5622613B2 (ja) * 2011-02-25 2014-11-12 三菱電機株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US8494290B2 (en) * 2011-05-05 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Method for coding pictures using hierarchical transform units
JP5727873B2 (ja) * 2011-06-10 2015-06-03 日本放送協会 動きベクトル検出装置、符号化装置、及びこれらのプログラム
WO2013014693A1 (fr) * 2011-07-22 2013-01-31 株式会社日立製作所 Procédé de décodage vidéo et procédé de codage d'image
US9693064B2 (en) * 2011-09-30 2017-06-27 Avago Technologies General Ip (Singapore) Pte. Ltd Video coding infrastructure using adaptive prediction complexity reduction
KR101625910B1 (ko) * 2011-10-19 2016-05-31 한국전자통신연구원 영상 분할을 이용한 영상 처리 방법 및 장치
JP5832263B2 (ja) * 2011-12-07 2015-12-16 株式会社日立国際電気 画像符号化装置及び画像符号化方法
US9014265B1 (en) * 2011-12-29 2015-04-21 Google Inc. Video coding using edge detection and block partitioning for intra prediction
JP5779116B2 (ja) * 2012-02-07 2015-09-16 日本電信電話株式会社 画像符号化方法、画像符号化装置及び画像符号化プログラム
KR20130108948A (ko) * 2012-03-26 2013-10-07 한국전자통신연구원 적응적 전처리 기법을 이용한 영상 인코딩 방법
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US8675731B2 (en) * 2012-08-13 2014-03-18 Gurulogic Microsystems Oy Encoder and method
EP2899974A4 (fr) * 2012-09-18 2016-03-09 Nec Corp Dispositif de codage vidéo, procédé de codage vidéo et programme de codage vidéo
TW201419864A (zh) * 2012-11-13 2014-05-16 Hon Hai Prec Ind Co Ltd 影像切割系統及方法
US9210424B1 (en) 2013-02-28 2015-12-08 Google Inc. Adaptive prediction block size in video coding
CN104871544B (zh) * 2013-03-25 2018-11-02 麦克赛尔株式会社 编码方法以及编码装置
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
JP5719410B2 (ja) * 2013-07-25 2015-05-20 日本電信電話株式会社 画像符号化方法、画像符号化装置及び画像符号化プログラム
JP6221704B2 (ja) * 2013-12-05 2017-11-01 Nttエレクトロニクス株式会社 符号化装置及びブロックサイズ選択方法
JP6145084B2 (ja) * 2014-12-11 2017-06-07 日本電信電話株式会社 サイズ判定方法、サイズ判定装置及びコンピュータプログラム
JP5957513B2 (ja) * 2014-12-16 2016-07-27 株式会社日立製作所 動画像復号化方法
FR3030976B1 (fr) * 2014-12-22 2018-02-02 B<>Com Procede de codage d'une image numerique, procede de decodage, dispositifs et programmes d'ordinateurs associes
US9807416B2 (en) 2015-09-21 2017-10-31 Google Inc. Low-latency two-pass video coding
US10560702B2 (en) 2016-01-22 2020-02-11 Intel Corporation Transform unit size determination for video coding
CN116347077A (zh) 2016-11-21 2023-06-27 松下电器(美国)知识产权公司 计算机可读介质
EP3544299A1 (fr) * 2016-11-21 2019-09-25 Panasonic Intellectual Property Corporation of America Dispositif de codage, dispositif de décodage, procédé de codage, et procédé de décodage
KR20190062585A (ko) 2016-11-21 2019-06-05 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
US10453221B2 (en) * 2017-04-10 2019-10-22 Intel Corporation Region based processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2628864A1 (fr) * 1988-03-21 1989-09-22 France Etat Procede de segmentation d'un champ de vecteurs vitesse, notamment de vitesses de deplacement de points d'une image dans une sequence d'images
US5021879A (en) * 1987-05-06 1991-06-04 U.S. Philips Corporation System for transmitting video pictures
EP0619552A1 (fr) * 1993-04-07 1994-10-12 Laboratoires D'electronique Philips S.A.S. Procédé et dispositif d'estimation de mouvement d'objets dans des images successives animées subdivisées en blocs bidimensionnels d'éléments d'image
US5596659A (en) * 1992-09-01 1997-01-21 Apple Computer, Inc. Preprocessing and postprocessing for vector quantization
JPH0944639A (ja) * 1995-08-02 1997-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像ブロック分類方法及び装置

Family Cites Families (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1333502C (fr) 1987-08-28 1994-12-13 Michael Douglas Carr Codage de signaux
GB2223139B (en) * 1988-08-31 1993-03-03 Canon Kk Automatic focusing apparatus
JPH07105949B2 (ja) * 1989-03-20 1995-11-13 松下電器産業株式会社 画像の動きベクトル検出装置および揺れ補正装置
JPH082107B2 (ja) * 1990-03-02 1996-01-10 国際電信電話株式会社 動画像のハイブリッド符号化方法及びその装置
FR2664117B1 (fr) * 1990-06-29 1996-06-21 Thomson Csf Procede de codage a parametres ajustables d'un champ de mouvement dans une sequence d'images animees.
US5088397A (en) * 1991-01-11 1992-02-18 The Dupps Co. Cast formed bi-metallic worm assembly
JP3068304B2 (ja) * 1992-01-21 2000-07-24 日本電気株式会社 動画像符号化方式および復号化方式
JP3239488B2 (ja) 1992-11-30 2001-12-17 三菱電機株式会社 画像帯域分割符号化装置および画像帯域分割符号化方法
US5436666A (en) * 1993-05-21 1995-07-25 Intel Corporation Limited-domain motion estimation/compensation for video encoding/decoding
JPH0738896A (ja) * 1993-06-28 1995-02-07 Nippon Telegr & Teleph Corp <Ntt> 動画像領域分割符号化装置
JPH0787448A (ja) * 1993-06-30 1995-03-31 Victor Co Of Japan Ltd デジタル映像信号の符号化回路及び復号化回路
GB9315775D0 (en) * 1993-07-30 1993-09-15 British Telecomm Processing image data
JP2576771B2 (ja) 1993-09-28 1997-01-29 日本電気株式会社 動き補償予測装置
US5446806A (en) 1993-11-15 1995-08-29 National Semiconductor Corporation Quadtree-structured Walsh transform video/image coding
US5453787A (en) * 1993-12-10 1995-09-26 International Business Machines Corporation Variable spatial frequency chrominance encoding in software motion video compression
JPH07212760A (ja) * 1994-01-14 1995-08-11 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
JP3305480B2 (ja) * 1994-02-28 2002-07-22 京セラ株式会社 画像符号化・復号化装置
JPH07264594A (ja) * 1994-03-23 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動画像の動き補償予測符号化方法
WO1995033341A1 (fr) * 1994-05-30 1995-12-07 Ntt Mobile Communications Network Inc. Codeur-decodeur d'images animees
JPH07322251A (ja) * 1994-05-30 1995-12-08 Fuji Electric Co Ltd 画像処理装置およびそのデータ圧縮方法
US5594504A (en) * 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
JPH0846968A (ja) 1994-08-03 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> 階層的動ベクトル検出方法および装置
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
JPH08116540A (ja) * 1994-10-14 1996-05-07 Sanyo Electric Co Ltd 領域分割を用いた画像符号化装置及び画像復号化装置
KR0159575B1 (ko) * 1994-10-31 1999-01-15 배순훈 영역 분할 부호화 방식의 인접 영역간 불연속 처리 장치
US5886743A (en) * 1994-12-28 1999-03-23 Hyundai Electronics Industries Co. Ltd. Object-by information coding apparatus and method thereof for MPEG-4 picture instrument
US5799109A (en) * 1994-12-29 1998-08-25 Hyundai Electronics Industries Co., Ltd. Object-by shape information compression apparatus and method and coding method between motion picture compensation frames
JP3169783B2 (ja) * 1995-02-15 2001-05-28 日本電気株式会社 動画像の符号化・復号システム
JP3086396B2 (ja) * 1995-03-10 2000-09-11 シャープ株式会社 画像符号化装置及び画像復号装置
EP0731614B1 (fr) * 1995-03-10 2002-02-06 Kabushiki Kaisha Toshiba Codeur et décodeur vidéo
EP1802137A3 (fr) * 1995-03-15 2008-12-31 Kabushiki Kaisha Toshiba Systèmes de codage et/ou de décodage d'images mobiles
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5638130A (en) * 1995-05-25 1997-06-10 International Business Machines Corporation Display system with switchable aspect ratio
US6058211A (en) 1995-07-07 2000-05-02 Imec Vzw Data compression method and apparatus
MY121607A (en) * 1995-07-10 2006-02-28 Hyundai Curitel Inc Grid moving method of object image and apparatus using the same and compaction/motion estimation method using the same and apparatus thereof
US6023301A (en) 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
EP1274252A3 (fr) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Dispositif de codage vidéo et dispositif de décodage vidéo à prédiction intertrame avec compensation du mouvement
CN1097956C (zh) * 1995-09-06 2003-01-01 皇家菲利浦电子有限公司 分段图象序列编码的方法和系统以及解码的方法和系统
JPH0993612A (ja) * 1995-09-22 1997-04-04 Sanyo Electric Co Ltd 輪郭情報を用いた画像符号化方法
US5883678A (en) * 1995-09-29 1999-03-16 Kabushiki Kaisha Toshiba Video coding and video decoding apparatus for reducing an alpha-map signal at a controlled reduction ratio
JPH09102953A (ja) * 1995-10-04 1997-04-15 Matsushita Electric Ind Co Ltd デジタル画像符号化方法、装置及び復号化装置
US5757967A (en) * 1995-10-19 1998-05-26 Ibm Corporation Digital video decoder and deinterlacer, format/frame rate converter with common memory
JP3249729B2 (ja) * 1995-10-24 2002-01-21 シャープ株式会社 画像符号化装置及び画像復号装置
US6084908A (en) * 1995-10-25 2000-07-04 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
EP0799550B1 (fr) * 1995-10-25 2000-08-09 Koninklijke Philips Electronics N.V. Procede et systeme de codage d'images segmentees, et procede et systeme de decodage correspondants
US5764808A (en) * 1995-10-26 1998-06-09 Motorola, Inc. Method and device for compact representation of a discrete region contour
US5896176A (en) * 1995-10-27 1999-04-20 Texas Instruments Incorporated Content-based video compression
US6272253B1 (en) * 1995-10-27 2001-08-07 Texas Instruments Incorporated Content-based video compression
JP2798035B2 (ja) * 1996-01-17 1998-09-17 日本電気株式会社 適応動きベクトル補間による動き補償フレーム間予測方法
US5995868A (en) * 1996-01-23 1999-11-30 University Of Kansas System for the prediction, rapid detection, warning, prevention, or control of changes in activity states in the brain of a subject
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US5870502A (en) * 1996-04-08 1999-02-09 The Trustees Of Columbia University In The City Of New York System and method for a multiresolution transform of digital image information
US6005981A (en) * 1996-04-11 1999-12-21 National Semiconductor Corporation Quadtree-structured coding of color images and intra-coded images
DE69623342T2 (de) * 1996-04-19 2003-04-17 Nokia Corp Videokodierer und -dekodierer mit bewegungsbasierter bildsegmentierung und bildzusammenfügung
KR100209411B1 (ko) 1996-05-10 1999-07-15 전주범 윤곽선 정보를 이용한 영상신호 처리 방법
JPH108621A (ja) 1996-06-24 1998-01-13 Misawa Homes Co Ltd フラット屋根構造
JPH1098729A (ja) * 1996-09-20 1998-04-14 Hitachi Ltd フレーム間予測画像の合成方法
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US5974187A (en) * 1996-10-21 1999-10-26 Samsung Electronics Co., Ltd. Baseline-based contour coding and decoding method and apparatus therefor
US5978051A (en) * 1996-10-31 1999-11-02 In Focus Systems Inc Image projection system with variable display format
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
JP2001507541A (ja) * 1996-12-30 2001-06-05 シャープ株式会社 スプライトベースによるビデオ符号化システム
US5978510A (en) * 1997-03-20 1999-11-02 Hyundai Electronics Industries Co., Ltd. Method and apparatus for predictively coding contour of video signal
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
JP2000512827A (ja) * 1997-04-25 2000-09-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 像間動き評価方法
JP3570863B2 (ja) * 1997-08-05 2004-09-29 三菱電機株式会社 動画像復号化装置および動画像復号化方法
US6205280B1 (en) * 1998-08-25 2001-03-20 Molecular Optoelectronics Corporation Blockless fiber optic attenuators and attenuation systems employing dispersion controlled polymers
US6567469B1 (en) * 2000-03-23 2003-05-20 Koninklijke Philips Electronics N.V. Motion estimation algorithm suitable for H.261 videoconferencing applications
US8160150B2 (en) * 2007-04-10 2012-04-17 Texas Instruments Incorporated Method and system for rate distortion optimization
US8190150B1 (en) * 2010-12-14 2012-05-29 Symbol Technologies, Inc. Synchronization of mobile device information in a wireless communication network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5021879A (en) * 1987-05-06 1991-06-04 U.S. Philips Corporation System for transmitting video pictures
FR2628864A1 (fr) * 1988-03-21 1989-09-22 France Etat Procede de segmentation d'un champ de vecteurs vitesse, notamment de vitesses de deplacement de points d'une image dans une sequence d'images
US5596659A (en) * 1992-09-01 1997-01-21 Apple Computer, Inc. Preprocessing and postprocessing for vector quantization
EP0619552A1 (fr) * 1993-04-07 1994-10-12 Laboratoires D'electronique Philips S.A.S. Procédé et dispositif d'estimation de mouvement d'objets dans des images successives animées subdivisées en blocs bidimensionnels d'éléments d'image
US5555033A (en) * 1993-04-07 1996-09-10 U.S. Philips Corporation Method and device for estimating motion of objects in successive animated images subdivided into tow-dimensional blocks of pixels
JPH0944639A (ja) * 1995-08-02 1997-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像ブロック分類方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 1997, no. 06 30 June 1997 (1997-06-30) *

Also Published As

Publication number Publication date
US20070009046A1 (en) 2007-01-11
JP4514818B2 (ja) 2010-07-28
JP2006314126A (ja) 2006-11-16
JP4514734B2 (ja) 2010-07-28
JP2008312245A (ja) 2008-12-25
SG65041A1 (en) 1999-05-25
DE19803781A1 (de) 1998-11-05
JP4514819B2 (ja) 2010-07-28
US6633611B2 (en) 2003-10-14
DE19803781C2 (de) 2002-04-04
JP3835919B2 (ja) 2006-10-18
JP2012085344A (ja) 2012-04-26
JP2012085345A (ja) 2012-04-26
US20070263718A1 (en) 2007-11-15
US20030108100A1 (en) 2003-06-12
JP2009247019A (ja) 2009-10-22
FR2762699B1 (fr) 2001-06-29
US20030035477A1 (en) 2003-02-20
US20070263727A1 (en) 2007-11-15
JP5138086B2 (ja) 2013-02-06
JP2008263660A (ja) 2008-10-30
JP2011010371A (ja) 2011-01-13
JPH11164305A (ja) 1999-06-18

Similar Documents

Publication Publication Date Title
FR2762699A1 (fr) Procede et appareil pour le codage et le decodage d&#39;images mobiles, sur la base de regions
US7949053B2 (en) Method and assembly for video encoding, the video encoding including texture analysis and texture synthesis, and corresponding computer program and corresponding computer-readable storage medium
CN113196761A (zh) 用于评估视频的主观质量的方法及装置
CN113658051A (zh) 一种基于循环生成对抗网络的图像去雾方法及系统
CN110944200B (zh) 一种评估沉浸式视频转码方案的方法
FR2724083A1 (fr) Procede d&#39;estimation du mouvement bidirectionnel et dispositif correspondant
FR2773295A1 (fr) Appareil de compensation de deplacement et appareil et procede de codage d&#39;images animees
Liu et al. Block-based adaptive compressed sensing for video
KR20000064847A (ko) 이미지 분할 및 대상 트랙킹 방법, 및 대응 시스템
FR2932045A1 (fr) Procede et systeme permettant de proteger des la compression la confidentialite des donnees d&#39;un flux video lors de sa transmission
EP3490255B1 (fr) Compression intelligente de contenus vidéo grainés
EP3479572A1 (fr) Procédé de codage intra d&#39;une image numérique et procédé de décodage correspondant
Jongebloed et al. Quantized and regularized optimization for coding images using steered mixtures-of-experts
FR2940492A1 (fr) Procede d&#39;estimation de mouvement multi-resolutions
Yoon et al. An Efficient Multi-Scale Feature Compression With QP-Adaptive Feature Channel Truncation for Video Coding for Machines
KR101834470B1 (ko) 영상의 자기-유사성 텍스쳐드 영역을 재구성하기 위한 방법 및 디바이스
FR3102026A1 (fr) Compression d&#39;images vidéo segmentée sémantiquement
FR3020736A1 (fr) Procede d&#39;evaluation de qualite d&#39;une sequence d&#39;images numeriques codees decodees, procede de codage, dispositifs et programmes d&#39;ordinateurs associes
FR2889381A1 (fr) Procede et dispositif de determination de parametres de quantification dans une image
FR2916931A1 (fr) Procede de selection d&#39;une donnee de codage et dispositif de codage implementant ledit procede
EP0524871B1 (fr) Un procédé de codage de signaux hybride adaptatif
FR2899744A1 (fr) Procede et dispositif de codage et de decodage d&#39;une image, notamment d&#39;une sequence d&#39;images video, signal correspondant et produit programme d&#39;ordinateur
Jiang et al. No-reference video quality assessment for MPEG-2 video streams using BP neural networks
JP2003502923A (ja) Mpeg型標準に基づく最適ビデオデコーダ
FR2633477A1 (fr) Procede de regulation de debit de donnees d&#39;assistance a la reconstruction d&#39;images electroniques animees sous-echantillonnees

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 19

PLFP Fee payment

Year of fee payment: 20