FR2980876A1 - Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants - Google Patents

Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants Download PDF

Info

Publication number
FR2980876A1
FR2980876A1 FR1158920A FR1158920A FR2980876A1 FR 2980876 A1 FR2980876 A1 FR 2980876A1 FR 1158920 A FR1158920 A FR 1158920A FR 1158920 A FR1158920 A FR 1158920A FR 2980876 A1 FR2980876 A1 FR 2980876A1
Authority
FR
France
Prior art keywords
message
clusters
sub
cluster
lanterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1158920A
Other languages
English (en)
Inventor
Vincent Gripon
Xiaoran Jiang
Claude Berrou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMT Atlantique Bretagne
Original Assignee
IMT Atlantique Bretagne
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMT Atlantique Bretagne filed Critical IMT Atlantique Bretagne
Priority to FR1158920A priority Critical patent/FR2980876A1/fr
Priority to FR1159874A priority patent/FR2980877B1/fr
Priority to PCT/EP2012/068959 priority patent/WO2013050282A1/fr
Publication of FR2980876A1 publication Critical patent/FR2980876A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

Dispositif d'apprentissage de messages séquentiels, mettant en oeuvre un réseau de neurones, caractérisé en ce qu'il comprend un ensemble de neurones, dits fanaux, lesdits fanaux sont des neurones binaires, pouvant prendre uniquement deux états, un état allumé et un état éteint, lesdits fanaux étant distribués en c grappes comprenant chacune un nombre prédéterminé de fanaux, chaque grappe de fanaux étant affectée au traitement d'un sous-message, lesdites grappes étant ordonnées, de façon qu'il soit possible d'identifier, pour une grappe donnée, une série de grappes précédentes selon un ordre prédéfini, chaque fanal étant associé à une occurrence spécifique dudit sous-message, et des moyens d'apprentissage dudit réseau de neurones, comprenant : - des moyens de découpage d'un message à apprendre en L sous-messages à apprendre ; - des moyens d'activation d'un unique fanal dans l'état allumé dans une grappe courante, pour un desdits sous-messages à apprendre, tous les autres fanaux de ladite grappe courante étant dans l'état éteint ; des moyens de création de connexions entre fanaux, activant, pour ledit sous-message à apprendre, des connexions entre le fanal allumé de ladite grappe courante et le fanal allumé de chacune des grappes de la série de grappes précédant ladite grappe courante, lesdites connexions étant des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté, et unidirectionnelles, de l'une desdites grappes précédentes vers ladite grappe courante.

Description

Dispositifs d'apprentissage et/ou de décodage de messages séquentiels, mettant en oeuvre un réseau de neurones, procédés d'apprentissage et de décodage et programmes d'ordinateur correspondants. 1. domaine de l'invention Le domaine de l'invention est celui des réseaux de neurones. Plus précisément, l'invention concerne la mise en oeuvre de réseaux de neurones, et en particulier l'apprentissage de tels réseaux et le décodage à l'aide de tels réseaux, notamment pour la reconnaissance de messages ou la discrimination entre messages appris et messages non appris. 2. art antérieur 2.1 intelligence artificielle Depuis un demi-siècle, précisément depuis la fameuse conférence de Dartmouth en 1956 organisée à l'initiative de John McCarthy, l'intelligence artificielle et ses applications potentielles suscitent l'intérêt de nombreux scientifiques. Cependant, à part quelques succès modestes de réalisation matérielle (réseaux de neurones formels, réseaux de Hopfield, perceptrons, logique floue, automates évolués), l'ambition de l'intelligence artificielle s'est essentiellement reportée sur la conception de systèmes dits experts, c'est-à-dire de logiciels capables de reproduire des décisions qu'un expert humain pourrait prendre sur un problème limité, avec un jeu de critères restreint et dans un contexte bien circonscrit. Et l'expression "intelligence artificielle" s'est démodée au profit de celle de "sciences cognitives", dont l'outil principal reste le classique ordinateur, dont l'architecture et le fonctionnement sont, comme chacun le sait, très éloignés de ceux du cerveau. Malgré tous les efforts accomplis ces vingt dernières années dans l'exploration du réseau neural biologique, grâce à des procédés de plus en plus sophistiqués (électro-encéphalographie, imagerie par résonance magnétique, ...), le cerveau reste, du point de vue du traitement de l'information, terra incognita. 2.2 réseau de Hopfield Le codage dans les réseaux de neurones peut notamment être abordé par le biais des mémoires associatives de Hopfield (voir par exemple : John J. Hopfield (2007) Hopfield network. Scholarpedia, 2(5):1977), lesquelles sont très simples à construire et constituent une référence du domaine. Un réseau de Hopfield, dont un exemple est donné en figure 1 (cas d'un réseau de Hopfield classique à n = 8 neurones), est porté par un graphe non 10 orienté complet à n sommets (neurones) et sans boucles. Le graphe comporte donc n(n -1) = 28 liaisons et la liaison bidirectionnelle entre les sommets i et j est 2 caractérisée par un poids (synaptique) wjj. Ce poids résulte de l'apprentissage de M messages de n valeurs binaires antipodales (± 1), chaque valeur dim (i = 1...n) du mleme message (m = 1...M) correspondant à une même valeur du eme neurone. wjj 15 est donné par : wjj = 1 m=1 (1) et peut prendre P = M+ 1 valeurs. La remémoration d'un message particulier, à partir d'une partie de son contenu, s'effectue à travers le processus itératif décrit par les relations suivantes, 20 où vf est la valeur de sortie du sème neurone après la plème itération : viP = +1 si w v u J p1 j=1 (2) vjp = -1 si w v-1 < 0 J j=1 2.3 inconvénients des réseaux de Hopfield 25 Une borne supérieure de la diversité d'apprentissage et de remémoration sans erreurs d'une telle machine est : /Vmax - log(n) (logarithme naturel) où Mina,, est le nombre de motifs indépendants de n bits que le réseau de neurones peut apprendre, comme expliqué par R. J. McEliece, E. C. Posner, E. R.
Rodemich, and S. S. Venkatesh, dans "The capacity of the Hopfield associative memory," IEEE Trans. Inform. Theory, vol. IT-33, pp. 461-482, 1987. Cette borne Mina,, est relativement faible, et limite l'intérêt des réseaux de Hopfield et leurs applications. Par exemple, avec 1900 neurones, et donc 1,8.106 connexions binaires, un réseau de Hopfield est capable d'acquérir et de se 10 remémorer uniquement environ 250 messages de 1900 bits. 2.4. réseaux de neurones à grande diversité d'apprentissage Claude Berrou et Vincent Gripon ont proposé une nouvelle approche des réseaux de neurones, reposant notamment sur les notions de grappes neurales et de codage parcimonieux, décrite notamment dans le document de brevet 15 PCT/EP2011/064605 (non encore publié - incorporé par référence). Ils ont notamment montré que des réseaux de neurones entièrement binaires sont capables d'apprendre un grand nombre de messages, à condition que ces messages soient de petite longueur, comparativement à la taille du réseau. Les principes d'apprentissage et de remémoration de ces réseaux, dits "classiques" dans la suite, 20 sont rappelés ci-après. Le réseau de neurones est découpé en c grappes (appelées également blocs dans le document de brevet PCT/EP2011/064605) de tailles arbitraires. Pour plus de simplicité, on considère dans les équations introduites dans la suite que toutes les grappes ont la même taille : 1, de sorte que le réseau contienne un total de n = 25 cl neurones. Le réseau étant binaire, toute valeur de connexion w(i.'),(, v) reliant le neurone j de la grappe i au neurone j' de la grappe est soit 1 si la connexion existe, soit 0 dans le cas contraire. Les messages que le réseau peut apprendre sont segmentés en c sous-messages (ou symboles dans le cas plus général de messages non binaires), un 30 pour chaque grappe, chacun ayant 1 valeurs possibles. Dans le cas de messages n (3) binaires, le nombre de bits d'information que porte chaque sous-message est log2(l). Après l'apprentissage de M messages dm, la valeur des connexions est : 1 si i i' et 1m, d 'in = j et d 7:1 = j' (1) w(i,i)( ,p) = sinon En d'autres termes, le réseau associe à chaque message un neurone, et un seul, par grappe. Ces neurones sont appelés "fanaux" de manière imagée car un seul d'entre eux, dans des conditions normales, peut être allumé (activé) dans sa grappe. Les fanaux d'un message sont tous reliés les uns aux autres. Ce processus correspond donc à la création de cliques dans un graphe, dont chaque sommet appartient à une grappe différente. Afin de quantifier les performances d'un tel réseau, il est essentiel d'introduire sa densité, c'est-à-dire le nombre de ses connexions rapporté au nombre maximum de connexions possibles. Si les messages appris sont indépendants et identiquement distribués, et s'ils sont suffisamment nombreux pour considérer valide la loi des grands nombres, alors la densité d du réseau est très bien approchée par la formule suivante : d =1-(1- -12fl "=, AW2 pour M « /2 (2) Le décodage est assuré par un algorithme itératif, qui exploite les connexions pour tenter de retrouver des portions manquantes d'information ou de corriger des erreurs. Ce processus est réalisé en deux temps : d'abord les informations sont propagées par les connexions puis au sein de chaque grappe sont sélectionnés le ou les fanaux les plus actifs. On note v, la valeur du fanal j de la grappe i. Au départ sont supposées initialisées les valeurs à 1 si le message présenté en entrée du réseau active le jième fanal de la i-ème grappe et à 0 sinon. Ensuite, les deux étapes du décodage peuvent s'écrire : J, + ei j' =1 max max (vif ) Vi, j, 11 si vii = vilax 0 sinon Dans le cas d'un nombre conséquent d'erreurs ou d'effacements, les inventeurs ont, depuis le dépôt de la demande de brevet susmentionné, déterminé que la première règle de décodage gagne à être remplacée par : J, vij max(w(ij)(i, ) + yvij (6), avec cependant l'inconvénient d'une plus grande complexité. L'intérêt des itérations dans les cas de nombreuses erreurs ou effacements a été démontré par de nombreuses simulations. Cependant, dans le cas où ces perturbations n'affectent qu'un unique sous-message, le réseau converge dès la première itération. Pour quantifier les performances de ces réseaux, divers paramètres ont été introduits. Le premier, nommé diversité, est le nombre de messages qu'il peut apprendre. Dans le cas où le décodage n'effectue qu'une seule itération et si un unique symbole est inconnu, la probabilité de ne pas retrouver le message est : Pe = 1 - 1-de-1 1 (7) À probabilité d'erreur Pe fixée après une seule itération, la diversité du réseau s'exprime donc comme : 1 1 \ c -1 1- (1-Pe)/-1- log 1 - Mmax (Pe) (8) log(1- 1 ) /2 Le second paramètre est la capacité C, définie comme le nombre total d'informations binaires qu'il peut mémoriser. Sous les mêmes hypothèses, cette capacité peut s'exprimer comme : C = c. 1 og2 (/).Mmax (Pe ) (9) Le troisième paramètre, nommé efficacité, compare la capacité au nombre total d'informations binaires disponibles dans le réseau. Celui-ci est donné par le c nombre de connexions possibles : 2) 1/2. Toujours avec les mêmes hypothèses, l'efficacité peut s'exprimer comme : C (10) 11 - (c2) 12 La table 1 donne quelques exemples de valeurs de ces paramètres, pour des grandeurs typiques et une probabilité d'erreur de 10-2. 1 114-. 4 256 2269 72610 18.5% 4 512 7173 258239 16.4% 8 512 62676 4512684 64.5% 16 512 174244 25091256 79.8% TABLE 1: Diversité, capacité et efficacité de réseaux dans le cas d'un seul effacement, d'une seule itération, et pour un taux d'erreur de 0.01. 2.5 inconvénients de cette technique Cette technique basée sur des réseaux « classiques » et des graphes non orientés est donc efficace, notamment par rapport aux réseaux de Hopfield ou similaires. Toutefois, ils ne sont pas réellement adaptés à toutes les situations, et notamment à l'apprentissage de séquences de longueurs quelconques, et en particulier de séquences très longues. 4. objectifs de l'invention L'invention a notamment pour objectif de pallier ces inconvénients de l'état de l'art.
Plus précisément, un objectif de l'invention est de fournir, selon au moins un mode de réalisation, une technique améliorant la mise en oeuvre des réseaux « classiques » décrits ci-dessus. Un autre objectif de l'invention, selon au moins un mode de réalisation, est de fournir une telle technique, bien adaptée à l'apprentissage et au décodage de séquences de longueurs quelconques. L'invention a également pour objectif, selon au moins un mode de réalisation, de fournir une telle technique, permettant l'apprentissage et le décodage de séquences de grandes longueurs, et permettant notamment d'encoder des flux d'informations volumineux, tels que des flux multimédia. Encore un autre objectif de l'invention, selon au moins un mode de réalisation, de fournir une telle technique, permettant d'étendre les possibilités de mises en oeuvre de mémoires associatives de messages séquentiels. 5. caractéristiques principales de l'invention Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un dispositif d'apprentissage de messages séquentiels, mettant en oeuvre un réseau de neurones. Selon l'invention, ce dispositif met en oeuvre un ensemble de neurones, dits fanaux, lesdits fanaux sont des neurones binaires, pouvant prendre uniquement deux états, un état allumé et un état éteint.
Ces fanaux sont distribués en c grappes comprenant chacune un nombre prédéterminé de fanaux, chaque grappe de fanaux étant affectée au traitement d'un sous-message, lesdites grappes étant ordonnées, de façon qu'il soit possible d'identifier, pour une grappe donnée, une série de grappes précédentes selon un ordre prédéfini, chaque fanal étant associé à une occurrence spécifique dudit sous- message. Le dispositif comprend également des moyens d'apprentissage dudit réseau de neurones, comprenant : des moyens de découpage d'un message à apprendre en L sous-messages à apprendre ; des moyens d'activation d'un unique fanal dans l'état allumé dans une grappe courante, pour un desdits sous-messages à apprendre, tous les autres fanaux de ladite grappe courante étant dans l'état éteint ; des moyens de création de connexions entre fanaux, activant, pour ledit sous-message à apprendre, des connexions entre le fanal allumé de ladite grappe courante et le fanal allumé de chacune des grappes de la série de grappes précédant ladite grappe courante, lesdites connexions étant des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté, et unidirectionnelles, de l'une desdites grappes précédentes vers ladite grappe courante. Ainsi, selon l'invention, on met en oeuvre une structure orientée : les connexions entre deux neurones ne sont pas bidirectionnelles (c'est-à-dire valides indifféremment dans les deux sens), mais au contraire unidirectionnelles, d'une première grappe vers une seconde grappe, selon l'ordre de celles-ci. Comme expliqué plus en détail par la suite, ceci permet un traitement séquentiel. En effet, un tel dispositif est capable d'apprendre et de restituer des séquences, et non plus seulement des messages atemporels et de longueurs fixes. Il est important de noter que cet aspect est tout à fait nouveau, et non évident, dans le domaine des réseaux de neurones. En effet, notamment, les réseaux de Hopfield n'ont pas une telle capacité d'apprentissage de messages séquentiels. L'unidirectionnalité apparaît, pour l'homme du métier, comme étant un handicap pour obtenir de bonnes performances : elle requiert deux fois plus de ressources matérielles (il faut deux bits pour spécifier une liaison entre deux noeuds du graphe orienté au lieu d'un seul pour le graphe non orienté) pour une redondance potentiellement plus faible que celle des connexions bidirectionnelles. Cependant, les inventeurs ont montré qu'elle présente également de nombreux avantages, notamment du fait qu'elle permet l'introduction d'une dimension temporelle dans l'apprentissage.
On peut également noter que l'approche de l'invention correspond à une vision plus réaliste de circuits neuro-inspirés (les connexions cérébrales sont en effet unidirectionnelles). De façon préférentielle, l'invention est mise en oeuvre pour des valeurs de 5 L bien supérieures au nombre de grappes c. En effet, un message séquentiel peut passer plusieurs fois par la même grappe. Ainsi, les messages encodés peuvent par exemple correspondre à des flux multimédia. Avantageusement, une série de grappes précédentes comprend r grappes précédentes, où r < c-1. r est appelé recouvrement temporel. 10 De façon avantageuse, lesdits moyens de découpage délivrent lesdits sous- messages sous la forme d'une séquence, traitée selon ledit ordre prédéfini des grappes, lors de l'apprentissage. Selon certains modes de réalisation, le nombre 1 de fanaux de chaque bloc peut correspondre au nombre de symboles d'un alphabet fini prédéterminé. En 15 effet, les messages ne sont pas forcément binaires. Dans le cas où les messages sont binaires et présentent une longueur k = LK, où K la longueur d'un sous-message binaire, chaque bloc comprend avantageusement 1 = 2- fanaux. Selon un mode de réalisation particulier, le dispositif d'apprentissage peut 20 être réalisé sous la forme d'au moins un circuit intégré. Il peut également être, intégralement ou en partie, réalisé sous une forme logicielle, et stocké sur un ordinateur ou tout autre appareil de traitement adéquat. Il est également possible que les moyens de traitement, assurant notamment l'apprentissage, soit physiquement séparés de tout ou partie du réseau de 25 neurones, qui peut être stocké à distance, et accessible par tout moyen de communication adéquat. L'invention concerne également un dispositif de décodage d'un message à décoder, à l'aide d'un réseau de neurones configuré à l'aide d'un dispositif d'apprentissage tel que décrit ci-dessus. Un tel dispositif de décodage comprend : des moyens de découpage du message à décoder en L sous-messages à décoder ; des moyens d'allumage de fanaux associés respectivement auxdits sous-messages à décoder, dans les blocs correspondants ; des moyens d'association, audit message à décoder, d'un message décodé, en fonction desdits fanaux allumés et desdites connexions reliant lesdits fanaux allumés. Ainsi, l'invention selon cet aspect repose notamment sur un apprentissage parcimonieux, seul un fanal par grappe pouvant être allumé pour chaque message à apprendre, simplifiant les traitements et offrant une forte capacité de mémorisation. L'apprentissage et le décodage sont alors très simples, et fiables, puisque l'on sait que, dans chaque grappe, un seul fanal est allumé, pour un message donné. Le traitement est également simplifié, par rapport aux réseaux de neurones à valeurs réelles, ou pondérées, du fait qu'il repose sur une approche binaire : d'une part, les fanaux sont des neurones binaires, pouvant prendre uniquement deux états, et d'autre part, les connexions entre les fanaux allumés sont également, des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté.
Préférentiellement, lesdits moyens d'association mettent en oeuvre un décodage progressif, grappe par grappe, selon ledit ordre prédéfini. On effectue ainsi un décodage séquentiel, de proche en proche. Selon un aspect particulier, le dispositif de décodage peut comprendre des moyens d'initialisation, définissant les fanaux allumés des r premières grappes de la séquence à décoder, selon ledit ordre prédéterminé. Selon un autre aspect particulier, le dispositif de décodage peut comprendre des moyens de décodage local, pour chacune desdites grappes, activant dans l'état allumé au moins un fanal le plus vraisemblable, dans ladite grappe, en fonction des connexions activées par les fanaux allumés dans les r grappes précédentes, et délivrant un sous-message décodé local.
Un tel dispositif de décodage peut notamment être réalisé sous la forme d'au moins un circuit intégré. Il peut également être un, ou être implanté en tout ou partie dans, un ordinateur, ou plus généralement dans un appareil comprenant des moyens de stockage de données et des moyens de traitement de données.
Il est à noter par ailleurs que les dispositifs d'apprentissage et de décodage peuvent être des dispositifs distincts (physiquement ou du fait de leur implémentation logicielle) ou être regroupés dans un dispositif unique d'apprentissage et de décodage. L'invention concerne encore un procédé d'apprentissage du réseau de neurones, mettant en oeuvre un ensemble de neurones, dits fanaux, lesdits fanaux sont des neurones binaires, pouvant prendre uniquement deux états, un état allumé et un état éteint, lesdits fanaux étant distribués en c grappes comprenant chacune un nombre prédéterminé de fanaux, chaque grappe de fanaux étant affectée au traitement d'un sous-message, lesdites grappes étant ordonnées, de façon qu'il soit possible d'identifier, pour une grappe donnée, une série de grappes précédentes selon un ordre prédéfini, chaque fanal étant associé à une occurrence spécifique dudit sous-message. Un tel procédé d'apprentissage comprend les étapes suivantes : - découpage d'un message à apprendre en L sous-messages à apprendre, et pour chaque sous-message à apprendre, associé à une grappe courante : - activation d'un unique fanal dans l'état allumé dans ladite grappe courante, pour un desdits sous-messages à apprendre, tous les autres fanaux de ladite grappe courante étant dans l'état éteint ; création de connexions entre fanaux, activant, pour ledit sous-message à apprendre, des connexions entre le fanal allumé de ladite grappe courante et le fanal allumé de chacune des grappes de la série des r grappes précédant ladite grappe courante, lesdites connexions étant des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté, et unidirectionnelles, de l'une desdites grappes précédentes vers ladite grappe courante. L'invention concerne également un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, comprenant des instructions de code de programme pour l'exécution du procédé d'apprentissage tel que décrit ci-dessus, lorsqu'il est exécuté sur un ordinateur. L'invention concerne encore un procédé de décodage d'un message à 10 décoder, à l'aide d'un réseau de neurones configuré selon le procédé d'apprentissage tel que décrit ci-dessus. Un tel procédé de décodage comprend les étapes suivantes : (a) réception d'un message à décoder ; (b) découpage dudit message à décoder en L sous-messages à décoder ; 15 (c) association, audit message à décoder, d'un message décodé, en fonction des fanaux allumés correspondant auxdits sous-messages à décoder. Ladite étape (c) peut comprendre, pour chacun desdits sous-messages à décoder et pour chaque grappe correspondante, les sous-étapes de : (cl) allumage du fanal associé au sous-message à décoder, dans ladite 20 grappe ; (c2) identification de connexions reliant ledit fanal allumé et lesdits fanaux allumé des grappes précédentes. De façon avantageuse, le procédé de décodage peut mettre en oeuvre un décodage de proche en proche, les sous-messages associés auxdites grappes étant 25 décodées séquentiellement, grappe par grappe, selon ledit ordre prédéfini. Selon certains modes de réalisation de l'invention, le parcours de grappe à grappe défini par ledit ordre peut être parcouru plusieurs fois, la dernière grappe étant reliée à la première. L'invention concerne également un produit programme d'ordinateur 30 téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution de ce procédé de décodage, lorsqu'il est exécuté sur un ordinateur. 6. liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1, commentée en préambule, présente un exemple d'un réseau de Hopfield à 8 neurones ; les figures 2A et 2B illustrent respectivement les connexions inter-grappes autorisées pour un réseau classique et pour une chaîne de tournois de même complexité ; la figure 3 présente une comparaison de la probabilité de retrouver un message précédemment appris lorsque 25% de ses symboles sont effacés, entre le réseau classique contenant 4 grappes de 512 neurones chacune et le réseau de chaînes de tournois de paramètre r = 3 constitué de 8 grappes de 512 neurones chacune ; les figures 4A et 4B illustrent le renforcement de la redondance lors de l'apprentissage de séquences afin d'éviter des ambiguïtés lorsque des symboles se répètent dans la séquence.; la figure 5 illustre l'apprentissage d'une séquence de taille arbitraire dans le réseau de la figure 4B ; la figure 6 montre l'évolution de la probabilité qu'une erreur n'ait pas d'impact sur la remémoration de futurs symboles au sein d'une séquence, en fonction de l'efficacité du réseau et pour divers paramètres ; la figure 7 illustre schématiquement une mise en oeuvre d'un apprentissage selon un mode de réalisation de l'invention ; la figure 8 illustre schématiquement une mise en oeuvre d'un décodage selon un mode de réalisation de l'invention. 7. description d'un mode de réalisation 7.1 introduction L'invention s'appuie sur des aspects développés dans le domaine de la théorie de l'information, dont les développements ont été pendant longtemps suscités et captés par les besoins des télécommunications, en perpétuelle demande d'améliorations. Des avancées considérables ont ainsi été obtenues dans l'écriture de l'information, sa compression, sa protection, son transport et son interprétation.
En particulier, ces dernières années ont vu l'émergence de nouveaux procédés de traitement de l'information qui s'appuient sur des échanges probabilistes à l'intérieur de machines pluricellulaires. Chaque cellule est conçue pour traiter un problème de manière localement optimale et c'est l'échange d'informations (des probabilités ou des logarithmes de probabilité) entre les cellules qui conduit à un résultat globalement optimal. Le turbo-décodage a ouvert la voie à ce type d'approche (voir par exemple C. Berrou, A. Glavieux and P. Thitimajshima, "Near Shannon limit errorcorrecting coding and decoding: turbo-codes", Proc. of IEEE ICC '93, Geneva, pp. 1064-1070, May 1993. Voir aussi : Sylvie Kerouédan and Claude Berrou (2010), Scholarpedia, 5(4):6496). Le turbo-décodage a été reconnu comme une instance du principe très général de propagation de croyance (« belief propagation » en anglais ; voir par exemple R. J. McEliece, D. J. C. MacKay and J.-F. Cheng, "Turbo decoding as an instance of Pearl's 'belief propagation' algorithm", IEEE Journal on Selected Areas in Commun., vol. 16, no. 2, pp. 140- 152, Feb. 1998), lequel a trouvé par la suite une autre application importante dans le décodage des codes « Low Density Parity Check » (LDPC, voir par exemple R. G. Gallager, "Low-density parity-check codes", IRE Trans. Inform. Theory, Vol. IT-8, pp. 21-28, Jan. 1962). Les inventeurs ont observé que l'on pouvait tenter d'adapter les développements effectués dans ces domaines à l'utilisation des réseaux de neurones, en termes de structure distribuée, séparabilité des informations, résistance au bruit, résilience, etc. Les développements décrits dans le document PCT/EP2011/064605 montrent les avantages de la parcimonie et la grande diversité d'apprentissage, 5 comme rappelé en préambule. 7.2 prise en compte de l'unidirectionnalité L'invention propose d'améliorer cette technique, notamment grâce à l'unidirectionnalité. En d'autres termes, selon le vocabulaire de la théorie des graphes, l'invention permet de passer des « cliques » aux « tournois » et aux 10 « chaînes de tournois ». En effet, tout message est appris, dans le réseau « classique » au travers de l'inscription d'une clique dans des grappes de neurones fanaux. Si les cliques maximisent le nombre de liaisons entre fanaux représentatifs d'un message et donc sa redondance, elles requièrent cependant un nombre important de 15 connexions, proportionnel au carré du nombre de sommets reliés. L'approche de l'invention introduit une réduction de cette redondance dans le processus d'apprentissage se répercute sur les performances du réseau, notamment en rendant les connexions unidirectionnelles. Cette approche non évidente a posteriori, puisqu'elle diminue les redondances et augmente la 20 complexité (pour repérer le sens de la connexion), présente cependant des avantages. Une réduction structurée de la redondance des cliques permettant de préserver de bonnes propriétés de mémorisation et remémoration est possible, comme expliqué ci-après. En outre, on peut noter une analogie biologique, les synapses (entrées 25 neuronales ) et les axones (sorties) n'étant pas interchangeables. En théorie des graphes, on appelle tournoi un sous-ensemble de noeuds du graphe qui sont tous interconnectés, dans un sens ou dans l'autre mais pas dans les deux. Cette notion s'appuie donc nécessairement sur des graphes orientés et non plus symétriques.
L'unidirectionnalité peut apparaître dans un premier temps comme étant un handicap pour obtenir de bonnes performances : elle requiert deux fois plus de ressources matérielles (il faut deux bits pour spécifier une liaison entre deux noeuds du graphe orienté au lieu d'un seul pour le graphe non orienté) pour une redondance potentiellement plus faible que celle des connexions bidirectionnelles. Cependant, elle permet l'introduction d'un caractère temporel dans l'apprentissage. Soit un réseau compartimenté en c grappes numérotées de 1 à c et r un paramètre entier entre 1 et c - 1. On appelle chaîne de tournois de paramètre r un tel réseau si seules sont autorisées les connexions entre les grappes i et j, j - i (mod c) r, pour i et j de 1 à c. La figure 2A illustre les connexions 22 autorisées entre les grappes 211 à 214 pour un réseau classique avec c = 4 et la figure 2B illustre les connexions (unidirectionnelles) 24 autorisées entre les grappes 231 à 238 pour une chaîne de tournois avec c = 8 et r = 3. Ces deux réseaux sont comparables du point de vue de la complexité du décodage car dans les deux cas, chaque grappe reçoit des informations de trois autres grappes. Les processus de décodage et d'apprentissage présentés dans le document PCT/EP2011/064605 peuvent être ajustés pour tenir compte de la structure particulière ainsi définie. En effet, la manière dont sont reliées les grappes entre elles maintient le degré incident (nombre de connexions entrantes) de chaque fanal à une valeur constante r. La formule de la densité reste la même que celle du réseau classique (le nombre de connexions possibles peut être cependant nettement diminué, suivant les valeurs relatives de c et r). Par extension, la probabilité d'erreur lors de la remémoration d'une grappe sans information extérieure, dans le cas d'une seule itération et si les r grappes ayant des connexions vers cette grappe connaissent leurs sous-messages associés, est : Pe = 1 - 4 - dr )1 (11) 7.3 comparaison de performances Pour un même nombre de messages appris et une même densité, les résultats obtenus par les chaînes de tournois sont moins bons, dans des conditions comparables d'effacement. En contrepartie, ces nouveaux réseaux offrent un degré de liberté supplémentaire grâce au paramètre r et sont capables d'apprendre des séquences, comme expliqué ci-après. La figure 3 compare les performances des deux types de réseaux dans les configurations décrites par la figure 1 pour un taux d'effacement des messages en entrée de 25%, soit 1 grappe effacée dans le cas du réseau classique et 2 grappes effacées dans le cas de la chaîne de tournois (avec c = 8). Cette figure 3 montre que la perte en performance est raisonnable. Cependant, la chaîne de tournois requiert une ressource matérielle 4 fois plus grande. 7.4 principe de l'apprentissage de séquences L'apprentissage de séquences pose le problème de la répétition de situations déjà rencontrées. C'est un problème est connu en théorie des jeux qui peut s'exprimer de la façon suivante : dans une même situation, la décision à prendre peut dépendre uniquement de l'état actuel de la partie ou également de situations précédentes. Par exemple, lors d'une partie d'échecs de haut niveau, la décision prise par un joueur ne devrait pas dépendre des décisions qui ont été prises précédemment. En particulier un joueur pourrait se faire remplacer en cours de partie sans que le remplaçant ne connaisse la suite de coups qui a mené à la situation en cours et sans que ses chances de gagner ne soient affectées. Au contraire, dans un jeu à information imparfaite, une partie de cartes par exemple, il est très fréquent que la décision d'un joueur dépende des choix précédents qu'ont pu faire ses adversaires.
Pour prendre un exemple concret, on imagine que l'on souhaite apprendre un mot composé de quelques caractères, par exemple « brain ». Dans le cas d'un apprentissage sans mémoire, le processus se contente de donner des règles de transition : par exemple "b" mène à "r" qui mène à "a" qui mène à "i" qui mène à "n". Se pose alors un double problème : lorsqu'un mot contient plusieurs fois la même lettre ou lorsque plusieurs mots partagent les mêmes lettres. Une ambiguïté en résulte qui ne peut être levée que par un renforcement des liens entre les caractères des mots appris. L'invention propose une solution à ce problème, en utilisant les chaînes de tournois précédemment introduites pour réaliser ce renforcement. Les figures 4A et 4B illustrent ce principe : sur la figure 4A il est impossible de savoir si, partant de A, il faut retrouver ABCDE ou ABCFGHCDE. En effet, deux connexions 41 et 42 partent de C, et on ne sait pas si l'on doit aller vers D (connexion 41) ou vers F (connexion 42). En revanche, dans le mode de réalisation de la figure 4B, chaque lettre est reliée à la précédente (flèche pleine) et à celle encore précédente (flèche en pointillés). En d'autres termes, le caractère futur est relié aux deux précédents. On a donc connaissance d'une séquence, qui permet de lever l'ambiguïté : partant de B pour aller à C, on doit aller à F, qui reçoit d'une part la flèche pleine 43 de C et d'autre part la flèche pointillée 44 de B, correspondant donc à BCF. BCD n'est pas possible, puisque D n'est pas connecté à B. 7.5 exemple d'apprentissage de séquences dans un réseau parcimonieux Le principe d'apprentissage de séquences tel que décrit ci-dessus peut être adapté aux réseaux parcimonieux tels qu'introduits notamment dans le document PCT/EP2011/064605 .
Soit dm une séquence de symboles de longueur L, c'est-à-dire une suite ordonnée de L symboles. Pour plus de simplicité, L est considéré multiple de c et toutes les séquences auront la même longueur L. Ceci n'est cependant pas obligatoire. Afin d'apprendre de telles séquences, dans le cas le plus général où L est supérieur à c, les grappes doivent être sollicitées à plusieurs reprises. Ainsi, la grappe numérotée i ne correspondra plus simplement au i-ème symbole des messages appris mais à tous les i + kc- ièmes symboles, où k est un entier positif. L'apprentissage se déroule sur une chaîne de tournois de recouvrement r. Après l'apprentissage de M séquences de de longueur L, le réseau est défini par :30 Vi, PE I); cil Vj, fE111;/11 1 si 1 < (i'-i) mode r d lm+ kc dri+kc = sinon w(i,,i)(i',f) = et 3n.i1J,3k <A c 0 (12) Ainsi, les fanaux représentatifs des symboles sont reliés les uns aux autres seulement s'ils sont consécutifs sur r étapes dans la séquence considérée. La densité du réseau, après l'apprentissage des M séquences, est donnée par : d = 1 - (1 - -1 1\ / ) c 2 En supposant connus les r premiers symboles et en notant v, les valeurs des fanaux, le décodage est réalisé de façon séquentielle selon les équations suivantes : i p modc + 1 (14) pour p allant de r+làL: dj Vii tv(ii)(ij.où ô(i') = (i - i')modc 1 ô(i') r = 1 yin" max(vii) vii 11 Si = 121' 0 sinon (15) On peut noter ici que ce qui correspondait aux itérations dans le décodage 15 décrit dans le document de brevet PCT/EP2011/064605 correspond ici à la progression des symboles dans les séquences à décoder. De fait, la notion d'itération de décodage n'est plus utilisée ici. La figure 5 illustre un exemple de processus d'apprentissage, dans lequel chaque symbole est appris en se déplaçant de grappe en grappe au travers du 20 réseau et en se liant aux r symboles précédents. Dans cette représentation de l'apprentissage d'une séquence de taille arbitraire, le réseau contient c = 8 grappes 51 et le recouvrement est r = 3 (chaque grappe est reliée aux trois grappes précédentes). Les symboles du message à apprendre sont appris circulairement et séquentiellement sur les différentes grappes, selon l'ordre illustré par les flèches (0, 1, 2, ... 21, 22). On constate clairement, sur cette figure 5, que, comme déjà mentionné, chaque grappe est utilisée plusieurs fois. 7.6 probabilités d'erreurs dans le décodage de séquences Contrairement aux réseaux du document de brevet PCT/EP2011/064605 qui considéraient le décodage de messages aléatoirement effacés ou erronés, le décodage des séquences s'appuie sur la connaissance parfaite des premiers 10 symboles. D'autres informations pourraient être fournies, par exemple la valeur de certains symboles placés plus loin dans les séquences. Dans l'analyse qui suit, on considère uniquement le cas où seuls les r premiers symboles sont renseignés. Puisque les symboles appris ne sont reliés qu'à des symboles qui 15 précédent, le réseau n'est pas adapté à la remémoration d'une séquence "à l'envers", c'est-à-dire en partant des derniers symboles. Il suffirait toutefois d'inverser le sens de toutes les connexions pour que cette opération devienne possible. Tout comme pour les réseaux classiques, c'est la densité d qui conditionne 20 les performances. La probabilité de retrouver un symbole connaissant les r précédents se définit comme : Prec = (1- dr )1-1 (16) Si les messages sont de longueur L, la probabilité d'erreur lors de la remémoration du message entier est : pe = 1 _ 0 _ dr )(1-1)(L-r) 25 (17) À probabilité d'erreur fixée, il s'en déduit la diversité (nombre maximal de messages appris) du réseau comme suit : 1 1 \17. 1_ (1- pe)(1-1)(L-r) log 1 - c log(1 1 ) /2 smax(Pe) (18) La capacité est obtenue en multipliant cette diversité par la quantité d'informations binaires contenues dans chaque séquence : Cseq = L.log 2 (/).Smax (Pe) (19) Enfin, l'efficacité du réseau s'écrit : (,seq 1seq cr12 (20) La table 2 donne quelques valeurs sur le nombre et la longueur des séquences que de tels réseaux sont capables de mémoriser puis de retrouver avec une probabilité d'erreur de 0.01, ainsi que l'efficacité associée : c 1 R L S' a, 11s" 8 512 2 16 155 0.5% 8 512 3 16 1513 3.4% 8 512 3 32 578 2.6% 8 512 3 64 225 2% 20 512 10 100 12741 21.9% 50 256 20 1000 1823 22.2% TABLE 2 : Nombres de séquences (diversité) S' a, qu'une chaîne de tournois est capable d'apprendre puis de remémorer avec une probabilité d'erreur inférieure à 0.01, pour différentes valeurs de c, 1, r et L.
L'efficacité correspondante est également précisée. La probabilité d'erreur lors de la remémoration d'un symbole particulier peut être grandement affectée par des erreurs précédentes. En particulier, si les r précédents symboles retrouvés sont faux, il y a de très fortes chances que la suite des symboles décodés soit également totalement fausse. Ceci peut justifier l'introduction de moyens pour que certains symboles soient renseignés d'une autre manière, de même que les premiers symboles.
La figure 6 montre l'évolution de la probabilité qu'une erreur reste locale et n'ait donc pas d'influence sur le décodage des prochains symboles, en fonction de l'efficacité du réseau, et pour divers paramètres. Elle montre que le réseau reste capable de surmonter des erreurs isolées jusqu'à une efficacité de l'ordre de 30 %. 7.7 résumé La figure 7 illustre de façon schématique et simplifiée un mode de réalisation du procédé d'apprentissage de l'invention. Lors d'une étape 61 d'initialisation, on sélectionne les fanaux des r premières grappes, correspondant aux r premiers symboles de la séquence de symboles à acquérir. Ensuite, on place (62) le symbole suivant de la séquence à acquérir dans la grappe suivante dans la chaîne de grappes (selon l'ordre prédéterminé). La grappe suivante est la première de la chaîne, si la grappe courante est la dernière de la chaîne. Puis on relie (63) les r fanaux des grappes précédentes au fanal de la grappe courante. Si le symbole courant est le dernier (64), l'apprentissage 65 de la séquence est terminé. Dans le cas contraire (66), on répète l'étape 62 pour le symbole suivant. La figure 8 illustre, de la même façon schématique et simplifiée un mode de réalisation du procédé de décodage de l'invention. Lors d'une étape 71 d'initialisation, on sélectionne les fanaux des r premières grappes, correspondant aux r premiers symboles de la séquence de symboles. Ces r premiers symboles sont supposés connus. Ensuite, on sélectionne (72) le symbole suivant dans la grappe suivante, à l'aide des équations (15) définies ci-dessus. La grappe suivante est la première de la chaîne, si la grappe courante est la dernière de la chaîne. Si le symbole courant n'est pas le dernier (73), l'étape 72 est répétée pour le symbole suivant. Si le symbole courant est le dernier (74), le décodage est terminé (75). 7.8 conclusion L'approche de l'invention permet d'"affaiblir" la redondance de la clique dans les réseaux de neurones introduits dans le document de brevet PCT/EP2011/064605, tout en gardant d'excellentes propriétés de mémoires associatives. D'une part, les réseaux y gagnent en plausibilité biologique, d'autre part et surtout, ils deviennent capables d'apprendre des séquences de longueur quelconque, indépendante du nombre de noeuds dans le graphe (alors que, dans le réseau classique, longueur des messages et taille du réseau sont étroitement liées). Ces réseaux orientés sont notamment aptes à apprendre des séquences très longues, ce qui pourrait leur donner la possibilité d'encoder des flux 10 d'informations volumineux, des flux multimédia par exemple. L'introduction de la séquentialité dans les mémoires associatives permet d'étendre leurs possibilités.

Claims (17)

  1. REVENDICATIONS1. Dispositif d'apprentissage de messages séquentiels, mettant en oeuvre un réseau de neurones, caractérisé en ce qu'il comprend un ensemble de neurones, dits fanaux, lesdits fanaux sont des neurones binaires, pouvant prendre uniquement deux états, un état allumé et un état éteint, lesdits fanaux étant distribués en c grappes comprenant chacune un nombre prédéterminé de fanaux, chaque grappe de fanaux étant affectée au traitement d'un sous-message, lesdites grappes étant ordonnées, de façon qu'il soit possible d'identifier, pour une grappe donnée, une série de grappes précédentes selon un ordre prédéfini, chaque fanal étant associé à une occurrence spécifique dudit sous-message, et des moyens d'apprentissage dudit réseau de neurones, comprenant : des moyens de découpage d'un message à apprendre en L sous-messages à apprendre ; des moyens d'activation d'un unique fanal dans l'état allumé dans une grappe courante, pour un desdits sous-messages à apprendre, tous les autres fanaux de ladite grappe courante étant dans l'état éteint ; des moyens de création de connexions entre fanaux, activant, pour ledit sous-message à apprendre, des connexions entre le fanal allumé de ladite grappe courante et le fanal allumé de chacune des grappes de la série de grappes précédant ladite grappe courante, lesdites connexions étant des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté, et unidirectionnelles, de l'une desdites grappes précédentes vers ladite grappe courante.
  2. 2. Dispositif d'apprentissage selon la revendication 1, caractérisé en ce qu'une série de grappes précédentes comprend r grappes précédentes, où r < c-1. r est appelé recouvrement temporel.
  3. 3. Dispositif d'apprentissage selon l'une quelconque des revendications 1 et 2, caractérisé en ce que lesdits moyens de découpage délivrent lesdits sous-messages sous la forme d'une séquence, traitée selon ledit ordre prédéfini des grappes, lors de l'apprentissage.
  4. 4. Dispositif d'apprentissage selon l'une quelconque des revendications 1 à 3, caractérisé en ce que le nombre 1 de fanaux de chaque bloc correspond au nombre de symboles d'un alphabet fini prédéterminé.
  5. 5. Dispositif d'apprentissage selon l'une quelconque des revendications 1 à 4, caractérisé en ce que lesdits messages sont binaires et présentent une longueur k = LK, où K la longueur d'un sous-message binaire, chaque bloc comprenant 1 = 2-fanaux.
  6. 6. Dispositif d'apprentissage selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu'il est réalisé sous la forme d'au moins un circuit intégré.
  7. 7. Dispositif de décodage d'un message à décoder, à l'aide d'un réseau de neurones configuré à l'aide d'un dispositif d'apprentissage selon l'une quelconque des revendications 1 à 6, caractérisé en ce qu'il comprend : - des moyens de découpage du message à décoder en L sous-messages à décoder ; des moyens d'allumage de fanaux associés respectivement auxdits sous-messages à décoder, dans les blocs correspondants ; des moyens d'association, audit message à décoder, d'un message décodé, en fonction desdits fanaux allumés et desdites connexions reliant lesdits fanaux allumés.
  8. 8. Dispositif de décodage selon la revendication 7, caractérisé en ce que lesdits moyens d'association mettent en oeuvre un décodage progressif, grappe par grappe, selon ledit ordre prédéfini.
  9. 9. Dispositif de décodage selon l'une quelconque des revendications 7 et 8, caractérisé en ce qu'il comprend des moyens d'initialisation, définissant les fanaux allumés des r premières grappes de la séquence à décoder, selon ledit ordre prédéterminé.
  10. 10. Dispositif de décodage selon l'une quelconque des revendications 7 à 9, caractérisé en ce qu'il comprend des moyens de décodage local, pour chacunedesdites grappes, activant dans l'état allumé au moins un fanal le plus vraisemblable, dans ladite grappe, en fonction des connexions activées par les fanaux allumés dans les r grappes précédentes, et délivrant un sous-message décodé local.
  11. 11. Dispositif de décodage selon l'une quelconque des revendications 7 à 10, caractérisé en ce qu'il est réalisé sous la forme d'au moins un circuit intégré.
  12. 12. Procédé d'apprentissage du réseau de neurones, caractérisé en ce qu'il met en oeuvre un ensemble de neurones, dits fanaux, lesdits fanaux sont des neurones binaires, pouvant prendre uniquement deux états, un état allumé et un état éteint, lesdits fanaux étant distribués en c grappes comprenant chacune un nombre prédéterminé de fanaux, chaque grappe de fanaux étant affectée au traitement d'un sous-message, lesdites grappes étant ordonnées, de façon qu'il soit possible d'identifier, pour une grappe donnée, une série de grappes précédentes selon un ordre prédéfini, chaque fanal étant associé à une occurrence spécifique dudit sous-message, et en ce qu'il comprend les étapes suivantes : découpage d'un message à apprendre en L sous-messages à apprendre, et pour chaque sous-message à apprendre, associé à une grappe courante : activation d'un unique fanal dans l'état allumé dans ladite grappe courante, pour un desdits sous-messages à apprendre, tous les autres fanaux de ladite grappe courante étant dans l'état éteint ; création de connexions entre fanaux, activant, pour ledit sous-message à apprendre, des connexions entre le fanal allumé de ladite grappe courante et le fanal allumé de chacune des grappes de la série des r grappes précédant ladite grappe courante, lesdites connexions étant des connexions binaires, pouvant prendre uniquement un état connecté et un état déconnecté, et unidirectionnelles, de l'une desdites grappes précédentes vers ladite grappe courante.
  13. 13. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutablepar un microprocesseur, caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution du procédé d'apprentissage selon la revendication 12, lorsqu'il est exécuté sur un ordinateur.
  14. 14. Procédé de décodage d'un message à décoder, à l'aide d'un réseau de neurones configuré selon le procédé d'apprentissage de la revendication 12, caractérisé en ce qu'il comprend les étapes suivantes : (a) réception d'un message à décoder ; (b) découpage dudit message à décoder en L sous-messages à décoder ; (c) association, audit message à décoder, d'un message décodé, en fonction des fanaux allumés correspondant auxdits sous-messages à décoder.
  15. 15. Procédé de décodage selon la revendication 14, caractérisé en ce que ladite étape (c) comprend, pour chacun desdits sous-messages à décoder et pour chaque grappe correspondante, les sous-étapes de : (cl) allumage du fanal associé au sous-message à décoder, dans ladite grappe ; (c2) identification de connexions reliant ledit fanal allumé et lesdits fanaux allumé des grappes précédentes.
  16. 16. Procédé de décodage selon l'une quelconque des revendications 14 et 15, caractérisé en ce qu'il met en oeuvre un décodage de proche en proche, les sous- messages associés auxdites grappes étant décodées séquentiellement, grappe par grappe, selon ledit ordre prédéfini.
  17. 17. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, caractérisé en ce qu'il comprend des instructions de code de programme pour l'exécution du procédé de décodage selon l'une au moins des revendications 14 à 16, lorsqu'il est exécuté sur un ordinateur.
FR1158920A 2011-10-03 2011-10-03 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants Pending FR2980876A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1158920A FR2980876A1 (fr) 2011-10-03 2011-10-03 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants
FR1159874A FR2980877B1 (fr) 2011-10-03 2011-10-31 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en œuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants
PCT/EP2012/068959 WO2013050282A1 (fr) 2011-10-03 2012-09-26 Dispositifs d'apprentissage et/ou de décodage de messages séquentiels, mettant en œuvre un réseau de neurones, procédés d'apprentissage et de décodage et programmes d'ordinateur correspondants

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1158920A FR2980876A1 (fr) 2011-10-03 2011-10-03 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants

Publications (1)

Publication Number Publication Date
FR2980876A1 true FR2980876A1 (fr) 2013-04-05

Family

ID=46420260

Family Applications (2)

Application Number Title Priority Date Filing Date
FR1158920A Pending FR2980876A1 (fr) 2011-10-03 2011-10-03 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants
FR1159874A Expired - Fee Related FR2980877B1 (fr) 2011-10-03 2011-10-31 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en œuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants

Family Applications After (1)

Application Number Title Priority Date Filing Date
FR1159874A Expired - Fee Related FR2980877B1 (fr) 2011-10-03 2011-10-31 Dispositifs d'apprentissage et/ou de decodage de messages sequentiels, mettant en œuvre un reseau de neurones, procedes d'apprentissage et de decodage et programmes d'ordinateur correspondants

Country Status (2)

Country Link
FR (2) FR2980876A1 (fr)
WO (1) WO2013050282A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018197689A1 (fr) 2017-04-28 2018-11-01 Another Brain Procédé et dispositif associé automatisés aptes à mémoriser, rappeler et gérer de manière non volatile des associations de messages versus label et vice versa, avec un maximum de vraisemblance
WO2018197687A1 (fr) 2017-04-28 2018-11-01 Another Brain Dispositif ram automatisé apte à mémoriser, rappeler et gérer de manière non volatile, des associations de messages versus label et vice versa, avec un maximum de vraisemblance

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112822752B (zh) * 2021-01-07 2022-10-25 西安电子科技大学 一种无人机自组织网络的路由建立方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018197689A1 (fr) 2017-04-28 2018-11-01 Another Brain Procédé et dispositif associé automatisés aptes à mémoriser, rappeler et gérer de manière non volatile des associations de messages versus label et vice versa, avec un maximum de vraisemblance
WO2018197687A1 (fr) 2017-04-28 2018-11-01 Another Brain Dispositif ram automatisé apte à mémoriser, rappeler et gérer de manière non volatile, des associations de messages versus label et vice versa, avec un maximum de vraisemblance
US11526741B2 (en) 2017-04-28 2022-12-13 Another Brain Automated method and associated device for the non-volatile storage, retrieval and management of message/label associations and vice versa, with maximum likelihood

Also Published As

Publication number Publication date
FR2980877A1 (fr) 2013-04-05
FR2980877B1 (fr) 2014-09-12
WO2013050282A1 (fr) 2013-04-11

Similar Documents

Publication Publication Date Title
Cammerer et al. Scaling deep learning-based decoding of polar codes via partitioning
EP2198523B1 (fr) Codage et décodage de codes LDPC non binaires
FR2980876A1 (fr) Dispositifs d&#39;apprentissage et/ou de decodage de messages sequentiels, mettant en oeuvre un reseau de neurones, procedes d&#39;apprentissage et de decodage et programmes d&#39;ordinateur correspondants
EP2609545B1 (fr) Dispositifs d&#39;apprentissage et/ou de décodage de messages, mettant en oeuvre un réseau de neurones, procédés d&#39;apprentissage et de décodage et programmes d&#39;ordinateur correspondants
EP1905157B1 (fr) Procede et systeme d&#39;encodage d&#39;une sequence de donnees
EP2092651A2 (fr) Codage et decodage d&#39;un signal de donnees en fonction d&#39;un code correcteur
FR2950209A1 (fr) Procede de mise a jour elementaire d&#39;un noeud de controle lors d&#39;un decodage d&#39;un bloc encode avec un code ldpc non binaire, et decodeur correspondant.
Papadopoulou et al. Short codes with near-ML universal decoding: Are random codes good enough?
FR2912574A1 (fr) Procede de decodage a passage de messages et a convergence forcee.
EP1527521A2 (fr) Dispositif et procede de decodage robuste de codes arithmetiques
EP1471647B1 (fr) Codage et décodage utilisant un code construit sur un treillis dont les sections sont basées sur des codes en bloc à bonne distance
WO2014079990A1 (fr) Architecture de réseau de neurone, procédé d&#39;obtention et programmes correspondants
EP4150114A1 (fr) Procédé et dispositif de décodage de données stockées dans un système de stockage à base d&#39;adn
FR2884661A1 (fr) Procede et dispositif de decodage d&#39;un code a longueur variable prenant en compte une information de probabilite a priori
Aliabadi et al. Learning sparse messages in networks of neural cliques
FR2888062A1 (fr) Codeur et turbo decodeur de code produit
EP2786497A1 (fr) Procédé de maximisation de la capacité de correction d&#39;un code correcteur d&#39;erreurs mettant en oeuvre des syndromes supplémentaires
FR2922699A1 (fr) Decodage iteratif dans un reseau maille, procede et systeme correspondants
Zhang et al. Neural layered min-sum decoding for protograph LDPC codes
Petsche et al. A trellis-structured neural network
CN117220688A (zh) 一种基于广义met-ldpc码的cv-qkd误码纠错方法
Sharma et al. A Comparative Study of Artificial Intelligence-Based Algorithms for Bitwise Decoding of Error Correction Codes
WO2018115648A1 (fr) Codage et de décodage de paquets de données dans un corps de galois
Salavati Coding theory and neural associative memories with exponential pattern retrieval capacity
WO2016198801A1 (fr) Décodage sur une pluralité de treillis à sections auto-complémentaires a 4 états