FR3128045A1 - Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs - Google Patents
Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs Download PDFInfo
- Publication number
- FR3128045A1 FR3128045A1 FR2110644A FR2110644A FR3128045A1 FR 3128045 A1 FR3128045 A1 FR 3128045A1 FR 2110644 A FR2110644 A FR 2110644A FR 2110644 A FR2110644 A FR 2110644A FR 3128045 A1 FR3128045 A1 FR 3128045A1
- Authority
- FR
- France
- Prior art keywords
- neural network
- convolution
- multitasking
- layer
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 68
- 230000004913 activation Effects 0.000 claims abstract description 22
- 238000012417 linear regression Methods 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000004927 fusion Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 3
- 238000002844 melting Methods 0.000 description 6
- 230000008018 melting Effects 0.000 description 6
- 230000002596 correlated effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Procédé de gestion d'une première structure multitâche d'un ensemble de réseaux neuronaux convolutifs afin de générer une seconde structure multitâche, dans lequel ledit ensemble comprend au moins un premier et un second réseau neuronal entraîné (4, 5) de même structure et appropriés pour réaliser une tâche distincte, le procédé comprenant : - une étape de comparaison (S1) par régression linéaire entre une première carte d'activation et une seconde carte d'activation, les première et seconde couches de convolution ayant la même profondeur ; - une étape de sélection (S3) d'une couche de convolution du premier réseau neuronal (4) selon la valeur d'un paramètre ; - une étape de fusion (S4) de ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal (5) et, - une étape de suppression (S5) de l'ensemble de couches de convolution du premier réseau neuronal (4) qui précède ladite couche sélectionnée. Figure pour l’abrégé : Figure 2
Description
La présente invention concerne des réseaux neuronaux, et plus particulièrement les structures multitâches de ces réseaux neuronaux.
Art antérieur
Les réseaux neuronaux convolutifs profonds (DCNN) sont largement utilisés dans la reconnaissance d'images et de vidéos, les systèmes de recommandation et le traitement du langage naturel.
Chaque réseau neuronal convolutif peut réaliser une tâche spécifique telle que la détection ou la segmentation sémantique.
Cependant, de nombreuses applications, comme la conduite autonome, nécessitent désormais une résolution simultanée de ces tâches.
Il est donc proposé d'utiliser des ensembles de réseaux neuronaux dits multitâches, qui sont capables de réaliser simultanément plusieurs tâches distinctes mais corrélées et de partager des ressources entre elles.
Chaque tâche peut alors bénéficier de particularités qui n'auraient pas été apprises avec son gradient par elle-même.
Pour cela, il existe deux catégories de structures de réseaux neuronaux multitâches, la première permettant un « partage strict des poids », c'est-à-dire l'utilisation d'un ensemble commun de calculs.
Quant à la seconde catégorie de structures, elle conduit à un « partage souple des poids », qui permet à chaque tâche de disposer de ses propres poids entraînables avec des contraintes entre les tâches.
Cependant, ces structures sont difficiles à intégrer dans un circuit embarqué en raison de leur taille, du temps de calcul nécessaire pour exécuter les tâches et de la mémoire mobilisée à cet effet.
Il est alors proposé de fusionner au moins une paire de réseaux neuronaux dudit ensemble au niveau de couches de même profondeur ayant des caractéristiques redondantes.
Il n'est donc plus nécessaire de calculer les couches antérieures à celle sélectionnée parmi les deux réseaux neuronaux puisque l'accumulation des calculs produit la même carte de particularités.
Mais cette fusion conduit à réentraîner les deux réseaux neuronaux, ce qui nécessite du temps de calcul, de la mémoire et aussi la disponibilité de données annotées.
Ainsi, le but de la présente invention est de réduire le temps de calcul et la mémoire induits par l'utilisation de plusieurs réseaux neuronaux embarqués sans avoir à les réentraîner.
Divulgation de l’invention
À cet effet, il est prévu, selon un premier aspect, un procédé de gestion d'une première structure multitâche d'un ensemble de réseaux neuronaux convolutifs afin de générer une seconde structure multitâche, ledit ensemble comprenant au moins un premier et un second réseau neuronal entraîné de même structure et appropriés pour réaliser une tâche distincte.
Le procédé comprend :
- une étape de comparaison par régression linéaire entre une première carte d'activation, générée par chaque première couche de convolution du premier réseau neuronal, et une seconde carte d'activation, générée par chaque seconde couche de convolution du second réseau neuronal, les première et seconde couches de convolution ayant la même profondeur ;
- une étape de sélection d'au moins une des couches de convolution du premier réseau neuronal selon la valeur d'au moins un paramètre ;
- une étape de fusion de ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal et,
- une étape de suppression de l'ensemble de couches de convolution du premier réseau neuronal qui précède ladite couche sélectionnée.
En d'autres termes, l'ensemble des couches de convolution des premier et second réseaux neuronaux est parcouru pour identifier les similarités entre les cartes d'activation (« cartes de particularités ») générées par des couches de même profondeur, indiquant un point de fusion potentiel.
Les cartes d'activation sont définies comme les résultats issus d'une couche de convolution.
La taille globale de la seconde structure multitâche résultante est donc plus petite et permet un gain de temps de calcul et de mémoire, ce qui est d'un grand intérêt lors de l'intégration de ladite seconde structure dans des applications embarquées.
Dans un mode de réalisation, l'étape de fusion entre le premier et le second réseau neuronal convolutif est réalisée de manière non supervisée.
Dans un mode de réalisation, l'étape de fusion entre les premier et second réseaux neuronaux convolutifs est réalisée par projection linéaire.
À cette fin, l'algorithme non supervisé permet de réaliser des projections linéaires.
Dans un mode de réalisation, la valeur dudit paramètre est déterminée selon les résultats de toutes les comparaisons réalisées.
Lorsque les données sont normalisées, le résidu entre la prédiction linéaire et l'ensemble des valeurs cibles fournit un moyen de prédire si deux particularités sont corrélées.
La comparaison qui donne le plus petit résidu fournit un moyen approprié pour sélectionner ladite carte de particularités.
Dans un mode de réalisation, la valeur dudit paramètre est déterminée en fonction du temps de calcul à allouer à la seconde structure multitâche et/ou en fonction de la précision de calcul des cartes d'activation générées par la seconde structure.
Plus précisément, comme la corrélation entre les cartes de particularités des couches de convolution diminue lorsque la profondeur augmente, il est avantageux de sélectionner le point de fusion selon lesdits paramètres à partir d'une profondeur prédéterminée.
L'invention concerne également un programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent l'ordinateur à réaliser les étapes du procédé de gestion tel que défini ci-dessus.
Selon un autre aspect, l'invention concerne également un dispositif de gestion d'une première structure multitâche d'un ensemble de réseaux neuronaux convolutifs afin de générer une seconde structure multitâche, ledit ensemble comprenant au moins un premier et un second réseau neuronal entraîné, de même structure, et dans lequel chacun est capable d'exécuter une tâche distincte.
Le dispositif comprend :
- des moyens de comparaison capables de réaliser une comparaison par régression linéaire entre une première carte d'activation, générée par chaque première couche de convolution du premier réseau neuronal, et une seconde carte d'activation, générée par chaque seconde couche de convolution du second réseau neuronal, les première et seconde couches de convolution ayant la même profondeur ;
- des moyens de sélection capables de sélectionner au moins une des couches de convolution du premier réseau neuronal selon la valeur d'au moins un paramètre et,
- des moyens de calcul capables de fusionner ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal et de supprimer l'ensemble des couches de convolution du premier réseau neuronal qui précède ladite couche sélectionnée.
Dans un mode de réalisation, les moyens de calcul sont capables de réaliser la fusion entre le premier et le second réseau neuronal convolutif d'une manière non supervisée.
Dans un mode de réalisation, les moyens de calcul sont capables de réaliser la fusion entre les premier et second réseaux neuronaux convolutifs par projection linéaire.
Dans un mode de réalisation, la valeur dudit paramètre est déterminée en fonction des résultats de toutes les comparaisons réalisées et/ou en fonction du temps de calcul à allouer à la seconde structure multitâche et/ou en fonction de la précision de calcul des cartes d'activation générées par la seconde structure.
La présente invention et ses avantages seront mieux compris en étudiant la description détaillée d'un mode de réalisation spécifique donné à titre d'exemple non limitatif et illustré par les dessins annexés sur lesquels :
Description détaillée d'au moins un mode de réalisation de l'invention
La montre un circuit intégré 1 qui comprend un dispositif 2 de gestion d'une première structure multitâche d'un ensemble de réseaux neuronaux convolutifs.
Un tel dispositif 2 est configuré pour générer une seconde structure multitâche à partir de ladite première structure en appliquant des modifications à une couche desdits réseaux neuronaux.
À cet effet, le dispositif 2 comprend une mémoire 3 dans laquelle sont stockées les données constituant l'ensemble de réseaux neuronaux convolutifs.
Plus précisément, la mémoire 3 comprend les données relatives à un premier réseau neuronal 4 et à un second réseau neuronal 5, tous deux préalablement entraînés et de même structure.
Chaque réseau est ici destiné à réaliser une tâche distincte corrélée à l'autre tâche.
Par exemple, le premier réseau neuronal 4 est capable de réaliser une segmentation sémantique qui associe une classe sémantique à chaque pixel d'une image d'entrée.
Quant au second réseau neuronal 5, il est capable d'estimer une carte de profondeur dense à partir d'une image monoculaire.
Le dispositif 2 comporte également des moyens de comparaison 6 appropriés pour réaliser une comparaison par régression linéaire entre une première carte d'activation, générée par chaque première couche de convolution du premier réseau neuronal 4, et une seconde carte d'activation, générée par chaque seconde couche de convolution du second réseau neuronal 5.
Il convient de noter que les première et seconde couches de convolution ont la même profondeur.
En d'autres termes, les moyens de comparaison 6 sont capables de parcourir toutes les couches du premier réseau neuronal 4 et du second réseau neuronal 5 et de comparer les couches de même profondeur.
Plus particulièrement, les moyens de comparaison 6 sont capables d'identifier des similarités entre les cartes d'activation générées par les couches de même profondeur, indiquant un point de fusion potentiel entre le premier réseau neuronal 4 et le second réseau neuronal 5.
Ces moyens de comparaison 6 sont couplés à des moyens de sélection 7 qui sont capables de choisir une des couches de convolution du premier réseau neuronal 4 en fonction de la valeur d'au moins un paramètre.
En d'autres termes, les moyens de sélection 7 récupèrent les résultats desdites comparaisons et déterminent à quelle profondeur la fusion entre le premier réseau neuronal 4 et le second réseau neuronal 5 aura lieu.
Pour cela, la valeur dudit paramètre est déterminée selon les résultats de toutes les comparaisons réalisées.
Ainsi, lorsque les données sont normalisées, le résidu entre la prédiction linéaire et l'ensemble des valeurs cibles permet alors de prédire si deux particularités sont corrélées.
La comparaison donnant le plus petit résidu permet ainsi aux moyens de sélection 7 de sélectionner ladite couche.
Cependant, comme la corrélation entre les cartes de particularités des couches de convolution diminue lorsque la profondeur augmente, les moyens de sélection 7 sont capables de choisir le point de fusion selon le temps de calcul à allouer à la seconde structure multitâche et/ou selon la précision de calcul des cartes d'activation générées par la seconde structure.
Pour réaliser ladite fusion entre les deux réseaux, le dispositif 2 comprend des moyens de calcul 8 capables de fusionner par projection linéaire et de manière non supervisée la couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal 5.
Toutefois, le premier réseau neuronal 4 et le second réseau neuronal 5 étant entraînés, il n'est pas nécessaire de calculer les couches précédentes du premier réseau convolutif 4 après leur fusion.
Les moyens de calcul 8 sont alors capables de supprimer l'ensemble des couches de convolution du premier réseau neuronal 4 qui précèdent la couche sélectionnée.
Ainsi, la taille globale de la seconde structure multitâche résultante est plus petite et permet un gain de temps de calcul et de mémoire.
On se réfère à la qui illustre le processus de gestion de la première structure multitâche de l'ensemble comprenant le premier réseau neuronal 4 et le second réseau neuronal 5 préalablement entraînés et ayant la même dimension spatiale.
Dans cet exemple, le processus est réalisé par le dispositif 2, mais il peut également être réalisé par un programme d'ordinateur.
Le processus débute alors par une étape S1, au cours de laquelle les moyens de comparaison 6 réalisent une comparaison par régression linéaire entre les couches de convolution de même profondeur des deux réseaux neuronaux.
Le processus passe ensuite en revue toutes les couches de convolution du premier réseau neuronal 4 et du second réseau neuronal 5 pour identifier des similarités entre les cartes d'activation générées par les couches de convolution de même profondeur, indiquant un point de fusion potentiel.
Cette étape est ainsi répétée jusqu'à épuisement des couches de convolution du premier réseau neuronal 4 et du second réseau neuronal 5.
À cet effet, les moyens de comparaison 6 vérifient à l'étape S2, après chaque comparaison, si toutes les couches de convolution ont été parcourues. Si ce n'est pas le cas, l'étape S1 est répétée.
Si c’est le cas, le procédé passe à l'étape S3 dans laquelle les moyens de sélection 7 choisissent une des couches de convolution du premier réseau neuronal 4 selon la valeur d'au moins un desdits paramètres.
Il convient de noter que la valeur du paramètre peut être déterminée selon les résultats de toutes les comparaisons réalisées.
Une matrice de résidus peut alors être établie entre chaque couche de même profondeur entre le premier réseau neuronal 4 et le second réseau neuronal 5.
Les moyens de sélection 7 peuvent alors déterminer si deux particularités sont corrélées et donc susceptibles de constituer un point de fusion potentiel.
Toutefois, comme la corrélation entre les couches de convolution diminue lorsque la profondeur augmente, les moyens de sélection 7 sont capables de choisir le point de fusion selon le temps de calcul à allouer à la seconde structure multitâche et/ou selon la précision de calcul des cartes d'activation générées par la seconde structure.
À l'étape S4, les moyens de calcul 8 réalisent la fusion de manière non supervisée de ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal 5.
Il convient de noter que ladite fusion entre le premier réseau neuronal 4 et le second réseau neuronal convolutif 5 est réalisée par projection linéaire.
Enfin, à l'étape S5, les moyens de calcul 8 suppriment toutes les couches de convolution du premier réseau neuronal qui précèdent ladite couche sélectionnée.
L'invention n'est pas limitée à ces modes de réalisation mais comprend toutes les variantes. Par exemple, la première structure multitâche comprend un ensemble de réseaux neuronaux entièrement connectés.
Claims (10)
- Procédé de gestion d'une première structure multitâche d'un ensemble de réseaux neuronaux convolutifs afin de générer une seconde structure multitâche, ledit ensemble comprenant au moins un premier et un second réseau neuronal entraîné (4, 5), de même structure, et appropriés pour réaliser une tâche distincte, le procédé comprenant :
- une étape de comparaison (S1) par régression linéaire entre une première carte d'activation, générée par chaque première couche de convolution du premier réseau neuronal (4), et une seconde carte d'activation, générée par chaque seconde couche de convolution du second réseau neuronal (5), les première et seconde couches de convolution ayant la même profondeur ;
- une étape de sélection (S3) d'au moins une des couches de convolution du premier réseau neuronal (4) selon la valeur d'au moins un paramètre ;
- une étape de fusion (S4) de ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal (5) et,
- une étape de suppression (S5) de l'ensemble de couches de convolution du premier réseau neuronal (4) qui précède ladite couche sélectionnée. - Procédé selon la revendication 1, dans lequel l'étape de fusion (S4) entre les premier et second réseaux neuronaux convolutifs (4, 5) est réalisée de manière non supervisée.
- Procédé selon la revendication 1 ou 2, dans lequel l'étape de fusion (S4) entre les premier et second réseaux neuronaux convolutifs (4, 5) est réalisée par projection linéaire.
- Procédé selon l'une quelconque des revendications 1 à 3 précédentes, dans lequel la valeur dudit paramètre est déterminée selon les résultats de toutes les comparaisons réalisées.
- Procédé selon l'une quelconque des revendications 1 à 4 précédentes, dans lequel la valeur dudit paramètre est déterminée en fonction du temps de calcul à allouer à la seconde structure multitâche et/ou en fonction de la précision de calcul des cartes d'activation générées par la seconde structure.
- Programme d'ordinateur comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent l'ordinateur à réaliser les étapes de la gestion selon l'une des revendications 1 à 5 précédentes.
- Dispositif de gestion d'une première structure multitâche (2) d'un ensemble de réseaux neuronaux convolutifs afin de générer une seconde structure multitâche, ledit ensemble comprenant au moins un premier et un second réseau neuronal entraîné (4, 5), de même structure, et dans lequel chacun est capable d’exécuter une tâche distincte, le dispositif comprenant :
- des moyens de comparaison (6) capables de réaliser une comparaison par régression linéaire entre une première carte d'activation, générée par chaque première couche de convolution du premier réseau neuronal (4), et une seconde carte d'activation, générée par chaque seconde couche de convolution du second réseau neuronal (5), les première et seconde couches de convolution ayant la même profondeur ;
- des moyens de sélection (7) capables de sélectionner au moins une des couches de convolution du premier réseau neuronal (4) selon la valeur d'au moins un paramètre et,
- des moyens de calcul (8) capables de fusionner ladite couche sélectionnée avec la couche de convolution de même profondeur du second réseau neuronal (5) et de supprimer l'ensemble des couches de convolution du premier réseau neuronal (4) qui précède ladite couche sélectionnée. - Dispositif selon la revendication 7, dans lequel les moyens de calcul (8) sont capables de réaliser la fusion entre le premier et le second réseau neuronal convolutif (4, 5) de manière non supervisée.
- Dispositif selon la revendication 7 ou 8, dans lequel les moyens de calcul (8) sont capables de réaliser la fusion entre le premier et le second réseau neuronal convolutif (4, 5) par projection linéaire.
- Dispositif selon l'une quelconque des revendications 7 à 9 précédentes, dans lequel la valeur dudit paramètre est déterminée en fonction des résultats de toutes les comparaisons réalisées et/ou en fonction du temps de calcul à allouer à la seconde structure multitâche et/ou en fonction de la précision de calcul des cartes d'activation générées par la seconde structure.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2110644A FR3128045A1 (fr) | 2021-10-07 | 2021-10-07 | Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs |
FR2209934A FR3128015B1 (fr) | 2021-10-07 | 2022-09-29 | Système d’aide à la navigation d’un véhicule. |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2110644A FR3128045A1 (fr) | 2021-10-07 | 2021-10-07 | Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs |
FR2110644 | 2021-10-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3128045A1 true FR3128045A1 (fr) | 2023-04-14 |
Family
ID=81327661
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2110644A Pending FR3128045A1 (fr) | 2021-10-07 | 2021-10-07 | Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs |
FR2209934A Active FR3128015B1 (fr) | 2021-10-07 | 2022-09-29 | Système d’aide à la navigation d’un véhicule. |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2209934A Active FR3128015B1 (fr) | 2021-10-07 | 2022-09-29 | Système d’aide à la navigation d’un véhicule. |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3128045A1 (fr) |
-
2021
- 2021-10-07 FR FR2110644A patent/FR3128045A1/fr active Pending
-
2022
- 2022-09-29 FR FR2209934A patent/FR3128015B1/fr active Active
Non-Patent Citations (2)
Title |
---|
KOICHI ITO HIROYA KAWAI ET AL: "Merged Multi-CNN with Parameter Reduction for Face Attribute Estimation", 2019 INTERNATIONAL CONFERENCE ON BIOMETRICS (ICB), IEEE, 4 June 2019 (2019-06-04), pages 1 - 8, XP033709024, DOI: 10.1109/ICB45273.2019.8987397 * |
WU CHENG-EN ET AL: "Merging Well-Trained Deep CNN Models for Efficient Inference", 2020 ASIA-PACIFIC SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE (APSIPA ASC), 7 December 2020 (2020-12-07), pages 1594 - 1600, XP055952760, Retrieved from the Internet <URL:http://www.apsipa.org/proceedings/2020/pdfs/0001594.pdf> * |
Also Published As
Publication number | Publication date |
---|---|
FR3128015B1 (fr) | 2024-08-30 |
FR3128015A1 (fr) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0406074B1 (fr) | Procédé de segmentation du champ de mouvement d'une image pour le codage d'images vidéo | |
EP3292377A1 (fr) | Procédé, programme d'ordinateur et système pour la commande d'un déplacement d'un agent navigant dans un environnement organisé en réseau | |
FR2884008A1 (fr) | Systeme et procede de localisation de points d'interet dans une image d'objet mettant en oeuvre un reseau de neurones | |
CN112598045A (zh) | 训练神经网络的方法、图像识别方法及图像识别装置 | |
EP0692772A1 (fr) | Procédé et dispositif pour détecter des points clés situés sur le contour d'un objet | |
EP3953662A1 (fr) | Procede de definition d'un chemin | |
EP0514986B1 (fr) | Procédé d'apprentissage d'un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé | |
WO2022008605A1 (fr) | Dispositif électronique et procédé de traitement de données à base de réseaux génératifs inversibles, système électronique de détection et programme d'ordinateur associés | |
US11354796B2 (en) | Image identification and retrieval for component fault analysis | |
FR3085217A1 (fr) | Procede de determination de pose et d'identification d'une vue tridimensionnelle de visage | |
EP0449353B1 (fr) | Dispositif de traitement de données et procédé pour sélectionner des mots de données contenus dans un dictionnaire | |
CA2709180C (fr) | Procedes de mise a jour et d'apprentissage d'une carte auto-organisatrice | |
FR3128045A1 (fr) | Procédé de gestion d'une structure multitâche d'un ensemble de réseaux neuronaux convolutifs | |
WO2021009364A1 (fr) | Procédé d'identification de données aberrantes dans d'un jeu de données d'entrée acquises par au moins un capteur | |
FR3111216A1 (fr) | Procédé de génération d'un système d'aide à la décision et systèmes associés | |
EP3660748A1 (fr) | Procédé d'analyse d'un jeu de paramètres d'un réseau de neurones en vue d'obtenir une amélioration technique, par exemple un gain en mémoire | |
EP4202770A1 (fr) | Reseau de neurones avec generation a la volee des parametres du reseau | |
EP4099228A1 (fr) | Apprentissage automatique sans annotation ameliore par regroupements adaptatifs en ensemble ouvert de classes | |
EP4012620A1 (fr) | Méthode d'apprentissage automatique par transfert | |
FR2816793A1 (fr) | Dispositif de traitement d'information multimedia | |
EP4322061A1 (fr) | Dispositif électronique et procédé de traitement de données comportant au moins un modèle d'intelligence artificielle auto-adaptatif avec apprentissage local, système électronique et programme d'ordinateur associés | |
CA3104759A1 (fr) | Procede de modelisation pour le controle des resultats fournis par un reseau de neurones artificiels et autres procedes associes | |
Nguyen | ANALYSIS OF DEEP LEARNING-BASED SUPERRESOLUTION ON THE CLOUD | |
US20240273682A1 (en) | Conditional diffusion model for data-to-data translation | |
FR3113273A1 (fr) | Compression automatisée de réseaux de neurones pour la conduite autonome |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20230414 |
|
RX | Complete rejection |
Effective date: 20230920 |