FR3109004A1 - Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation. - Google Patents

Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation. Download PDF

Info

Publication number
FR3109004A1
FR3109004A1 FR2003279A FR2003279A FR3109004A1 FR 3109004 A1 FR3109004 A1 FR 3109004A1 FR 2003279 A FR2003279 A FR 2003279A FR 2003279 A FR2003279 A FR 2003279A FR 3109004 A1 FR3109004 A1 FR 3109004A1
Authority
FR
France
Prior art keywords
image
attraction
advertising
estimation method
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2003279A
Other languages
English (en)
Other versions
FR3109004B1 (fr
Inventor
Amaury FOURNIER
Joris TRUONG
Anthony BARRÉ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JCDECAUX SE, FR
Original Assignee
JCDecaux SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JCDecaux SE filed Critical JCDecaux SE
Priority to FR2003279A priority Critical patent/FR3109004B1/fr
Publication of FR3109004A1 publication Critical patent/FR3109004A1/fr
Application granted granted Critical
Publication of FR3109004B1 publication Critical patent/FR3109004B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • G06Q30/0246Traffic

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Un procédé d’estimation (10) de l’impact d’une image publicitaire (14) comprend l’exécution d’un premier algorithme d’intelligence artificielle (AI1) pour déterminer des zones d’attraction (22) de l’image. Les zones d’attraction étant définies comme des zones l’image regardées pendant un intervalle de temps (T1) prédéterminé lorsque l’image est soumise à un utilisateur. Chaque zone d’attraction a un coefficient d’attraction (CA) associé déterminé en fonction de la probabilité que cette zone soit susceptible d’être regardée par l’utilisateur pendant l’intervalle de temps. Un procédé (50) et un ensemble d’affichage (1) sont aussi présentés.Figure 3

Description

PROCÉDÉ D’ESTIMATION DE L’IMPACT D’UNE IMAGE PUBLICITAIRE, ET PROCÉDÉ ET ENSEMBLE D’AFFICHAGE UTILISANT UN TEL PROCÉDÉ D’ESTIMATION.
La présente description relève du domaine des procédés d’estimation d’impact d’images publicitaires, et des procédés et ensembles d’affichage utilisant un tel procédé d’estimation.
Arrière-plan technologique
L’impact d’une campagne publicitaire dépend de la population ayant été en contact visuel avec elle et de la composition de cette population en termes de segments de clientèle. Cet impact dépend également de l’impression laissée par l’image publicitaire sur ladite population.
Pour déterminer l’impact de l’image publicitaire, on peut faire appel à des organismes de sondages. Ces organismes viennent questionner directement la population qui a été en contact visuel avec l’image pour qu’ils expriment leur ressenti par exemple.
Les méthodes actuelles de sondage direct auprès de la population en contact visuel avec l’image publicitaire requièrent un effort et temps conséquent. Elles ne permettent pas d’ajustement du contenu de la publicité en fonction des résultats avant ou pendant que la campagne publicitaire contenant l’image se déroule. Au mieux, elles permettent un ajustement futur en fonction des résultats des sondages passés.
La présente description a notamment pour but de pallier cet inconvénient.
Résumé
À cet effet, il est proposé un procédé d’estimation de l’impact d’une campagne publicitaire comprenant au moins une image publicitaire, le procédé comprenant :
- exécuter, par une unité centrale, un premier algorithme d’intelligence artificielle utilisant un premier ensemble d’images d’entrainement, l’exécution comprenant :
- la détermination de zones d’attraction de la dite au moins une image, les zones d’attraction étant définies comme des zones de ladite au moins une image regardées pendant un intervalle de temps prédéterminé lorsque l’image est soumise à un utilisateur, chaque zone d’attraction ayant un coefficient d’attraction associé déterminé en fonction de la probabilité que cette zone soit susceptible d’être regardée par l’utilisateur pendant l’intervalle de temps.
Un tel procédé permet de déterminer l’impact d’une image publicitaire avant-même son affichage. Il est ainsi possible d’optimiser une campagne publicitaire contenant l’image publicitaire en modifiant cette image pour maximiser son impact, avant son affichage.
Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre. Elles peuvent être mises en œuvre indépendamment les unes des autres ou en combinaison les unes avec les autres :
- la sélection d’au moins une zone d’attraction principale (24) parmi les zones d’attraction détectées qui ont un coefficient d’attraction au-dessus d’une valeur seuil prédéterminée.
- l’exécution par l’unité centrale d’un deuxième algorithme d’intelligence artificielle comprenant, dans ladite au moins une zone d’attraction principale, l’identification d’au moins un objet, le deuxième algorithme d’intelligence artificielle utilisant un deuxième ensemble d’images d’entrainement.
- le premier algorithme d’intelligence artificielle et le deuxième algorithme d’intelligence artificielle font partie d’un seul algorithme d’intelligence artificielle, de sorte que l’identification dudit au moins un objet est concomitant à la détermination de zones d’attraction de la dite au moins une image.
- l’exécution, par l’unité centrale, d’un troisième algorithme d’intelligence artificielle utilisant un troisième ensemble d’images d’entrainement comprenant :
- l’obtention d’un ensemble de paramètres représentatifs de ladite au moins une image de publicité ; et
- la détermination d’au moins un score d’impact de campagne à partir de l’ensemble de paramètres représentatifs de ladite au moins une image.
- réitérer les étapes suivantes:
* la modification d’au moins un attribut dudit objet de manière à obtenir au moins une image de publicité modifiée; et
* l’exécution du troisième algorithme d’intelligence artificielle sur la base de ladite au moins une image de publicité modifiée,
jusqu’à identifier une image de publicité modifiée ayant ledit au moins un score d’impact maximum par rapport à celui des autres images de publicité modifiées, et sélectionner cette image comme image optimisée.
- la réitération des étapes se fait jusqu’à minimiser une différence entre ledit au moins un score d’impact et au moins un paramètre de succès désiré afin d’identifier une image de publicité modifiée ayant ledit au moins un score d’impact maximum par rapport à celui des aux autres images de publicité modifiées.
- dans lequel le premier ensemble d’images d’entrainement comprend des images préalablement cartographiées en zones d’attraction.
- dans lequel la détermination zones d’attraction et de leurs coefficients d’attraction associés est obtenue en soumettant chaque image du premier ensemble d’images d’entrainement à au moins un utilisateur et en suivant sa réponse.
- on détecte automatiquement le regard de l’utilisateur, et le regard de l’utilisateur est utilisé pour déterminer pour déterminer les zones de coefficients d’attraction dans le premier ensemble d’images d’entrainement.
- l’utilisateur est sondé sur son processus de visualisation pour chaque image du premier ensemble d’images d’entrainement afin de déterminer les zones de coefficients d’attraction pour chacune de ces images.
- l’affichage d’une cartographie des zones d’attraction en fonction de leur coefficient d’attraction.
- ledit au moins un attribut dudit au moins un objet est obtenu en même temps que l’identification dudit au moins un l’objet par le deuxième algorithme d’intelligence artificielle.
- ledit au moins un attribut dudit au moins un objet est sélectionné parmi une liste d’attributs enregistrée dans une base de données accessible par l’unité centrale.
- la modification d’au moins un desdits au moins un attribut dudit au moins un objet se fait en fonction dudit au moins un score d’impact de campagne déterminé par le troisième algorithme d’intelligence artificielle sur la base de l’image précédente modifiée dans la réitération.
- ledit au moins un attribut dudit au moins un objet comprend au moins un de : couleur de l’objet, taille de l’objet, forme de l’objet, et/ou orientation de l’objet.
- le troisième ensemble d’images d’entrainement comprend des campagnes publicitaires passées.
- lequel les scores d’impact des campagnes publicitaires passées sont issus de sondages réalisés sur des campagnes différentes de ladite campagne publicitaire, ou par l’analyse de revenus passés liés aux campagnes passées.
- l’ensemble de paramètres représentatifs de ladite au moins une image inclut au moins un de :
* identification et/ou dénombrement et/ou positionnement des couleurs de l’image ;
* positionnement et/ou taille et/ou nombre et/ou âge de femmes et/ou hommes et/ou enfants présents sur l’image ; et
* positionnement et/ou taille et/ou nombre d’animaux ou d’objets présents sur l’image.
* ledit au moins un score d’impact comprend au moins un de :
* reconnaissance de la marque ;
* attribution de la marque ;
* impression laissée par la campagne publicitaire ;
* probabilité de visite magasin suite au visionnage de la campagne publicitaire ; et
* revenus générés estimés dus au visionnage de la campagne publicitaire.
* la détermination dudit au moins un score d’impact inclut la prise en compte de l’ensemble de paramètres représentatifs du produit objet de la publicité.
- l’ensemble de paramètres représentatifs du produit objet de la publicité comprenant au moins un de :
- nature du produit objet de la publicité,
- visuel associé à la marque du produit objet de la publicité, et
- secteur associé au produit objet de la publicité.
- l’algorithme d’intelligence artificielle comprend un algorithme d’apprentissage supervisé, et en particulier, l’obtention de l’ensemble de paramètres représentatifs de ladite au moins une image à partir d’un ensemble d’images d’entrainement est faite par un réseau neuronal convolutif, ou un réseau résiduel, ou un groupe de géométrie visuelle.
- l’algorithme d’apprentissage supervisé utilise un réseau neuronal ayant au moins deux couches de neurones sigmoïdes, et plus particulièrement, le réseau neuronal a plusieurs entrées connectés à des nœuds d’entrée dans une couche d’entrée , la première couche des neurones sigmoïdes ayant une pluralité de neurones sigmoïdes connectés chacun à chaque nœud d’entrée, la deuxième couche des neurones sigmoïdes ayant une pluralité de neurones sigmoïdes, et une couche de sortie, ayant par exemple un nœud de sortie connecté à tous les neurones sigmoïdes.
- ladite au moins une image de publicité est une vidéo.
Selon un autre aspect, il est proposé un procédé d’affichage d’une campagne publicitaire comprenant le procédé d’estimation, comprenant de plus : l’affichage de la campagne publicitaire sur au moins un dispositif d’affichage, et de préférence dans une zone ouverte au public.
Selon un autre aspect, il est proposé un ensemble d’affichage d’une campagne de publicité comprenant :
- au moins un dispositif d’affichage publicitaire ;
- une base de donnée incluant au moins une image publicitaire ; et
- au moins une unité centrale connectée à la base de données et permettant d’exécuter le procédé d’estimation, ladite au moins une unité centrale communiquant avec la base de données et avec ledit dispositif d’affichage publicitaire, ladite au moins une unité centrale étant adaptée pour envoyer ladite image optimisée audit dispositif d’affichage publicitaire.
D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
Fig. 1
La figure 1 montre un exemple de zone ouverte au public ayant un dispositif d’affichage de publicité ;
Fig. 2
La figure 2 montre une partie d’un dispositif d’affichage;
Fig. 3
La figure 3 illustre un ensemble de procédés d’optimisation d’une image publicitaire ;
Fig. 4
La figure 4 est un schéma montrant un réseau de neurones utilisable dans les procédés de la figure 3 ;
Fig. 5
La figure 5 illustre le fonctionnement du réseau neuronal de la figure 4 ;
Fig. 6
La figure 6 illustre un exemple d’ensemble d’affichage ; et
Fig. 7
La figure 7 illustre certains composants logiciels de l’ensemble de la figure 6.
Les dessins et la description ci-après pourront non seulement servir à mieux faire comprendre la présente divulgation, mais aussi contribuer à sa définition, le cas échéant.
En référence à la figure 1 , unezone Zouverte au public (voie publique, gare, aéroport, espace commercial ou autre) comprend une pluralité dedispositifs d’affichages 12 (ici panneaux). Les dispositifs d’affichage 12 peuvent comporter des affiches sur support physique (papier ou synthétique) ou être des écrans digitaux, par exemple de type LCD, plasma ou autre.
Chaque dispositif d’affichage 12 diffuse au moins uneimage publicitaire 14faisant partie d’une campagne publicitaire. La campagne publicitaire peut comprendre plusieurs publicités qui sont affichées en alternance, sur une période de temps donné. Par exemple, un changement de publicité toutes les 30 secondes, ou autre. Chaque dispositif d’affichage 12 pourrait montrer une publicité de façon statique, par exemple une image, ou de façon dynamique, par exemple sous forme devidéo 15. La ou les publicités 14 qui composent la campagne publicitaire ont été sélectionnée(s) selon le procédé qui va être décrit ci-dessous. Une campagne publicitaire est généralement faite au soutien d’une marque, ou d’un ensemble de marques.
En référence aux figures 2 et 3, unprocédé d’estimation 10de l’image publicitaire à afficher dans la zone Z ouverte au public va être décrit. Le procédé d’estimation 10 permet de modifier les images 14 (ou vidéo 15) de la campagne publicitaire et de quantifier un impact de l’image publicitaire 14 avant sa diffusion sur les dispositifs d’affichage 12.
En référence à la figure 2 , le procédé d’estimation 10 est exécuté par uneunité centrale 19. L’unité centrale 19 est typiquement logée dans unordinateur 19a, ou bien dans un serveur sur lequel un utilisateur peut se connecter, éventuellement à distance. L’utilisateur peut accéder à uneinterface 1 1, notamment une interface graphique, par exemple de type interface web, ou application, permettant de rentrer des données ou paramètres pertinents pour l’évaluation de l’impact de l’image 14, mais aussi de visualiser le résultat, par l’intermédiaire d’un score d’impact généré. L’unité centrale 19 est en communication avec unebase de données 18sur laquelle est stockée une version numérique de l’image 14 et/ou la vidéo 15.
En référence à la figure 3 , le procédé d’estimation 10 de l’impact de l’image publicitaire 14 comprend unpremier algorithme d’intelligence artificielle AI1qui analyse le contenu de l’image 14 que l’on souhaite optimiser. Le but de ce premier algorithme AI1 est de déterminer quelles sont les zones de l’image qui sont regardées en premier par un utilisateur lorsqu’il découvre l’image. Les zones qui attirent l’œil de l’utilisateur seront celles qui devraient avoir un plus grand impact publicitaire auprès de l’utilisateur.
Le premier algorithme d’intelligence artificielle AI1 utilise unpremier ensemble d’images d’entrainement EE1afin de déterminer deszones d’attraction 22de l’image 14. Les zones d’attraction 22 sont des zones regardées pendant unintervalle de temps T1prédéterminé lorsque l’image est soumise à un utilisateur. Chaque zone d’attraction 22 a uncoefficient d’attraction CAassocié déterminé en fonction de la probabilité que cette zone soit susceptible d’être regardée par l’utilisateur pendant l’intervalle de temps T1.
L’intervalle de temps T1 peut correspondre temps nécessaire aux premières impressions pour se former, ou bien au temps réel d’affichage de l’image 14 sur le dispositif d’affichage 12. Le temps T1 peut varier de quelques millisecondes à quelques secondes, par exemple 3 secondes, ou bien 5 millisecondes. Le temps T1 est prédéterminé en ce qu’il est déterminé avant l’exécution de l’algorithme et est constant pendant l’exécution de l’algorithme.
L’exécution de l’algorithme d’intelligence artificielle AI1 permet de déterminer quelles zones et ultimement quels objets composant l’image 14 sont ceux qui statistiquement ont le plus d’attraction vis-à-vis de l’œil de l’utilisateur. Dans l’exemple de la figure 3, l’image 14 comprend essentiellement deux objets, une étoile et un losange, disposés à deux endroits différents de l’image 14.
La cartographie par zones d’attraction 22 permet de détecter des zones d’attractions 22 et de les quantifier via les coefficients d’attraction CA associées. Une visualisation des coefficients d’attraction CA pour l’image 14 par niveaux de gris est montrée en tant qu’exemple à la figure 3. On remarque que les objets « étoile » et « losange » sont dans des zones avec un niveau de gris, ainsi exprimant un coefficient d’attraction plus fort que le reste de l’image 14.
La détermination des zones d’attractions 22 et de leurs coefficients d’attraction CA associés se fait grâce au premier ensemble d’images d’entrainement EE1. Les données d’entrainement comprennent des images préalablement cartographiées en zones de coefficients d’attraction. Ces images peuvent êtres des images de publicité ou pas, des images simples (1 ou 2 objets visibles) ou complexes de par la multitude d’objets présents, couleurs ou agencement.
Selon un mode de réalisation, la détermination des zones d’attraction 22 et de leurs coefficients d’attraction CA associés dans le premier ensemble d’images d’entrainement EE1 est obtenue en soumettant chaque image du premier ensemble d’images d’entrainement EE1 à un utilisateur et en suivant sa réponse sensorielle.
Par exemple, le regard de l’utilisateur est utilisé pour déterminer les zones d’attraction pour chaque image du premier ensemble d’images d’entrainement EE1. L’utilisateur pourrait être mis dans une pièce équipée de caméras qui suivraient le mouvement de ses yeux pendant l’intervalle de temps T1. Ainsi, chaque zone de l’image sur laquelle l’œil de l’utilisateur s’attarde pourrait être répertoriée.
Selon un autre exemple, l’utilisateur est sondé sur son processus de visualisation pour chaque image du premier ensemble d’images d’entrainement EE1 afin de déterminer les zones d’attraction 22 pour chacune de ces images. Par exemple, on demande à l’utilisateur de dire quelles zones il a regardé en premier, ou bien de quelles zones il se souvient après avoir été exposé à l’image pendant l’intervalle de temps T1. Selon un autre exemple, l’image est visualisée via un écran sur lequel l’utilisateur peut cliquer pour indiquer les zones de l’image qu’il regarde en premier.
Le processus d’attribution des coefficients d’attraction CA en fonction des zones d’attraction 22 pourrait être fait de la manière suivante. Plusieurs personnes seraient soumises au processus de visualisation et réponse sensorielle. Le plus grand nombre de fois qu’une même zone serait identifiée, correspondrait à un plus grand coefficient d’attraction CA. D’autres facteurs pourraient, à place ou en addition, être utilisés pour déterminer les coefficients d’attraction. Par exemple, un sondage direct auprès de la personne pour savoir le classement des zones les plus regardées pendant l’intervalle T1 pourrait être utilisé pour pondérer une zone plus qu’une autre. Selon un autre exemple, le temps de visualisation de chaque zone pourrait être utilisé pour pondérer une zone plus qu’une autre. D’autres techniques sont envisageables.
Le procédé d’estimation peut comprendre de l’affichage sur un écran, par exemple l’interface graphique 11, d’une cartographie des zones d’attraction 22 en fonction de leur coefficient d’attraction CA. Cette cartographie peut être faite par niveaux de gris, comme illustré à la figure 3.
Le découpage spatial de l’image en zones d’attraction 22 pourrait être fait de façon fixe ou dynamique. S’il est fait de manière fixe, on peut considérer que chaque image est découpée de façon virtuelle en une série de cases de tailles fixes (comme illustré à la figure 3 par exemple). Selon une méthode dynamique, il n’y a pas de zones géographiques prédécoupées, mais la détermination d’une zone peut se faire en suivant la réponse sensorielle de l’utilisateur. Le recoupement de ces zones pourrait alors fournir la cartographie des zones d’attraction par coefficient d’attraction pour une image donnée.
Le procédé d’estimation 10 peut comprendre aussi la sélection d’une ou plusieurszones d’attraction principales 24parmi les zones d’attraction 22 qui ont un coefficient d’attraction au-dessus d’unevaleur seuil prédéterminée CS. Cette valeur seuil des coefficients d’attraction CA permet d’identifier quelles zones 22 de l’image 14 sont de plus grande importance par rapport à l’attraction pour l’utilisateur. Par exemple, si les coefficients d’attraction sont notés sur une échelle de 1 à 100, il peut être décidé que la valeur seuil CS est de 80, et que seuls les zones d’attraction 22 qui ont un coefficient supérieur ou égal à 80 seront sélectionnées comme zones d’attraction principales 24. Dans l’exemple de la figure 3, pour l’image de publicité 14, il a été déterminé que les zones correspondant à l’étoile remplissaient ce critère, et étaient donc des zones d’attraction principales 24. Il se pourrait qu’il y ait plus qu’une zone d’attraction principale. Par exemple, la zone du losange pourrait être zone d’attraction principale. Il se pourrait aussi que dans une même zone d’attraction principale il y ait plus qu’un objet.
Le procédé d’estimation 10 peut comprendre de plus undeuxième algorithme d’intelligence artificielle AI2comprenant l’identification d’au moins unobjet 28dans chacune des zones d’attraction principales 24.L’identification comprend la détermination de la présence, mais aussi la détermination de la qualité de l’objet (titre : marque ? slogan ?, produit : parfum ? voiture ?). Dans l’exemple de la figure 3, l’objet 28 identifié par le deuxième algorithme d’intelligence artificielle AI2 dans la zone d’attraction principale 24 est une étoile.
Le deuxième algorithme d’intelligence artificielle AI2 est exécuté par une unité centrale qui peut être l’unité centrale 19, et utilise undeuxième ensemble d’images d’entrainement EE2. Selon un mode de réalisation, le deuxième ensemble d’images d’entrainement EE2 est identique au premier ensemble d’images d’entrainement EE1. Selon un autre mode de réalisation, le deuxième ensemble d’images d’entrainement EE2 est au moins partiellement différent du premier ensemble d’images d’entrainement EE1. Le deuxième ensemble d’images d’entrainement EE2 peut contenir des images publicitaires ou bien des images d’ordre général, non publicitaires. Les images du deuxième ensemble d’images d’entrainement EE2 peuvent être des images simples, par exemple une image de chat avec une étiquette associée « chat », de voiture etc.
Selon un mode de réalisation, le premier algorithme d’intelligence artificielle AI1 et le deuxième algorithme d’intelligence artificielle AI2 font partie d’un seul algorithme d’intelligence artificielle, de sorte que l’identification dudit au moins un objet 28 est concomitant à la détermination de zones d’attraction principales 24 de ladite au moins une image 14.
Selon un mode de réalisation, le deuxième algorithme d’intelligence artificielle AI2 n’est mis en œuvre que sur les zones d’attraction principales 24 identifiées. Il se pourrait cependant que le deuxième algorithme d’intelligence artificielle AI2 comprenne de plus l’identification d’au moins un objet 28 dans les zones d’attraction 22 qui ne sont pas aussi des zones d’attraction principales 24.
Selon un mode de réalisation, le deuxième algorithme d’intelligence artificielle AI2 permet aussi d’obtenir avec l’identification de l’objet 28, la détermination d’un ou plusieursattributs 32de l’objet 28. Selon un autre mode de réalisation, le ou les attributs 32 de l’objet 28 sont sélectionnés parmi une liste d’attributs enregistrée dans une base de données accessible par l’unité centrale (par exemple la base de données 18 pour l’unité centrale 19).
Les attributs 32 de l’objet 28 peuvent être de façon non exhaustive : la forme de l’objet, la couleur de l’objet, la taille de l’objet, et/ou orientation de l’objet. Les attributs 32 sont déterminés afin de pouvoir les modifier dans une étape ultérieure pour permettre d’optimiser l’impact de l’image publicitaire 14. Ainsi, si une voiture est détectée dans une zone d’attraction principale 24, il peut être opportun d’optimiser (en terme d’attraction) sa couleur et/ou forme, par exemple, pour augmenter son impact envers le public.
Ainsi, selon un mode de réalisation, dans une étape suivante à l’identification de l’objet 28, on modifie au moins un des attributs 32 de l’objet afin d’obtenir uneimage modifiée 29. Dans l’exemple de la figure 3, seule la couleur de l’étoile 28 a été modifiée, le reste de l’image étant inchangée.
Une fois qu’une nouvelle image est obtenue, il va être évalué l’impact de cette image modifiée 29 grâce à untroisième algorithme d’intelligence artificielle AI3 qui va déterminer unscore d’impact SI. Cet impact va être comparé à l’impact de l’image non modifiée 14, mais aussi à celui d’autres images modifiées, afin de déterminer quelle image aura le plus d’impact, via le calcul de différents scores d’impact SI.
De façon non exhaustive, le ou les scores d’impact SI obtenus par l’algorithme AI3 peuvent être : la reconnaissance de la marque dont l’objet de la publicité est objet (e.g. est-ce que la personne se souvient d’avoir vu la marque ?), et/ou l’attribution de la marque (e.g. est-ce que la personne reconnait la marque associée à la publicité même sans logo la marque ?), et/ou l’impression laissée par l’image (e.g. bonne ? mauvaise ? douceur ? légèreté ? en accord avec les valeurs de la marque ?), et/ou probabilité de visite magasin suite au visionnage de la publicité, et/ou revenus générés estimés dus au visionnage de l’image publicitaire.
Le troisième algorithme d’intelligence artificielle AI3 va être opéré de façon itérative : chaque fois que l’image 14 est modifiée par la modification d’un ou plusieurs attributs 32 de l’objet 28, un nouveau score d’impact SI va être calculé. Une série d’images modifiées et d’impact associé est ainsi obtenue. Uneimage optimisée 30est alors sélectionnée. L’image optimisée 30 est l’image qui aura récolté le plus grand score d’impact SI. Elle sera celle qui fera partie de la campagne publicitaire affichée.
Selon un mode de réalisation, la modification du ou des attributs 32 de l’objet 28 pour obtenir une nouvelles image modifiée 29 se fait en prenant séquentiellement un attribut 32 d’une liste d’attributs enregistrée dans une base de données.
Selon un autre mode de réalisation, la détermination de l’ (ou les) attribut 32 à modifier à l’itération suivante se fait en fonction du (ou des) score d’impact SI déterminé par le troisième algorithme d’intelligence artificielle AI3 sur la base de l’image modifiée de l’itération précédente. La détermination de l’image ayant le plus d’impact peut alors se faire par convergence, sans qu’il soit nécessaire d’évaluer chaque attribut d’une liste d’attributs.
Il se peut que plusieurs types d’attributs soient changés, en même temps ou séquentiellement. Par exemple, il se peut que la combinaison d’attributs « voiture blanche + vue de perspective » ait un score d’impact que l’attribut « voiture blanche » ou « vue de perspective » seuls.
Le troisième algorithme d’intelligence artificielle AI3 fonctionne comme suit.
Dans unepremière étape 4 2 ,l’image 14 (ou l’image modifiée 29) est analysée afin de déterminer ses composantes (e.g. formes, couleurs, mots) et possiblement les relations entre ses composantes. Le type de paramètres à extraire peut être fourni à l’algorithme, ou bien l’algorithme peut les déterminer lui-même par apprentissage. De façon non exhaustive, les paramètres peuvent être : les différentes couleurs de l’image (par leur simple identification et/ou dénombrement et/ou positionnement à l’intérieur de l’image), et/ou les humains présents (par leur positionnement et/ou taille et/ou nombre et/ou âge de femmes et/ou hommes et/ou enfants présents sur l’image), et/ou animaux présents dans l’image (par leur positionnement et/ou taille et/ou nombre), et/ou objets présents dans l’image (par leur positionnement et/ou taille et/ou nombre). Le traitement de l’image peut permettre d’identifier plus ou moins de paramètres que ceux décrits ci-dessous.
Le traitement de l’image du troisième algorithme d’intelligence artificielle AI3 se fait à partir de données d’entrainement, i.e.troisième ensemble d’images d’entrainement EE3, qui peut être le même ou un autre que les premier et deuxième ensemble d’images d’entrainement EE1, EE2.
L’ensemble de données d’entrainement comprend des images et possiblement des images de campagnes passées. Selon un mode de réalisation, l’algorithme à partir des images de campagnes passées détermine lui-même les paramètres représentatifs de l’image. Selon un autre mode de réalisation, des paramètres représentatifs associés aux campagnes passées font parties des données d’entrainement fournies à l’algorithme afin qu’il détermine les paramètres représentatifs de l’image. Par exemple, des images contenant des chats peuvent faire partie des données d’entrainement, et le paramètre « présence de chat » peut être alors associé comme paramètre d’entrainement (fourni ou bien déduit par l’algorithme). Ainsi, une image contenant notamment des chats (par exemple une publicité pour litière de chat) analysée par le troisième algorithme d’intelligence artificielle AI3 aura le paramètre représentatif « présence de chat » activé. Selon un mode de réalisation, le paramètre représentatif peut contenir une valeur associée. Par exemple, si trois chats sont détectés sur l’image ou si l’image du chat est de grande taille, le paramètre représentatif « présence de chat » peut avoir une valeur associée plus grande que s’il était associé à une publicité contenant une petite image de chat.
Selon un mode de réalisation, le troisième ensemble d’images d’entrainement EE3 est mis à jour au fil du temps en fonction des nouvelles campagnes publicitaires diffusées.
Dans unedeuxième étape 4 4dutroisième algorithme d’intelligence artificielle AI3qui peut être combinée à la première, on détermine un ou plusieurs scores d’impact SI de l’image 14 (ou 29) à partir des un ou plusieurs paramètres représentatifs. Le ou les scores d’impacts SI peuvent permettre de quantifier le succès potentiel de l’image publicitaire. Un algorithme d’apprentissage peut être utilisé pour obtenir le ou les scores d’impact SI.
La détermination du ou des scores d’impact de l’image peut donc se faire en utilisant des images de publicité passées pour lesquelles des scores d’impact sont connus. Ces publicités peuvent ou pas contenir les mêmes images que celles utilisées comme images d’entrainement pour le traitement d’image, i.e. le troisième ensemble d’images d’entrainement EE3. Les scores d’impact des publicités passées peuvent avoir été obtenus par sondage direct auprès de populations ayant été en contact visuel avec ces publicités passées. Ils peuvent aussi avoir été obtenus par l’analyse de revenus passés liés à la publicité diffusée. Selon un mode de réalisation, l’ensemble des données des publicités passées et de leur(s) paramètre(s) d’impact associé(s) est mis à jour au fil du temps en fonction des nouvelles campagnes de publicités diffusées.
De façon non exhaustive, le ou les scores d’impact SI obtenus par l’algorithme AI3 peuvent être : la reconnaissance de la marque (e.g. est-ce que la personne se souvient d’avoir vu la marque ?), et/ou l’attribution de la marque (e.g. est-ce que la personne reconnait la marque associée à la publicité même sans logo la marque ?), et/ou l’impression laissée par l’image (e.g. bonne ? mauvaise ? douceur ? légèreté ? en accord avec les valeurs de la marque ?), et/ou probabilité de visite magasin suite au visionnage de la publicité, et/ou revenus générés estimés dus au visionnage de la campagne publicitaire, et/ou revenus additionnels de ventes générées par cette publicité, et/ou notoriété additionnelle générée suite à la diffusion de la publicité.
Si plusieurs scores d’impact SI sont générés, l’algorithme AI3 peut faire une moyenne pondérée de ces paramètres. La pondération peut être effectuée en fonction d’une direction à donner à la campagne. Par exemple, si une campagne a pour public cible les femmes et que les scores d’impact sont l’impression de douceur laissée par l’image et la reconnaissance de la marque, un poids plus important pourra être accordé au paramètre « impression de douceur laissée par l’image » qu’au paramètre « reconnaissance de la marque ».
Le ou les scores d’impacts SI peuvent aussi être calculés avec des données additionnelles aux paramètres issus du traitement d’image de la publicité. Par exemple, selon un mode de réalisation, l’algorithme prend aussi en compte un ou plusieurs paramètres représentatifs du produit objet de la publicité et/ou de la marque associée à la publicité. Ceci peut comprendre par exemple le type de produit objet de la publicité, et/ou le visuel associé à la marque du produit objet de la publicité, et/ou le secteur associé au produit objet de la publicité. Ce ou ces paramètres représentatifs du produit objet de la publicité constituent alors des paramètres pris en compte par l’algorithme d’apprentissage permettant d’obtenir le ou les scores d’impact de la campagne.
Les étapes de modification d’un (ou plusieurs) attribut 32 de l’objet 28 de manière à obtenir l’image modifiée 29 et d’exécution du troisième algorithme d’intelligence artificielle AI3 sur la base de l’image modifiée 29 sont réitérés pour chaque image modifiée 29 jusqu’à déterminer quelle image modifiée 29 a un score d’impact SI le plus important. Cette image sera sélectionnée comme étant uneimage optimisée 30.
Selon un mode de réalisation, les images sont modifiées pour toutes les combinaisons d’attributs possibles (par exemple en les prenant d’une base de données) et leur score d’impact associé est déterminé. Une fois tous les scores obtenus, l’image ayant le plus haut score est sélectionné comme l’image optimisée. Cette image sera celle qui sera préférentiellement diffusée.
Selon un mode de réalisation, la sélection de l’image optimisée 30 se fait par la comparaisons du ou des scores d’impact PI avec un ou desparamètres de succès PSdésirés. Les paramètres de succès peuvent PS être établis en fonction de succès de campagnes publicitaires similaires passées ou bien de façon arbitraire. Il peut y avoir autant de paramètres de succès PS que de scores d’impacts. Selon un mode de réalisation, si plusieurs scores d’impact sont calculés pour chaque image, une moyenne pondérée des scores d’impact SI est effectuée avant la comparaison avec un paramètre de succès global. Selon un autre mode de réalisation, chaque score d’impact PI est comparé à un paramètre de succès PS associé.
Une différence entre le score d’impact PI résultant pour chaque image modifiée 29 et le (ou les) paramètre de succès PS désiré est minimisée. Une fois cette différence minimisée, l’image optimisée 30 est sélectionnée. L’image optimisée 30 est l’image pour laquelle le score d’impact SI associé minimise la différence avec le paramètre de succès PS.
Ainsi, et en référence aux figures 4 et 5 , un, plusieurs ou tous les algorithmes d’intelligence artificielle AI1, AI2, AI3 décrits ci-dessus peuvent comprendre un algorithme d’apprentissage supervisé (supervised learning), et en particulier de façon non exhaustive, un algorithme utilisant un réseau neuronal convolutif (convolutional neural network) un réseau résiduel (residual network), ou un groupe de géométrie visuelle (visual geometry group).
Dans un mode de réalisation, le (ou les) algorithme d’intelligence artificielle AI1, AI2, AI3 peut comprendre unréseau neuronal 117ayant, dans cet exemple, deuxcouches 119, 120de neurones sigmoïdes. Plus particulièrement, le réseau neuronal 117 peut avoir :
- plusieurs entrées connectés auxnœuds d’entrée 122-126dans unecouche d’entrée 118(il y a 5 entrées et nœuds d’entrée dans l’exemple des figures 4 et 5, mais ce nombre peut varier d’un mode de réalisation à l’autre),
- lapremière couche 119des neurones sigmoïdes, ayant un certain nombre deneurones sigmoïdes 127(par exemple 7 neurones sigmoïdes 127) connectés chacun à chaque nœud d’entrée 122-126,
- ladeuxième couche 120des neurones sigmoïdes, ayant un certain nombre deneurones sigmoïdes 128(par exemple 3 neurones sigmoïdes 128) connectés chacun à chaque neurones sigmoïde 127,
-unecouche de sortie 121, ayant par exemple un nœud de sortie 129 connecté à tous les neurones sigmoïdes 128.
Le réseau de neurones 117 peut avoir un taux d’apprentissage de 0,1 et une valeur Gamma de 1, par exemple. Toutes les données d’entrée et de sortie peuvent être des chiffres normalisés compris entre 0 et 1.
Le réseau de neurones 117 pourrait avoir plus que deux couches. Le nombre de couches pourrait être utilisé comme paramètre pour la détermination de la précision de l’algorithme.
Unprocédé d’affichage 50utilisant le procédé d’estimation 10 ci-dessus comprend les étapes décrites ci-dessus et uneétape additionnelle d’affichage 52de l’image optimisée 30 (ou vidéo optimisée). Selon un mode de réalisation, l’affichage se fait dans la zone 10 ouverte au public. Selon un mode de réalisation, la zone 10 ouverte au public et/ou le dispositif d’affichage 12 sélectionné pour l’affichage est déterminée en fonction d’au moins un paramètre démographique associé, par exemple : nombre de personnes passant dans la zone (i.e. passants) par période de temps donnée, genre des passants (homme/femme), âge des passants (au moins par tranches d’âge), activés et/ou passe-temps des passants, et catégorie socio-professionnelle des passants.
Afin d’exécuter le procédé d’affichage 50 ci-dessus, un dispositif d’affichage comprend : au moins un des dispositifs d’affichage publicitaire (e.g. panneaux publicitaires 12) qui sont destinés à afficher l’image publicitaire, la base de donnée 18 incluant au moins une image publicitaire potentielle (éventuellement à modifier jusqu’à la détermination de la campagne publicitaire à afficher), et l’unité centrale 19 permettant d’exécuter le procédé d’estimation 10 décrit ci-dessus.
En référence à la figure 6 , un exemple d’ensemble 1 comprend au moins un des dispositifs d’affichage publicitaire 12, une base de donnée, telle que la base de données 18, incluant au moins une image publicitaire potentielle, et l’unité centrale 19 d’exécuter le procédé d’estimation 10 décrit ci-dessous afin de déterminer l’image publicitaire à afficher en fonction des au moins un score d’impact SI calculés.
Lesdits au moins un des dispositifs d’affichage publicitaire 12 peut inclure un ou plusieurs dispositifs d’affichage numériques D FR et/ou un ou plusieurs dispositifs d’affichage 12 à affiche papier 3 (P FR).
Lorsque les dispositifs d’affichage 12 sont des dispositifs d’affichage numériques 2 (D FR), ils peuvent inclure un lecteur 2a (c'est-à-dire un ordinateur avec un processeur et une mémoire de masse) contrôlant un écran électronique 2b tel qu’un écran électronique de type LED ou LCD, ou tout autre type connu d’écran électroniquement adressable. Les contenus joués par lecteur 2a peuvent être des images, des films, des pages web ou tout autre type de contenus numériques pouvant être affichés sur l’écran électronique 2b.
Les dispositifs d’affichage 12 à affiche papier 3 (P FR) peuvent être rétroéclairés ou non, à affiches fixes ou mobiles et les affiches peuvent être des feuilles de papier ou toute feuille synthétique appropriée.
Un ensemble d’affichage publicitaire 1 peut comprendre de plus au moins un serveur d’allocation 4 (SERV 1) programmé pour recevoir des données de campagne concernant des campagnes de publicité à attribuer à chaque dispositifs d’affichage 12 et une chronologie d’affichage sur ledit ensemble spécifique de dispositifs d’affichage (notamment plages horaires d’affichage (uniforme ou selon les dispositifs d’affichage), fréquence d’affichage en fonction des plages horaires et / ou en fonction des dispositifs d’affichage, etc.).
Les données de campagne peuvent être reçues notamment de postes de travail informatiques 5 utilisés par les opérateurs OPE, de postes de travail informatiques 6 utilisés par les clients CLT ou d’un système d’enchères en temps réel 7 (RTB).
Une fois que le serveur d’allocation 4 a alloué à une campagne de publicité spécifique des dispositifs d’affichage 2, 3 associés et une chronologie d’affichage sur ces dispositifs d’affichage, l’identification des dispositifs d’affichage alloués et de la chronologie allouée peut être envoyée par ledit au moins un serveur d’allocation 4 à au moins un serveur d’exploitation 8 (SERV 3) qui peut, immédiatement ou plus tard, envoyer (ou faire envoyer) les contenus et les chronologies vers les dispositifs d’affichage 2, 3. Les contenus peuvent être reçus sur le serveur d’exploitation 8 depuis le serveur d’allocation 4 ou depuis toute autre source extérieure.
Dans le cas des dispositifs d’affichage numériques 2, les contenus et les chronologies peuvent être envoyés vers les lecteurs 2a par un réseau 9 (N), local ou étendu.
Dans le cas des dispositifs d’affichage papier 3, l’envoi des contenus se fait par des opérateurs qui vont physiquement sur le site pour changer les affiches.
Ledit au moins un serveur d’allocation 4 peut en outre communiquer avec un ou plusieurs serveurs supplémentaires 11 (SERV 2), comme par exemple au moins un serveur adapté pour entraîner par exemple une intelligence artificielle exécutée sur ledit au moins un serveur d’allocation 4 permettant de déterminer l’attribution des dispositifs d’affichages 12 à chaque campagne publicitaire Le serveur d’allocation 4 peut aussi communiquer avec le serveur et/ou l’unité de contrôle 19 pour déterminer le (ou les) scores d’impact d’une image publicitaire en utilisant l’intelligence artificielle décrite ci-dessus.
Comme illustré sur la figure 7 , ledit au moins un serveur d’allocation 4 peut exécuter un logiciel appelé module d’allocation 17 qui est configuré pour allouer aux campagnes de publicité des dispositifs d’affichage et des chronologies d’affichage sur ces dispositifs d’affichage.
Le module d’allocation 17 peut communiquer avec les postes 5 d’opérateurs grâce à un logiciel d’interface (INT), avec les postes 6 de clients via une interface API 14 et avec le système d’enchères temps réel 7 grâce à une interface logicielle spécifique 15 (EXCH) permettant de réaliser des échanges automatiques de données par exemple sous le protocole « Open RTB ».
Lorsque ledit au moins un serveur d’allocation 4 est composé d’une pluralité de serveurs d’allocation 4, le module d’allocation 17 peut éventuellement être exécuté simultanément sur tous les serveurs d’allocation 4 de ladite pluralité pour améliorer la vitesse.
Les données relatives à l’inventaire de dispositifs d’affichage 12 (numérique et/ou papier) peuvent être contenues dans une base de données de l’inventaire. Éventuellement, ledit au moins un serveur d’allocation 4 peut avoir une mémoire vive (RAM) dans laquelle ladite base de données de l’inventaire est entièrement chargés sous la forme d’objets en tant qu’objets modélisés avec masque de bits pour améliorer la vitesse. La base de données de l’inventaire peut contenir au moins des données individuelles de type d’affichage, de localisation, de disponibilité et des données sur l’audience des dispositifs d’affichage 12.
Les données de type d’affichage peuvent comprendre par exemple des données telles que :
- le canal : par exemple « aéroport », « grand format » ou « mobilier urbain »,
- le type de media : par exemple numérique, papier, numérique et papier,
- le format : format d’affichage,
- etc.
Les données de localisation peuvent inclure la position de l’affichage dans la zone d’espace Z ouverte au public.

Claims (21)

  1. Procédé d’estimation ( 1 0 )de l’impact d’unecampagne publicitaire (1 2 )comprenant au moins uneimage de publicité ( 14 ), le procédé comprenant :
    - exécuter, par uneunité centrale ( 19 ), unpremier algorithme d’intelligence artificielle ( AI1 ) utilisant unpremier ensemble d’images d’entrainement (E E1 ), l’exécution comprenant :
    - la détermination dezones d’attraction ( 22 )de la dite au moins une image, les zones d’attraction étant définies comme des zones de ladite au moins une image regardées pendant unintervalle de temps (T1)prédéterminé lorsque l’image est soumise à un utilisateur, chaque zone d’attraction ayant uncoefficient d’attraction (CA)associé déterminé en fonction de la probabilité que cette zone soit susceptible d’être regardée par l’utilisateur pendant l’intervalle de temps.
  2. Procédé d’estimation (10) selon la revendication 1, comprenant de plus l’exécution par l’unité centrale d’undeuxième algorithme d’intelligence artificielle ( AI2 )comprenant, dans ladite au moins une zone d’attraction principale, l’identification d’au moins unobjet ( 28 ), le deuxième algorithme d’intelligence artificielle utilisant undeuxième ensemble d’images d’entrainement ( EE2 ).
  3. Procédé d’estimation (10) selon la revendication 2, dans lequel le premier algorithme d’intelligence artificielle et le deuxième algorithme d’intelligence artificielle font partie d’un seul algorithme d’intelligence artificielle, de sorte que l’identification dudit au moins un objet est concomitant à la détermination de zones d’attraction de la dite au moins une image.
  4. Procédé d’estimation (10) selon l’une des revendications 1 à 3, comprenant de plus l’exécution, par l’unité centrale, d’untroisième algorithme d’intelligence artificielle ( AI3 )utilisant untroisième ensemble d’images d’entrainement ( EE3 )comprenant :
    - l’obtention d’un ensemble de paramètres représentatifs de ladite au moins une image de publicité ; et
    - la détermination d’au moins unscore d’impact ( S I )de campagne à partir de l’ensemble de paramètres représentatifs de ladite au moins une image.
  5. Procédé d’estimation (10) selon la revendication 4, comprenant de plus :
    réitérer les étapes suivantes:
    - la modification d’au moins unattribut ( 32 )dudit objet de manière à obtenir au moins uneimage de publicité modifiée ( 29 ); et
    - l’exécution du troisième algorithme d’intelligence artificielle sur la base de ladite au moins une image de publicité modifiée, jusqu’à identifier une image de publicité modifiée ayant ledit au moins un score d’impact maximum par rapport à celui des autres images de publicité modifiées, et sélectionner cette image commeimage optimisée (30) .
  6. Procédé d’estimation (10) selon la revendication 5, dans lequel la réitération des étapes se fait jusqu’à minimiser une différence entre ledit au moins un score d’impact et au moins unparamètre de succès (PS)désiré afin d’identifier une image de publicité modifiée ayant ledit au moins un score d’impact maximum par rapport à celui des aux autres images de publicité modifiées.
  7. Procédé d’estimation (10) selon l’une des revendications 1 à 6, dans lequel le premier ensemble d’images d’entrainement comprend des images préalablement cartographiées en zones d’attraction.
  8. Procédé d’estimation (10) selon l’une des revendications 1 à 7, dans lequel la détermination zones d’attraction et de leurs coefficients d’attraction associés est obtenue en soumettant chaque image du premier ensemble d’images d’entrainement à au moins un utilisateur et en suivant sa réponse.
  9. Procédé d’estimation (10) selon la revendication 8, dans lequel on détecte automatiquement le regard de l’utilisateur, et le regard de l’utilisateur est utilisé pour déterminer pour déterminer les zones de coefficients d’attraction dans le premier ensemble d’images d’entrainement.
  10. Procédé d’estimation (10) selon la revendication 8, dans lequel l’utilisateur est sondé sur son processus de visualisation pour chaque image du premier ensemble d’images d’entrainement afin de déterminer les zones de coefficients d’attraction pour chacune de ces images.
  11. Procédé d’estimation (10) selon l’une des revendications 1 à 10, comprenant de plus l’affichage d’une cartographie des zones d’attraction en fonction de leur coefficient d’attraction.
  12. Procédé d’estimation (10) selon l’une des revendications 5 à 11, dans lequel la modification d’au moins un desdits au moins un attribut dudit au moins un objet se fait en fonction dudit au moins un score d’impact de campagne déterminé par le troisième algorithme d’intelligence artificielle sur la base de l’image précédente modifiée dans la réitération.
  13. Procédé d’estimation (10) l’une des revendications 5 à 12, dans lequel ledit au moins un attribut dudit au moins un objet comprend au moins un de : couleur de l’objet, taille de l’objet, forme de l’objet, et/ou orientation de l’objet.
  14. Procédé d’estimation (10) selon l’une des revendications 4 à 13, dans lequel le troisième ensemble d’images d’entrainement comprend des campagnes publicitaires passées.
  15. Procédé d’estimation (10) selon l’une des revendications selon l’une des revendications 4 à 14, dans lequel l’ensemble de paramètres représentatifs de ladite au moins une image inclut au moins un de :
    - identification et/ou dénombrement et/ou positionnement des couleurs de l’image ;
    - positionnement et/ou taille et/ou nombre et/ou âge de femmes et/ou hommes et/ou enfants présents sur l’image ; et
    - positionnement et/ou taille et/ou nombre d’animaux ou d’objets présents sur l’image.
  16. Procédé d’estimation (10) selon l’une des revendications 4 à 15, dans lequel ledit au moins un score d’impact comprend au moins un de :
    - reconnaissance de la marque ;
    - attribution de la marque ;
    - impression laissée par la campagne publicitaire ;
    - probabilité de visite magasin suite au visionnage de la campagne publicitaire ; et
    - revenus générés estimés dus au visionnage de la campagne publicitaire.
  17. Procédé d’estimation (10) de la revendication 4 à 16, dans lequel l’ensemble de paramètres représentatifs du produit objet de la publicité comprenant au moins un de :
    - nature du produit objet de la publicité,
    - visuel associé à la marque du produit objet de la publicité, et
    - secteur associé au produit objet de la publicité.
  18. Procédé d’estimation (10) selon l’une quelconque des revendications 1 à 17, dans lequel chaque algorithme d’intelligence artificielle comprend un algorithme d’apprentissage supervisé, et en particulier, l’obtention de l’ensemble de paramètres représentatifs de ladite au moins une image à partir d’un ensemble d’images d’entrainement est faite par un réseau neuronal convolutif, ou un réseau résiduel, ou un groupe de géométrie visuelle.
  19. Procédé d’estimation (10) selon la revendication 18, dans lequel l’algorithme d’apprentissage supervisé utilise un réseau neuronal (117) ayant au moins deux couches (119, 120) de neurones sigmoïdes, et plus particulièrement, le réseau neuronal (117) a plusieurs entrées connectés à des nœuds d’entrée (122-126) dans une couche d’entrée (118), la première couche (119) des neurones sigmoïdes ayant une pluralité de neurones sigmoïdes (127) connectés chacun à chaque nœud d’entrée (122-126), la deuxième couche (120) des neurones sigmoïdes ayant une pluralité de neurones sigmoïdes (128), et une couche de sortie (121), ayant par exemple un nœud de sortie (129) connecté à tous les neurones sigmoïdes (128).
  20. Procédé d’affichage ( 40 )d’une campagne publicitaire comprenant le procédé d’estimation selon l’une quelconque des revendications 1 à 19, comprenant de plus : l’affichage de la campagne publicitaire sur au moins un dispositif d’affichage (12), et de préférence dans unezone ( Z)ouverte au public.
  21. Ensemble d’affichage (1)d’une campagne de publicité comprenant :
    - au moins un dispositif d’affichage publicitaire (12) ;
    - une base de donnée (18) incluant au moins une image publicitaire ; et
    - au moins une unité centrale (19) connectée à la base de données (18) et permettant d’exécuter le procédé d’estimation (10) selon l’une quelconque des revendications 5 à 19, ladite au moins une unité centrale communiquant avec la base de données et avec ledit dispositif d’affichage publicitaire (12), ladite au moins une unité centrale (19) étant adaptée pour envoyer ladite image optimisée audit dispositif d’affichage publicitaire (12).
FR2003279A 2020-04-01 2020-04-01 Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation. Active FR3109004B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2003279A FR3109004B1 (fr) 2020-04-01 2020-04-01 Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2003279A FR3109004B1 (fr) 2020-04-01 2020-04-01 Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation.
FR2003279 2020-04-01

Publications (2)

Publication Number Publication Date
FR3109004A1 true FR3109004A1 (fr) 2021-10-08
FR3109004B1 FR3109004B1 (fr) 2022-09-02

Family

ID=70614314

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2003279A Active FR3109004B1 (fr) 2020-04-01 2020-04-01 Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation.

Country Status (1)

Country Link
FR (1) FR3109004B1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008071000A1 (fr) * 2006-12-15 2008-06-19 Micro Target Media Holdings Inc. Système et procédé permettant d'obtenir et d'utiliser une information d'annonce publicitaire
US20180082125A1 (en) * 2016-09-21 2018-03-22 GumGum, Inc. Identifying visual objects depicted in video data using video fingerprinting

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008071000A1 (fr) * 2006-12-15 2008-06-19 Micro Target Media Holdings Inc. Système et procédé permettant d'obtenir et d'utiliser une information d'annonce publicitaire
US20180082125A1 (en) * 2016-09-21 2018-03-22 GumGum, Inc. Identifying visual objects depicted in video data using video fingerprinting

Also Published As

Publication number Publication date
FR3109004B1 (fr) 2022-09-02

Similar Documents

Publication Publication Date Title
Lambrecht et al. Advertising to early trend propagators: Evidence from Twitter
Richards et al. Using image recognition to automate assessment of cultural ecosystem services from social media photographs
TWI684875B (zh) 確定用戶行為偏好的方法、推薦資訊的展示方法和裝置
US11734725B2 (en) Information sending method, apparatus and system, and computer-readable storage medium
Le et al. Attitudes toward mobile advertising: A study of mobile web display and mobile app display advertising
JP6138930B2 (ja) デジタル看板上での表示のための広告を選択する方法および装置
US20110082824A1 (en) Method for selecting an optimal classification protocol for classifying one or more targets
CN105975581A (zh) 媒体信息的展示方法、客户端及服务器
FR3016459A1 (fr)
US10096169B1 (en) System for the augmented assessment of virtual insertion opportunities
D’Urso et al. Bagged fuzzy clustering for fuzzy data: An application to a tourism market
FR2809209A1 (fr) Procede et systeme de simulation comportementale d'une pluralite de consommateurs, par simulation multi-agents
JP2003271084A (ja) 情報提供装置および情報提供方法
Calabuig-Moreno et al. Role of perceived value and emotions in the satisfaction and future intentions of spectators in sporting events
Besana et al. It's a Matter of Attention: The Marketing of Theatres in the Age of Social Media
CN104185041B (zh) 视频交互广告的自动生成方法和系统
Mueller et al. Gender matters! analyzing global cultural gender preferences for venues using social sensing
US20110251889A1 (en) Inventory clustering
Cheng et al. Everyone can be a star: Understanding the role of live video streaming in online retail
US20220215438A1 (en) Method and computing device for optimizing placement of digital signage content based on audience segments
France et al. Characterizing viral videos: Methodology and applications
Ma et al. Image-mining: exploring the impact of video content on the success of crowdfunding
Nam et al. The effects of service quality and word of mouth on customer acquisition, retention and usage
Kim et al. Consumer responses to on-site Olympic sponsorship activation: the impact of interactivity, emotions, and perceived image fit on brand attitude formation
FR3109004A1 (fr) Procédé d’estimation de l’impact d’une image publicitaire, et procédé et ensemble d’affichage utilisant un tel procédé d’estimation.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211008

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

CD Change of name or company name

Owner name: JCDECAUX SE, FR

Effective date: 20230403

PLFP Fee payment

Year of fee payment: 5