FR3006087A1 - Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs - Google Patents

Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs Download PDF

Info

Publication number
FR3006087A1
FR3006087A1 FR1354535A FR1354535A FR3006087A1 FR 3006087 A1 FR3006087 A1 FR 3006087A1 FR 1354535 A FR1354535 A FR 1354535A FR 1354535 A FR1354535 A FR 1354535A FR 3006087 A1 FR3006087 A1 FR 3006087A1
Authority
FR
France
Prior art keywords
users
pair
user
difference
digital data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1354535A
Other languages
English (en)
Other versions
FR3006087B1 (fr
Inventor
Jeremie Eskenazi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miratech SARL
Original Assignee
Miratech SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miratech SARL filed Critical Miratech SARL
Priority to FR1354535A priority Critical patent/FR3006087B1/fr
Publication of FR3006087A1 publication Critical patent/FR3006087A1/fr
Application granted granted Critical
Publication of FR3006087B1 publication Critical patent/FR3006087B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Le procédé de traitement de données numériques représentatives du comportement oculaire d'un ensemble d'utilisateurs sujets à un même stimulus visuel (1) comporte, selon l'invention, une étape d'extraction, pour chaque utilisateur, des données numériques par un oculomètre, une étape (100) de calcul d'une matrice (A, B) de données de n lignes et de m colonnes représentative des données numériques associées à chaque utilisateur, une étape (110) de calcul, pour chaque couple d'utilisateurs, d'une matrice transformée résultant soit de la différence entre deux transformées de Fourier discrètes appliquées respectivement sur les deux matrices de données associées aux utilisateurs dudit couple, ou d'une transformée de Fourier Discrète appliquée sur la différence entre les deux matrices de données, et une étape (120) de génération, pour chaque couple d'utilisateurs, d'une valeur représentative d'une différence de comportement entre les deux utilisateurs dudit couple, à partir de ladite matrice transformée.

Description

TRAITEMENT DE DONNEES NUMERIQUES REPRESENTATIVES DU COMPORTEMENT OCULAIRE D'UN ENSEMBLE D'UTILISATEURS La présente invention concerne l'étude du comportement d'utilisateurs exposés à un même stimulus visuel à partir du mouvement de leurs yeux. Cette technique, plus communément connue sous le nom d'oculométrie ou d' « eye-tracking » en terminologie anglo-saxonne, est 5 utilisée notamment pour étudier la pertinence du contenu et de la disposition d'éléments dans un document papier (par exemple une publicité) ou dans un document électronique (pages de sites Web, vidéos...) en analysant la façon dont différents utilisateurs regardent ce même document dans des conditions de tests prédéfinies. 10 Les tests utilisateurs sont réalisés sur des échantillons représentatifs des consommateurs ou des utilisateurs visés. On donne par exemple à chaque utilisateur un scenario à suivre tel que la recherche d'une information, l'achat d'un produit, le visionnage d'une publicité, etc... Lors du test, on suit en permanence le regard de l'utilisateur pour déterminer à chaque instant les 15 points regardés par ce dernier. Les mesures sont réalisées à l'aide d'un oculomètre, composé typiquement d'un écran dans lequel sont placé des diodes qui émettent de la lumière infrarouge. Des caméras intégrées dans l'écran mesurent la réflexion de cette lumière sur les pupilles de l'utilisateur lorsque ce dernier visionne le document ou stimulus visuel sous test. 20 Les mouvements oculaires mesurés par l'oculomètre sont essentiellement de deux types : les saccades, qui correspondent à des déplacements très rapides (de l'ordre de 10 à 15 millisecondes) de l'oeil, et les fixations, qui correspondent à des durées de 100 à 600 millisecondes pendant lesquelles l'oeil est arrêté. Ce sont généralement les fixations qui intéressent 25 les concepteurs de documents papiers ou électroniques, les saccades correspondant à des moments où les yeux sont considérés comme aveugles, c'est-à-dire non réceptifs à l'information regardée. On cherche donc en général à détecter les zones d'un document qui ont le plus retenu l'attention des utilisateurs. On peut également s'intéresser plus particulièrement aux données temporelles du regard, c'est à dire au temps passé à regarder les zones d'un document. Dans certains scenarii, des groupes d'utilisateurs peuvent avoir des comportements oculaires très différents selon leur âge, ou leur sexe, notamment. Il est donc important de pouvoir disposer de solutions permettant de repérer et représenter ces différences. A ce jour, différentes méthodes existent. Selon une première possibilité, on génère, à partir des données numériques délivrées par l'oculomètre, une carte dite de chaleur par utilisateurs testés, ce qui permet de comparer visuellement les différences ou similitudes de comportements par des couleurs. Ce type de solution n'est cependant pas aisément automatisable et ne permet pas toujours d'identifier des différences qui pourraient être significatives. Une autre solution consisterait à calculer, à partir des mêmes données que celles ayant permis à établir les cartes de chaleur, des distances entre utilisateurs. Différentes études expérimentales ont déjà été menées pour choisir une norme vectorielle à partir de laquelle une distance entre données obtenues pour deux utilisateurs pourrait être calculée. En particulier, les études menées par la Demanderesse ont permis de mettre en évidence que toutes les normes de type L1, dans lesquelles la distance entre deux utilisateurs a et b, dont les données oculométriques sont représentées par des matrices notées respectivement A et B, se calcule selon l'expression mathématique cl(a, b) = A - BP = p Ai - p i ne donnaient les résultats attendus. En particulier, ce type de normes ne permet pas de discriminer suffisamment des comportements qui pourtant s'avèrent dissemblables au simple examen visuel de cartes de chaleur. Cela peut être dû au fait qu'une quantité importante de bruit non significatif est présente, et fausse le calcul.
Une autre solution connue consiste à découper un document en une pluralité de zones d'intérêt ou AOI (initiales anglo-saxonnes mises pour Areas Of Interest), et à déterminer, pour chaque utilisateur, à partir des mesures fournies par l'oculomètre, le parcours suivi par son regard sur ces zones d'intérêt. Les différents parcours obtenus sont ensuite convertis dans un format standard facilement comparable, en particulier en des chaînes de caractères, chaque caractère étant associé à une zone d'intérêt. Les similarités entre comportements sont ensuite déterminées en comparant, pour chaque couple d'utilisateurs possible dans l'ensemble d'utilisateurs testés, les chaînes de caractères obtenues. Ceci peut être réalisé par exemple en calculant pour chaque couple, une distance de Levensthein qui représente le nombre minimal de caractères qu'il faut supprimer, insérer ou remplacer pour passer d'une chaîne à l'autre. Cette solution est aisément automatisable, mais coûteuse en temps de calcul et en mémoire nécessaire pour stocker les données de calcul. En outre, cette solution ne s'intéresse qu'au parcours du regard, et ne permet pas d'identifier les similarités ou les différences entre les zones fixées.
La présente invention a pour but de pallier les inconvénients des solutions connues en proposant une solution entièrement automatisable. Pour ce faire, l'invention a pour objet un procédé de traitement de données numériques représentatives du comportement oculaire d'un ensemble d'utilisateurs sujets à un même stimulus visuel, du type comportant, une étape d'extraction, pour chaque utilisateur, desdites données numériques par un oculomètre, une étape de calcul d'une matrice de données de n lignes et de m colonnes représentative des données numériques associées à chaque utilisateur, caractérisé en ce qu'il comporte en outre une étape de calcul, pour chaque couple d'utilisateurs, d'une matrice transformée résultant soit de la différence entre deux transformées de Fourier discrètes appliquées respectivement sur les deux matrices de données associées aux utilisateurs dudit couple, ou d'une transformée de Fourier Discrète appliquée sur la différence entre les deux matrices de données, et une étape de génération, pour chaque couple d'utilisateurs parmi ledit ensemble d'utilisateurs, d'une valeur représentative d'une différence de comportement entre les deux utilisateurs dudit couple, à partir de ladite matrice transformée. L'invention sera mieux comprise au vu de la description suivante faite en référence aux figures annexées, dans lesquelles : - la figure 1 représente une succession d'étapes mises en oeuvre dans un procédé de traitement conforme à l'invention ; - la figure 2 illustre un exemple de stimulus visuel sur lequel différents utilisateur sont testés.
En référence à la figure 1, un procédé pour le traitement de données numériques représentatives du comportement oculaire d'un ensemble d'utilisateurs sujets à un même stimulus visuel consiste essentiellement à : - récupérer les données utiles à partir des résultats bruts fournis par 10 l'oculomètre et correspondant à chaque personne testée (étape 100 sur la figure 1) ; - traiter ces données et les comparer pour obtenir une valeur de distance mesurant la similitude des comportements des utilisateurs (étapes 110 et 120 sur la figure 1). 15 A partir de ce traitement, on peut générer une représentation graphique sous une forme explicite et intuitivement compréhensible de ces similitudes de comportement, qui va servir de base à la comparaison des différentes classes d'utilisateurs. La figure 2 donne, à titre d'exemple non limitatif, une représentation 20 d'un stimulus visuel 1, typiquement une page d'un document papier ou numérique comportant une zone image 10 et une zone de texte 11, auquel sont soumis une pluralité d'utilisateurs. La représentation graphique d'un tel stimulus visuel est caractérisée par sa hauteur h et sa largeur w. Pour faciliter la compréhension, on considère dans la suite que deux utilisateurs a et b sont 25 soumis à ce stimulus visuel, dans les mêmes conditions d'expérimentation. L'étape 100 du procédé consiste à récupérer les données brutes mesurées par l'oculomètre (non représenté) et à calculer pour chaque utilisateur a et b, la matrice A, respectivement B, représentative de son comportement oculaire durant le test. Pour ce faire, et comme illustré sur 30 partie droite de la figure 2, le stimulus visuel 1 est divisé en un certain nombre de zones carrées z dont la taille u correspond au minimum à la taille d'un pixel. La taille des zones z influence la précision du résultat et surtout la durée du calcul. A titre d'exemple non limitatif, une taille u fixée à 4 pixels pour la zone z, comme illustrée sur la figure 2, est un bon compromis entre précision et taille de calcul. Ce faisant, les matrices A et B représentant les données numériques fournies par l'oculomètre pour les utilisateurs a et b comportent m lignes et n 5 colonnes, avec w m = - et n = -h o- o- Les matrices sont construites en extrayant des données délivrées par l'oculomètre les coordonnées (x,y) du point regardé à chaque instant par un utilisateur et en comptant le nombre total de regards portés dans chaque zone 10 z. Ainsi, pour un utilisateur a, les calculs réalisés sont les suivants : - la matrice A de taille (m, n) est initialisée à 0. Aii représente le coefficient de la matrice situé à la ième colonne et la jème ligne. - pour chaque point (x, y) regardé sur le stimulus, on calcule les coordonnées i et j de la zone de la grille correspondante: 15 i=floor(x * -) etj=floor(y*-), w h où la fonction floor(x) représente la partie entière de x. - on incrémente alors le coefficient Aii de 1, pour indiquer qu'un regard a été porté dans la zone de coordonnées (i, j). 20 A l'issue de l'étape 100, on dispose ainsi d'une matrice de données pour chaque utilisateur testé, dans notre exemple, d'une matrice A pour l'utilisateur a et d'une matrice B pour l'utilisateur b. De nombreux essais expérimentaux menés par la Demanderesse ont permis de montrer que les normes semblant donner les meilleurs résultats 25 sont celles appliquées à des matrices transformées par transformées de Fourier discrètes 2D. Ainsi, lors d'une étape 110, le procédé de traitement conforme à l'invention consiste à calculer les coefficients de la transformée de Fourier discrète appliquée sur la différence entre les matrices A et B. mea, b Or, si l'on note f la matrice issue de la transformée de Fourier discrète 2 dimensions TFD de la différence des matrices utilisateurs A et B, on a Aa b f = TFD(A - B) = TFD(A) - TFD(B) En d'autres termes, il est équivalent de calculer une matrice transformée résultant : - de la différence entre deux transformées de Fourier discrètes appliquées respectivement sur les deux matrices de données A et B associées aux utilisateurs a et b, - ou d'une transformée de Fourier discrète appliquée sur la différence entre les deux matrices de données A et B. mea, b En pratique, les coefficients de la matrice f sont calculés à l'aide d'une routine logicielle implémentant un algorithme du type transformée de Fourier rapide à deux dimensions ou FFT 2D (initiales anglo-saxonnes mises 15 pour Fast Fourier Transform). Cet algorithme renvoie une matrice transformée qui est de même taille (m, n) que les matrices A et B. On peut néanmoins simplifier avantageusement les calculs en remarquant que le contenu fréquentiel utile se trouve en haut à gauche de la matrice transformée, autour du point de coordonnées (0,0). Les valeurs 20 élevées dans les trois autres coins correspondent à des artefacts de calcul. En effet, le calcul d'une transformée de Fourier discrète entraine la périodisation du spectre, et un phénomène de repliement de spectre peut apparaître. Pour simplifier les calculs, on crée artificiellement un filtrage passe-bas en ne calculant que les coefficients de Fourier qui se situent jusqu'aux rangs m/13 et 25 n/13 de la matrice. L'entier i3 correspond au filtrage effectué. Dans une mise en oeuvre préférée de l'invention, on fixe la valeur de i3 à 2, ce qui permet de ne considérer que les valeurs situées dans le quart haut et gauche de la matrice transformée. Avec une telle valeur, le gain en temps de calcul est significatif pour un résultat très similaire à celui obtenu en calculant toutes les valeurs de 30 coefficients de la matrice.
Aa,b Aa,b b En notant fri,u le terme de position (7/, u) de la matrice f , la matrice transformée à l'issue de l'étape 110 peut donc s'écrire sous la forme : ( Aa,b Aa,b Aa,b Aa,b f1,1 f1,2 f1,3 f1,1TV / R Aa,b b Aa, b Aa,b Aa,b a,b f2,1 f2,2 f2,3 f 2,111/ R . . . : Aa,b A A Aa,b f a,b a,b a,b f n/13,1 f n/13,2 f n/13,3 fn/Pfm/p) Avec i3 supérieur ou égal à 1 selon le degré de filtrage que l'on veut appliquer. L'étape suivante, notée 120 sur la figure 1, consiste à générer une valeur représentative d'une différence de comportement entre les deux 10 utilisateurs a et b à partir de la matrice transformée. Dans une mise en oeuvre préférée, cette valeur ou distance représentative d'une différence de comportement entre les utilisateurs a et b est calculée selon l'équation suivante : Aa,b Aa, b Aa,b Aa,b f3,1 f 3,2 f 3,3 f 3,m/ R . . a A I b , (f ri,u)z ± (2 uu)2 ± (2 EDI)2 d(a, b) = 1 11=1.. u=1...rX3 15 (1) Soit, en développant l'équation (1) ci-dessus : a b a b a b A ' A ' A ' (f 1 1-1.%)L, (f1,1 r, (f1,2 )2 ' R d(a, b) - 1+ (2 r)2 + (2 r)2 (2 ri)2 "21-1 x2)2 + 1+ (2 r)2 ±(21-im/)2 P a b a b a b A ' A ' A ' f, N (f 2,1 )2 v2,2 )2 (f2,1%)2 + , + 1 + (2 II x2)2 + (2 ny 1 + (2n.2)2 + (2n.2)2 ± 1 + (2n.2)2 -E(2rim/p2 + --- Aa,b b (fii0,1)2 + + 1+(21-InP )2±(2ny 1+(21-1 Aa,b Aa,b (f n/ 2)2 /V (f r3'riX)2 + 1 + (211 7)2 ±(2nm/p)2 ) (2 ri x2)2 La distance telle que définie ci-dessus est dérivée de la norme de Sobolev, cette norme étant en fait la racine carrée de l'équation (1) ci-dessus.
5 Le fait de ne pas calculer la racine carrée permet avantageusement de simplifier les calculs sans dégrader le résultat. On remarque que, compte tenu du dénominateur dans l'équation (1) ci-dessus, les termes de la somme perdent de leur puissance lorsque Ti et u augmentent. Il s'agit en quelque sorte d'un deuxième filtre passe-bas 10 puisqu'on prend en compte le fait que les coefficients associés aux hautes fréquences sont moins pertinents et contiennent plus de bruit que les coefficients de basse fréquence. En pratique, le calcul de la distance s'effectue également grâce à une routine logicielle exécutée sur un ordinateur. Bien entendu, le calcul précédent est réitéré pour chaque couple d'utilisateurs 15 possibles parmi l'ensemble des utilisateurs soumis au test. A l'issue de l'étape 120, on dispose donc d'autant de distances que de couples d'utilisateurs, chaque distance représentant la similarité du regard entre deux utilisateurs. Ainsi, plus la distance entre deux utilisateurs est faible, plus ils auront des comportements oculaires similaires. L'ensemble des résultats peut être 20 représenté sous la forme d'une matrice symétrique. Afin de permettre une exploitation aisée des résultats obtenus, le procédé selon l'invention peut comporter en outre une étape 130 lors de laquelle les distances calculées à l'étape 120 sont utilisées pour représenter graphiquement le comportement des utilisateurs entre eux. La représentation 25 graphique en deux dimensions peut être réalisée à l'aide d'une routine logicielle implémentant par exemple l'algorithme de Sammon pour fournir en sortie une abscisse et une ordonnée pour chaque utilisateur à partir de la matrice des distances.

Claims (6)

  1. REVENDICATIONS1. Procédé de traitement de données numériques représentatives du comportement oculaire d'un ensemble d'utilisateurs sujets à un même stimulus visuel (1), du type comportant, une étape d'extraction, pour chaque utilisateur, desdites données numériques par un oculomètre, une étape (100) de calcul d'une matrice (A, B) de données de n lignes et de m colonnes représentative des données numériques associées à chaque utilisateur, caractérisé en ce qu'il comporte en outre une étape (110) de calcul, pour chaque couple d'utilisateurs, d'une matrice transformée résultant soit de la différence entre deux transformées de Fourier discrètes appliquées respectivement sur les deux matrices de données associées aux utilisateurs dudit couple, ou d'une transformée de Fourier Discrète appliquée sur la différence entre les deux matrices de données, et une étape (120) de génération, pour chaque couple d'utilisateurs parmi ledit ensemble d'utilisateurs, d'une valeur représentative d'une différence de comportement entre les deux utilisateurs dudit couple, à partir de ladite matrice transformée.
  2. 2. Procédé de traitement selon la revendication 1, caractérisé en ce que, pour chaque couple d'utilisateurs, la valeur représentative d'une différence de comportement est calculée selon la relation mea, , b f 11,U )2 d(a, = ± (2 nu)2 ± (2 nro2 u=1...ry dans laquelle a et b représentent les deux utilisateurs du couple, 3 est un entier supérieur ou égal à 1 Aa,b f u correspond au coefficient situé dans la Ti ième colonne et la U ième ligne de la matrice transformée.
  3. 3. Procédé de traitement selon la revendication 2, caractérisé en ce que i3 est un entier strictement supérieur à 1.
  4. 4. Procédé de traitement selon la revendication 3, caractérisé en ce que i3 est égal à 2.
  5. 5. Procédé de traitement selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comporte en outre une étape (130) de génération d'une représentation graphique lors de laquelle on détermine une abscisse et une ordonnée pour chaque utilisateur à partir des valeurs obtenues pour chaque couple d'utilisateurs.
  6. 6. Procédé de traitement selon la revendication 5, caractérisé en ce que ladite étape (130) de génération d'une représentation graphique utilise l'algorithme de Sammon.
FR1354535A 2013-05-21 2013-05-21 Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs Active FR3006087B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1354535A FR3006087B1 (fr) 2013-05-21 2013-05-21 Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1354535A FR3006087B1 (fr) 2013-05-21 2013-05-21 Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs

Publications (2)

Publication Number Publication Date
FR3006087A1 true FR3006087A1 (fr) 2014-11-28
FR3006087B1 FR3006087B1 (fr) 2016-10-21

Family

ID=49003863

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1354535A Active FR3006087B1 (fr) 2013-05-21 2013-05-21 Traitement de donnees numeriques representatives du comportement oculaire d'un ensemble d'utilisateurs

Country Status (1)

Country Link
FR (1) FR3006087B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111743510A (zh) * 2020-06-24 2020-10-09 中国科学院光电技术研究所 一种基于聚类的人眼哈特曼光斑图像去噪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "st.statistics - A metric for comparing two heatmaps - MathOverflow", 19 May 2010 (2010-05-19), XP055101896, Retrieved from the Internet <URL:http://mathoverflow.net/questions/25037/a-metric-for-comparing-two-heatmaps> [retrieved on 20140213] *
BUCHER H-J., SCHUMACHER P.: "Interaktionale Pezeptionsforschung - Theorie und Methode der Blickaufzeichnung in der Medienforschung", 2012, SPRINGER FACHMEDIEN, Wiesbaden, ISBN: 978-3-531-17718-2, pages: 116 - 119, XP002720495 *
CHIEN YI-TZUU: "Interactive Pattern Recognition", 1978, MARCEL DEKKER, INC., NY, ISBN: 0824766318, pages: 130 - 138, XP002720536 *
OLVER, P. AND SHAKIBAN C.: "Applied linear algebra", 2006, PEARSON EDUCATION, INC., NJ, ISBN: 0131473824, pages: 285 - 287, XP002720496 *
OUERHANI ET AL: "Empirical Validation of the Saliency-based Model of Visual Attention", ELCVIA. ELECTRONIC LETTERS ON COMPUTER VISION AND IMAGE ANALYSIS, UNIVERSITAT AUTONOMA DE BARCELONA * CENTRE DE VISIO PER COMPUTADOR, ES, vol. 3, no. 1, 1 January 2003 (2003-01-01), pages 13 - 24, XP007919968, ISSN: 1577-5097 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111743510A (zh) * 2020-06-24 2020-10-09 中国科学院光电技术研究所 一种基于聚类的人眼哈特曼光斑图像去噪方法
CN111743510B (zh) * 2020-06-24 2023-09-19 中国科学院光电技术研究所 一种基于聚类的人眼哈特曼光斑图像去噪方法

Also Published As

Publication number Publication date
FR3006087B1 (fr) 2016-10-21

Similar Documents

Publication Publication Date Title
EP0927405B1 (fr) Dispositif electronique de traitement d&#39;images pour la detection de variations dimensionnelles
Luo et al. Minimum noise fraction versus principal component analysis as a preprocessing step for hyperspectral imagery denoising
Zhang et al. No-reference image quality assessment based on log-derivative statistics of natural scenes
Llano et al. Optimized robust multi-sensor scheme for simultaneous video and image iris recognition
EP3271869A1 (fr) Procédé de traitement d&#39;un signal asynchrone
CA2935777A1 (fr) Procede de traitement de donnees d&#39;imagerie moleculaire et serveur de donnees correspondant
US12002083B2 (en) Visual quality performance predictors
Chen et al. Speckle attenuation by adaptive singular value shrinking with generalized likelihood matching in optical coherence tomography
Srivastava et al. Multifocus noisy image fusion using contourlet transform
Malpica et al. Range image quality assessment by structural similarity
WO2019186050A1 (fr) Dispositif informatique de detection de troubles du rythme cardiaque
FR3006087A1 (fr) Traitement de donnees numeriques representatives du comportement oculaire d&#39;un ensemble d&#39;utilisateurs
CN115546271B (zh) 基于深度联合表征的视觉分析方法、装置、设备及介质
EP4354227A1 (fr) Procédé et unité de calcul pour estimer une carte de profondeur à partir d&#39;un hologramme numérique, procédé de codage d&#39;une séquence vidéo, programme d ordinateur
WO2017093057A1 (fr) Procede de caracterisation d&#39;une scene par calcul d&#39;orientation 3d
Wang et al. An improved nonlocal sparse regularization-based image deblurring via novel similarity criteria
Deshpande et al. Single frame super resolution of non-cooperative iris images
Ezekiel et al. No-reference objective blur metric based on the notion of wavelet gradient, magnitude edge width
EP3360055B1 (fr) Procede d&#39;optimisation de decomposition d&#39;un signal asynchrone
EP3824444A1 (fr) Methode de monte carlo et reseau de neurones dans un procede de rendu d&#39;une scene tridimensionnelle, programme d&#39;ordinateur et dispositif correspondants
Tyagi et al. Validation of object recognition framework on android mobile platform
EP3625766B1 (fr) Méthode de détection et de quantification du flou dans une image numérique
JP7406695B2 (ja) 画像処理装置及び画像処理プログラム
WO2007068748A1 (fr) Procede de caracterisation d&#39;une region d&#39;interet dans une image, signal representatif d&#39;une image, procede de comparaison d&#39;images, dispositifs et programme d&#39;ordinateur correspondants
FR3143807A1 (fr) Procédé et dispositif de reconstruction d’une image de profondeur

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5