FR2931277A1 - Procede et dispositif de reconnaissance invariante-affine de formes - Google Patents

Procede et dispositif de reconnaissance invariante-affine de formes Download PDF

Info

Publication number
FR2931277A1
FR2931277A1 FR0853244A FR0853244A FR2931277A1 FR 2931277 A1 FR2931277 A1 FR 2931277A1 FR 0853244 A FR0853244 A FR 0853244A FR 0853244 A FR0853244 A FR 0853244A FR 2931277 A1 FR2931277 A1 FR 2931277A1
Authority
FR
France
Prior art keywords
tilt
image
sifs
images
digital image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0853244A
Other languages
English (en)
Other versions
FR2931277B1 (fr
Inventor
Jean Michel Morel
Guoshen Yu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ECOLE NORMALE SUPERIEURE ETABL
Ecole Polytechnique
Original Assignee
ECOLE NORMALE SUPERIEURE ETABL
Ecole Polytechnique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR0853244A priority Critical patent/FR2931277B1/fr
Application filed by ECOLE NORMALE SUPERIEURE ETABL, Ecole Polytechnique filed Critical ECOLE NORMALE SUPERIEURE ETABL
Priority to CN200980127996.XA priority patent/CN102099815B/zh
Priority to KR1020107028499A priority patent/KR20110073386A/ko
Priority to EP09761912A priority patent/EP2289026A2/fr
Priority to JP2011510028A priority patent/JP5442721B2/ja
Priority to US12/993,499 priority patent/US8687920B2/en
Priority to PCT/FR2009/050923 priority patent/WO2009150361A2/fr
Publication of FR2931277A1 publication Critical patent/FR2931277A1/fr
Application granted granted Critical
Publication of FR2931277B1 publication Critical patent/FR2931277B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/11Technique with transformation invariance effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

L'invention concerne un procédé pour la reconnaissance d'objets dans au moins une image digitale dans lequel :a) à partir de ladite image digitale, on simule une pluralité de rotations digitales et au moins deux tilts digitaux différents de 1, de façon à élaborer pour chaque couple rotation-tilt, une image simulée, etb) on applique un algorithme produisant des valeurs invariantes par translation, rotation et zoom sur les images simulées de façon à déterminer des caractéristiques locales dites SIFs (« scale invariant features ») que l'on utilise pour la reconnaissance d'objets. A l'étape b, on peut utiliser la méthode SIFT.

Description

- 1- " Procédé et dispositif de reconnaissance invariante-affine de formes."
La présente invention concerne un procédé et un dispositif pour la reconnaissance d'objets dans au moins une image digitale. D'une façon générale, un procédé de reconnaissance de formes a pour objet de reconnaître un objet ou un type d'objet qui a été pris en photo quand la position relative de l'objet et du dispositif de prise de vue réel ou simulé sont inconnus, ou quand l'objet s'est éventuellement déformé. L'objet lui-même peut être un objet graphique et non physique (comme par exemple un logo digital ou le résultat d'une simulation). Pour simplifier nous appellerons dans la suite caméra le dispositif de prise de vue (ou de simulation de prise de vue), mais l'invention concerne toute acquisition d'images, et toutes distorsions ou déformations géométriques de la vue d'un objet entraînées par 15 le changement de position relativement à l'objet de la caméra, ou par les particularités du dispositif d'acquisition ou de simulation d'images. De plus les objets photographiés ou simulés n'ont pas besoin d'être identiques, il suffit qu'ils soient semblables, une situation courante pour des objets issus d'une production industrielle ou graphique. Une ou plusieurs images de l'objet à 20 reconnaître sont à disposition : ce sont les images requêtes . L'image ou les images où l'objet est recherché ne le contiennent pas forcément. Le but est de trouver des indices fiables pour savoir si l'objet est présent dans ces images analysées, et de donner sa position dans l'image. La première simplification proposée par toutes les méthodes traitant le 25 problème de reconnaissance est de supposer que l'objet a un relief assez régulier pour que l'on puisse interpréter les déformations locales dans les images cibles comme des déformations affines planaires de l'image requête. La plupart des objets physiques d'intérêt sont en effet des volumes dont la surface présente des faces planes ou légèrement courbées. Les exceptions 30 sont rares. Comme exemple d'exception, citons un arbre sans feuilles, dont l'aspect peut changer drastiquement par un changement d'angle de vue, ou les remous d'un liquide. Or, toute déformation régulière au sens mathématique du terme (différentiable) est, localement dans l'image, proche d'une déformation affine. C'est en particulier le cas pour la déformation 35 apparente de l'image optique d'un objet assez régulier, quand cette
- 2- déformation apparente dans l'image est causée par le mouvement de la caméra, ou par les distorsions optiques de la caméra, ou par le mouvement de l'objet, voire par une déformation progressive de l'objet lui-même. Par exemple dans le cas d'un objet plat, la déformation de son image causée par un changement de position de la caméra l'observant est une homographie plane, qui est en tout point tangente à une application affine. Si de plus la caméra est assez loin de l'objet observé, cette déformation de l'image ressemble de plus en plus à une transformation affine globale. Réciproquement, toute transformée affine du plan de l'image de déterminant positif peut être interprétée comme une déformation de l'image due au mouvement dans l'espace d'une caméra observant l'image et située loin de l'image (virtuellement à l'infini). Rappelons qu'une déformation affine du plan de coordonnées (x,y) s'écrit sous la forme x'=ax+by+e, y'=cx+dy+f, et les paramètres a, b, c, d forment une matrice à deux lignes et deux colonnes que nous noterons A. La déformation affine d'une image u(x,y) s'écrit donc u (x',y')= u(A(x,y) +(e,f)) Pour les raisons données ci-dessus, le problème de la reconnaissance des formes peut être réduit à la recherche de caractéristiques locales d'images qui soient invariantes modulo une transformation affine. Ces caractéristiques sont alors robustes aux déformations locales apparentes entraînées par les mouvements relatifs de l'objet et de la caméra, ainsi qu'aux distorsions entraînées par le dispositif d'acquisition, telles que par exemple la distorsion optique d'une lentille, et finalement aux distorsions dues aux déformations de l'objet lui-même. Dans la suite, on utilise tilt et digital qui sont des termes couramment utilisés par l'homme du métier et qui signifient respectivement inclinaison et numérique. On utilise également SIF et SIFT qui sont des abréviations connues par l'homme du métier et qui signifient respectivement scale invariant feature et scale invariant feature transform , soit caractéristique invariante en échelle et transformée de caractéristique invariante en échelle . On connaît le document US 671 1293 (Lowe) qui décrit une méthode dite méthode SIFT pour scale invariant feature transform permettant de reconnaître des objets sur une image prise de manière frontale par une caméra. Dans ce document US 671 1293, on considère qu'explorer tout - 3- l'espace affine serait prohibitif et non efficace. Lowe remarque enfin que le défaut d'invariance de sa méthode SIFT pourrait être compensé en prenant des vues réelles des objets 3D éloignées les unes des autres de 30 degrés. Le document Cloth Motion Capture , de D. Pritchard et W. Heidrich, Eurographics 2003/ volume 22, Number 3, décrit une méthode pour déterminer des caractéristiques SIFT, dans laquelle, à partir d'une image initiale prise de manière frontale, on élabore quatre images simulées avec un tilt égal à deux. La première image simulée est obtenue pour un tilt réalisé selon l'horizontal, la seconde selon la verticale, les troisième et quatrième io selon deux axes de 45 degrés. Cette méthode prévoit donc quatre images simulées de façon à améliorer la reconnaissance.
La présente invention a pour but un nouveau procédé de reconnaissance d'une portion d'une image planaire qui a subi une 15 transformation affine arbitraire. L'invention a aussi pour but de permettre la reconnaissance d'objet dans une image pour laquelle la prise de vue est oblique, en comparaison à une prise de vue frontale face à l'objet, ou également oblique. L'invention a donc pour but d'améliorer le taux de reconnaissance quelles que soient les prises de vues.. 20 On atteint au moins l'un des objectifs précités avec un procédé pour la reconnaissance d'objets dans au moins une image digitale dans lequel : a) à partir de ladite image digitale, on simule une pluralité de rotations digitales et au moins deux tilts digitaux différents de 1, de façon à élaborer 25 pour chaque couple rotation-tilt, une image simulée, et b) on applique un algorithme produisant des valeurs invariantes par translation, rotation et zoom sur les images simulées de façon à déterminer des caractéristiques locales dites SIFs ( scale invariant features ) que l'on utilise pour la reconnaissance d'objets. 30 En d'autres termes, à partir de l'image digitale, on simule plusieurs changements de directions d'axe optique d'une caméra observant l'image digitale à l'infini. Bien que chaque position de la caméra soit définie par un couple rotation-tilt, l'homme du métier comprendra aisément que d'autres transformations plus ou moins complexes peuvent être utilisées pour définir 35 une position de la caméra. Néanmoins, l'invention est remarquable par le fait 2931277 - 4- que tout changement d'orientation de l'axe de la caméra peut se résumer à une rotation suivie d'un tilt. Le procédé selon la présente invention est basé sur l'observation que toute transformation affine du plan peut être interprétée comme une 5 transformation de l'image due à un changement de position d'une caméra à l'infini. Grâce à cette interprétation on peut décomposer une transformation affine en le produit: - d'un mouvement de la caméra le long de l'axe optique, ou zoom (1 paramètre), io -d'une translation parallèlement au plan focal (2 paramètres), - d'une rotation axiale de la caméra (1 paramètre), - et d'un changement de direction d'axe optique de la caméra (2 paramètres). Des algorithmes de l'art antérieur, tels que la méthode SIFT, 15 permettent de reconnaître une image pour laquelle les trois premières transformations sont arbitraires. Elles correspondent aux quatre paramètres de rotation axiale de la caméra, de zoom, et de translation parallèlement au plan focal (et donc perpendiculairement à l'axe optique). La méthode SIFT permet de déterminer des SIFs ( scale invariant features ), c'est-à-dire plus 20 précisément des caractéristiques invariantes par zoom, translation et rotation de l'image, mais ne tient pas compte des deux derniers paramètres relatifs au changement de direction d'axe optique de la caméra. Lowe prévoit des vues supplémentaires pour améliorer la sensibilité de la méthode SIFT, mais il s'agit de vues réelles, ce qui implique des manipulations supplémentaires 25 ainsi qu'une augmentation considérable des données à traiter. Pritchard prévoit uniquement quatre images simulées car on considérait qu'aller au-delà serait contreproductif et prohibitif en termes de temps de calcul. La présente invention va au-delà d'un préjugé généralement admis, selon lequel le temps de calcul serait prohibitif si l'on augmentait le nombre d'images 30 simulées. Avec le procédé selon la présente invention, on peut simuler avec une précision suffisante toutes les distorsions de l'image dues aux variations des deux paramètres non traités dans la méthode SIFT, qui sont les paramètres de changement de direction de l'axe optique de la caméra. - 5- Avec l'invention, on élabore d'abord plusieurs images simulées en fonction desdits deux derniers paramètres que l'on décrit par une rotation et un tilt. En particulier, les couples rotation-tilt peuvent s'inscrire dans une demi-sphère au-dessus de l'image digitale. On considère que la rotation et le tilt correspondent respectivement à la longitude et la latitude dans l'espace. Pritchard décrit en fait quatre rotations et une seule valeur de tilt à partir d'une image frontale. Avec l'invention, les images initiales peuvent être obtenues par des prises de vues non frontales, c'est-à-dire obliques jusqu'à environ 80 degrés. io Les systèmes de l'art antérieur permettent de reconnaître des objets avec une tolérance pour des changements d'orientation d'axe de la caméra entraînant des tilts réels allant jusqu'à 3 ou 4. Le procédé selon l'invention peut traiter les tilts jusqu'à une valeur dépassant 40. En effet, dans la situation où une caméra a pris deux vues d'un objet plat avec des tilts t et t', 15 la simulation de l'une de ces vues obliques à partir de l'autre peut demander de simuler un tilt allant jusqu'à la valeur tt'. Par exemple pour des latitudes de 80°, le tilt est de 5.76 et le tilt combiné quand les vues obliques ont une différence de longitude égale à 90° est égal à 5.762=33.2. Un tilt très supérieur à 2, allant jusqu'à 30 par exemple ou plus est donc possible, et le 20 procédé selon l'invention permet de reconnaître de telles vues obliques l'une à partir de l'autre. Ce procédé est donc capable de reconnaître toutes les vues possibles de l'image à l'infini, puisque les vues simulées n'ont plus besoin que d'un algorithme de reconnaissance invariant par translation, rotation et zoom, 25 problème bien maîtrisé dans l'état de l'art qui sait calculer des SIFs. Le principe sur lequel se base le procédé selon l'invention n'est pas de supposer que toute l'image a subi une seule transformation affine, ce qui n'est vrai que pour un objet complètement plan et une caméra à l'infini. Par contre, en appliquant un algorithme de reconnaissance prenant en compte 30 toutes les transformations affines de l'image on obtient bien une reconnaissance complète, car chaque déformation est localement tangente à une application affine. On peut résumer la situation en disant que la simulation de toutes les transformations affines suffit pour simuler effectivement toutes les déformations locales de l'image. - 6- Selon un mode de mise en oeuvre de l'invention, le procédé est appliqué à une image dite requête et une image dite cible, les SIFs des images simulées de la requête étant comparés aux SIFs des images simulées de la cible de façon à reconnaître des objets semblables ou identiques entre la requête et la cible. A titre d'exemple non limitatif, lorsqu'on applique le procédé selon l'invention à une ou plusieurs images dites requêtes et une ou plusieurs images dites cibles, les SIFs relatifs à la requête peuvent être déterminés au cours d'une étape préalable d'étalonnage de façon à constituer un dictionnaire io de SIFs. Et les SIFs relatifs aux cibles peuvent être respectivement déterminés au cours d'une étape de fonctionnement pendant laquelle on compare les SIFs obtenus à partir de chaque cible aux SIFs dudit dictionnaire.
Pour déterminer empiriquement un nombre et des positions optimaux 15 des couples rotation-tilt à réaliser afin de garantir des résultats acceptables, on réalise le procédé selon l'invention dans lequel la requête contient une prise de vue quelconque d'un objet de forme semblable ou identique à la forme d'un autre objet contenu dans la cible sous une prise de vue quelconque, et on détermine des couples rotation-tilt, c'est à dire ce nombre 20 optimum et ces positions optimales comme étant ceux pour lesquels les SIFs des deux objets sont semblables, pour un grand nombre d'objets testés. Le procédé selon l'invention prévoit d'élaborer un même nombre d'images simulées pour la requête et pour la cible, et pour les mêmes couples rotation-tilt. Mais il prévoit également le cas où on élabore un nombre 25 différent d'images simulées pour la requête et pour la cible, notamment avec des tilts différents ou identiques. Avantageusement, le nombre de rotations par tilt augmente en même temps que la valeur du tilt augmente. De préférence, on définit le tilt comme une fonction de la latitude dans une demi-sphère au-dessus de 30 l'image digitale, et l'écart de latitude entre deux tilts consécutifs diminue en même temps que le tilt augmente. En particulier, la latitude peut être mesurée par un paramètre 9 allant de 0 à 90 degrés, ou alternativement par un paramètre de tilt défini par t= 1/Icos(9)I. Ces caractéristiques permettent d'avoir des positions simulées de plus en plus rapprochées de la 35 caméra lorsque la latitude tend vers les 90°. 2931277 - 7- Selon une caractéristique avantageuse de l'invention, pour une rotation donnée, les tilts considérés forment approximativement, c'est-à-dire avec une tolérance, une suite géométrique finie 1, a, a2, a3, ... , an, a étant un nombre 5 plus grand que 1. A titre d'exemple non limitatif, a est de l'ordre de racine de 2 (-\12) et n peut aller de 2 à 6 si les couples rotation-tilt sont appliqués aussi bien sur la cible que sur la requête, et de 2 à 12 si les couples rotation-tilt sont appliqués sur une seule des deux images. Selon une autre caractéristique avantageuse de l'invention, pour un tilt io t donné, les rotations digitales, par exemple à partir du tilt t =a, forment approximativement, c'est-à-dire avec une tolérance, une suite arithmétique 0, b/t, 2b/t, ..., kb/t degrés, avec b en degrés et k un nombre entier. De préférence, b est de l'ordre de 72 degrés, et k est la dernière valeur entière telle que kb/t soit inférieur à180 degrés. Avec ces valeurs typiques, 15 pour chaque tilt testé t on simule (180/72).t images= 2,5.t images. Avantageusement, appliquer un tilt t consiste à sous-échantillonner l'image digitale dans une direction d'une valeur égale à t, ce qui divise sa surface par t. On peut également appliquer un tilt en combinant un sous-échantillonnage de l'image digitale selon une direction avec un sur- 20 échantillonnage selon une direction orthogonale à la précédente.
Pour éviter que la surface totale simulée n'excède trop celle de l'image initiale, on peut prendre par exemple a= racine de 2 et n=4. Si chaque tilt t est obtenu par sous-échantillonnage, cela divise la surface de l'image après 25 tilt par t. Donc on simule pour chaque t des images dont la surface totale est 180.t/(72.t) = 2,5 fois la surface de l'image initiale. La surface traitée est donc égale à 2.5 fois la surface de l'image initiale multipliée par le nombre de tilts. La surface simulée est donc 2,5.n=10 fois celle de l'image initiale. Si toutefois on applique le procédé selon l'invention à des zooms arrière d'un 30 facteur 3 des images requête et cible, la surface simulée est d'à peine 10/9=1.11 fois la surface initiale. Donc le procédé selon l'invention prend un temps comparable à la méthode SIFT, par exemple, tout en permettant la reconnaissance de vues obliques jusqu'à un tilt de transition de 16. Toutefois, un tilt peut être simulé en combinant un sur-échantillonnage dans une 35 direction et un sous-échantillonnage dans la direction orthogonale, de sorte 2931277 - 8- que la surface de l'image reste constante et ne diminue pas (voir définition du tilt plus loin). Ainsi, avec le procédé selon l'invention, simuler toutes les vues dépendant de deux paramètres en conservant un temps de calcul et une 5 mémoire raisonnable est rendu possible grâce au fait que l'espace des deux paramètres rotation et tilt est échantillonné avec assez peu de valeurs pour chaque paramètre, et que la simulation des distorsions dues aux vues obliques peut faire diminuer la taille des images par sous-échantillonnage. Cela permet de générer virtuellement toutes les vues possibles à une io précision donnée, tout en n'étendant pas trop la capacité mémoire requise. Selon un mode de réalisation avantageux de l'invention, le procédé selon l'invention peut s'appliquer à ladite image digitale en comparaison avec la même image digitale ou une transformée de celle-ci, par exemple une symétrie axiale, de façon à déterminer dans cette image digitale des 15 symétries, des formes répétées ou des formes présentant des périodicités.
Suivant un autre aspect de l'invention, il est prévu un dispositif pour la mise en oeuvre d'un procédé pour la reconnaissance d'objets dans au moins une image digitale selon l'invention. Ce dispositif comprend un circuit de 20 traitement configuré pour : a) appliquer, à partir de ladite image digitale, une pluralité de rotations digitales et au moins deux tilts digitaux t différents de 1 de façon à élaborer pour chaque couple rotation-tilt, une image simulée, et b) appliquer un algorithme invariant par translation, rotation et zoom 25 sur les images simulées de façon à déterminer des caractéristiques locales dites SIFs ( scale invariant features ) que l'on utilise pour la reconnaissance d'objets. Ce dispositif comprend avantageusement un espace mémoire dans lequel est stocké un dictionnaire de SIFs ; et le circuit de traitement est 30 configuré de façon à comparer les SIFs de ladite image digitale (image initiale) aux SIFs dudit dictionnaire. Selon l'invention, le circuit de traitement peut être configuré de façon à traiter un nombre arbitraire d'images en parallèle. - 9- D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en oeuvre nullement limitatif, et des dessins annexés, sur lesquels : La figure 1 est une vue générale d'un dispositif mettant en oeuvre le procédé selon l'invention ; La figure 2 est un organigramme illustrant de façon simplifiée des étapes du procédé selon l'invention ; La figure 3 est une vue générale illustrant les quatre paramètres principaux décrivant les positions d'une caméra ; io La figure 4 est une vue générale illustrant des comparaisons multiples entre images simulées ; La figure 5 est une vue générale illustrant une sphère dans laquelle s'inscrivent des couples rotation-tilt ; La figure 6 est une vue générale illustrant une répartition des positions 15 des tilts et rotations simulés sur la sphère de la figure 5 ; Les figures 7 et 8 sont des vues illustrant la différence entre tilts absolus et tilts relatifs, ou tilts de transition.
Sur la figure 1, on voit une unité de traitement 1 telle qu'un ordinateur 20 doté de moyens logiciels et matériels nécessaires pour son bon fonctionnement. Il comprend notamment un circuit de traitement 2 tel qu'un microprocesseur ou un microcontrôleur dédié qui est configuré de façon à traiter des images selon le procédé selon la présente invention. On distingue également un espace mémoire 3 conventionnel apte à stocker notamment 25 des SIFs sous la forme d'un dictionnaire. Cet ordinateur est équipé d'un moniteur 4 de visualisation sur lequel peuvent s'afficher les images traitées. Une caméra 5 est reliée à l'ordinateur 1 via un câble de connexion. Mais d'autres moyens de connexion notamment sans fil peuvent être utilisés. On peut aussi récupérer des images préalablement acquises et stockées dans 30 des moyens de stockages fixes de l'ordinateur ou portable. Bien que l'invention n'y soit pas limitée, on va maintenant décrire le procédé de reconnaissance selon l'invention appliqué pour la reconnaissance d'objets entre une image cible et une image requête. Sur la figure 2, l'organigramme illustre le traitement en parallèle des 35 deux images requête 6 et cible 10. 2931277 - 10 - A partir des deux images requête 6 et cible 10, on élabore une première image simulée pour un couple de rotation 7,11 et tilt 8,12, et on réalise plusieurs fois, par exemple p fois, les étapes 7,11 et 8,12, de façon à générer p images simulées en 9 et 13. En d'autres termes, chacune des 5 images subit le même traitement consistant à simuler toutes les distorsions possibles dues aux changements d'orientation de l'axe de la caméra, ce qui est un espace à deux paramètres, qu'on appelle longitude et latitude. Sur la figure 3 par exemple, l'angle theta 9 est la latitude et l'angle phi 4 la longitude. io Ces images simulées sont faites pour un nombre fini p de paires de longitudes et de latitudes, avec un échantillonnage qui rend le nombre de vues effectivement simulées petit (quelques dizaines), tout en garantissant que les quelques dizaines d'images simulées restent proches de toute autre vue possible. 15 A l'étape 14 sur la figure 2, les images ainsi simulées sont ensuite comparées entre elles par l'un quelconque des algorithmes déjà existants qui réalisent une reconnaissance efficace modulo une rotation de l'image (=rotation de la caméra autour de son axe optique), une translation (=mouvement de la caméra perpendiculaire à son axe) et un zoom 20 (=mouvement de la caméra sur son axe optique). Un tel algorithme est notamment l'algorithme SIFT tel que décrit dans le document US 671 1293. Sur la figure 4, on voit une illustration des comparaisons multiples effectuées sur les images simulées. Les deux images requête A et cible B symbolisées par deux carrés, entourées par leurs vues simulées (des parallélogrammes) 25 obtenues par deux tilts et les rotations associées. Les flèches joignant des parallélogrammes d'une des images à quelques parallélogrammes de l'autre indiquent que l'on fait des comparaisons des vues simulées d'une image avec des vues simulées de l'autre. La sortie 15 peut être une liste (éventuellement vide) de paires de 30 sous-images de la requête et de la cible où figure un objet reconnu sur les deux images, ainsi que la transformation affine identifiée comme permettant de transformer une des sous-images en l'autre. La figure 3 illustre les quatre paramètres principaux induisant une déformation de l'image prise par une caméra : la caméra peut tourner sur 35 elle-même d'un angle psi yr, son axe optique peut adopter un angle theta 9 - 11- (latitude) par rapport à l'axe frontal, et cette inclinaison d'un angle theta est faite dans un plan vertical faisant un angle phi 4 (longitude) avec une direction fixée. Le procédé selon l'invention permet de générer toutes les déformations affines qui seraient dues aux changements de direction de l'axe de la caméra à l'infini observant frontalement l'image plane, ces déformations dépendant donc des deux paramètres, la longitude et la latitude, qui sont échantillonnés de sorte que le nombre de vues généré soit de quelques dizaines. Les longitudes simulées sont de plus en plus nombreuses quand la latitude croît. io Mais quand la latitude croît, les images sont aussi éventuellement de plus en plus sous-échantillonnées dans une direction et donc de plus en plus petites, les taux de sous-échantillonnage étant alors une suite géométrique. De manière encore plus précise, la latitude est mesurée par un paramètre e allant de 0 à 90 degrés, ou alternativement par un paramètre de 15 tilt défini par t= 1/I cos(9) I . La longitude est décrite par un paramètre 4 (voir figure 3). Les valeurs du tilt t sont échelonnées logarithmiquement et celles de 4 arithmétiquement. On peut définir le déplacement de la caméra d'une position à une autre par une transformée A définie par : 20 A=H,RI (y)TtR2(0) cosyr sin y! ù sinyr t 0 cosO ùsin l cosys 0 1 sin O cosy La transformée A est une transformée linéaire du plan associée à une matrice 2x2 à quatre éléments (a, b, c, d). Etant donnée une image u(x,y), 25 interprétée comme une image vue frontalement par une caméra optique, l'application u(x,y) -> u(A(x,y)) s'interprète alors comme la déformation de l'image qui sera observée quand la caméra tourne sur son axe optique d'un angle psi yr, qu'elle glisse sur son axe optique en s'éloignant (ou se rapprochant si lambda 2L<1) sur cet axe d'un facteur lambda, et que son axe 30 optique s'éloigne de sa position frontale par une combinaison d'un changement de latitude theta 9 et d'un changement de longitude phi 0. La caméra peut aussi commencer par se déplacer par un mouvement de translation perpendiculaire à son axe optique, ce qui entraîne une translation préalable de l'image (e,f) non prise en compte dans la formule précédente. 2931277 - 12 - Cette translation (e, f), le zoom lambda 2L et la rotation psi yr sont les quatre paramètres maîtrisés par l'état de l'art. La présente invention porte sur la manière de reconnaître une image quand elle a subi en plus les déformations provoquées par les changements de latitude et de longitude. 5 La figure 5 illustre une sphère sur laquelle sont positionnés des tilts et des rotations. Sur cette figure en perspective on voit les positions des caméras qui seraient simulées pour les tilts 2, 2-\12 et 4, soit respectivement pour les angles 60°, 69.30° et 75.52°. Il y a de plus en plus d'angles de rotation quand les tilts augmentent. io La figure 6 illustre une répartition des positions des tilts et rotations. Chaque cercle correspond à un tilt. Le cercle le plus intérieur est pour le tilt associé à theta 8= 45°, et les cercles successifs correspondent à theta 8=60, 70, 75 et 80°. Plus le tilt augmente, et plus il est nécessaire d'augmenter le nombre de positions sur le cercle, c'est-à-dire le nombre de longitudes phi O. 15 Les points indiqués ont donc pour coordonnées sin(8)cos(4) et sin(8) sin(4). Les rectangles indiquent la déformation d'une image carrée provoquée par chaque tilt. Le procédé selon l'invention fait intervenir un certain nombre de 20 termes connus par l'homme du métier et qui sont rappelés ci-dessous : Rotation de l'image digitale u(x,y) : calcul, par interpolation à partir des valeurs u(x,y) aux pixels (x,y) de l'image, des valeurs v(x,y)=u(R(x,y)) 25 où R est une rotation planaire d'angle phi, décrite par une matrice à deux lignes et deux colonnes de paramètres (cos (0, -sin(4), sin(4), cos(4)). L'effet visuel est que l'image tourne sur l'écran de l'ordinateur d'un angle O. Cette opération simule notamment l'effet qu'aurait eu une rotation autour de son axe optique d'une caméra prenant l'image en vue frontale. 30 Tilt de l'image digitale dans la direction de x : on pose v(x,y) = u(xa,y/b), et ab= t est le facteur de tilt , en abrégé le tilt . Cette opération simule le résultat sur une image u(x,y), supposée observée frontalement par une caméra à l'infini, de l'inclinaison dans la direction de x 35 de l'axe optique de la caméra. L'angle de l'axe optique avec la direction 2931277 - 13- normale est l'une des deux valeurs theta 9 comprises entre -90° et +90° telles que t=1/Icos(9)I. L'image u(x,y) est la vue frontale et l'image v(x,y) est donc la vue oblique après tilt t d'un angle e dans la direction de x. Sur l'image digitale, le tilt peut être obtenu en suréchantillonnant l'image d'un facteur b 5 dans la direction de y, et en sous-échantillonnant l'image d'un facteur a dans la direction de x, où b est un facteur arbitraire entre 1 et t. Si a = t, b=1, on a juste un sous-échantillonnage dans la direction de x, et si a=1, b=t, on a juste un sur-échantillonnage dans la direction de y. En cas de sous-échantillonnage, l'image doit être préalablement lissée dans la direction de x io par convolution de l'image avec un filtre passe-bas unidimensionnel. Si a=t, et b=1, l'image digitale après tilt a une surface divisée par t (et la surface ne change pas si a='lt, b=-\1t). Zoom arrière de l'image digitale : application à l'image u(x,y) d'une convolution v(x,y)=(G*u) par un filtre passe-bas Gh(x,y)=(1/h2)G(x/h,y/h), 15 suivie d'un sous-échantillonnage v(x,y)=(Gh*u)(xh,yh), où h est le facteur de zoom arrière. Cette opération simule l'éloignement de la caméra par rapport à l'image, la distance à l'objet avant l'éloignement étant dans le rapport h à la distance après l'éloignement. La fonction G(x,y), souvent une gaussienne, simule le noyau de convolution optique d'une caméra. Un zoom avant 20 numérique est obtenu par simple interpolation. Un zoom arrière ou avant est un zoom tout court.
Tilt absolu et tilt relatif: On appelle tilt absolu le facteur t=1/Icos(9)I de compression de l'image dans une direction entrainé par le passage de la 25 caméra d'une position frontale face à un objet plan, à une vue oblique. Supposons maintenant qu'un même objet plan ait été pris en photo par une caméra dans deux positions dont l'axe optique passe par le même point de l'image. La position de l'axe de la première caméra est décrite par deux angles 9 et 4 et celle de la seconde par deux angles 9' et 4'. Quand 4_4', le tilt 30 qu'il faut appliquer à l'une des deux images pour passer directement à l'autre (à un zoom près) est égal au rapport t7t, où t' désigne le plus grand des deux tilts, et t le plus petit. Quand 4=4'+90°, ce même tilt devant être appliqué à l'une des deux images u(tx,y) pour passer à l'autre u(x,t'y) est maximal et égal au produit tt'. Ce fait explique pourquoi, pour comparer des vues 35 obliques, on simule avantageusement des tilts importants pouvant dépasser 2931277 - 14- 40. Sur les figures 7 et 8 notamment, on voit de manière illustrée la différence entre tilts absolus et tilts relatifs, ou de transition. A gauche, sur la figure 7, on voit la caméra dans deux positions correspondant aux valeurs de 9 =30° et 60°, avec et 4=4'. L'un des tilts est égal à 2, l'autre à 2/ I3, et le tilt 5 relatif, de transition pour passer de v à v', est donc XI3, qui est plus petit que le tilt qui passait de u à v'. Donc, quand les tilts se font dans le même plan (4=4'), on voit que les tilts à simuler sont plus petits que les tilts originaux. A droite, le plan de tilt a changé : on a 4-4'=90°, et les tilts sont t=2 de u à v , et t'=4 de u à v'. Dans ce cas, les tilts se multiplient, et le tilt relatif, de io transition de v à v', est 2 x4 =8.
SIF ( scaie invariant feature ) : nombres ou ensembles de nombres attachés à une image digitale et qui changent peu quand on fait tourner l'image, ou quand on la translate, et qui peuvent aussi se maintenir avec peu 15 de changement quand un zoom est appliqué à l'image. Les SIFs permettent donc de reconnaître des pixels dans l'image indépendamment de leur position, recadrage, orientation, et zoom. Un exemple classique de tels indicateurs sont obtenus par la méthode SIFT ( scale invariant feature transform ). 20 La présente invention peut efficacement s'appliquer à l'un des domaines suivants : - comparaison de différentes images d'un film ou des images de plusieurs films ; - comparaison de différentes images prises par une caméra ou plusieurs 25 caméras placées dans des positions successives ou simultanées ; - utilisation à bord d'un véhicule équipé de caméras, par exemple pour sa navigation ; - détection des symétries obliques dans une image par l'application du procédé à l'image et à l'image symétrisée par rapport à une droite 30 arbitraire ; - reconnaissance des êtres animés (humains, animaux, machines) ; - comparaison ou classement des photographies, peintures, et généralement oeuvres d'art plastiques ; - organisation et gestion de grandes bases de données d'images 35 individuelles ou collectives ; - 15 - - reconstruction de relief d'une scène ou d'un objet à partir de plusieurs vues ; - calibration ou étalonnage d'images prises par une ou plusieurs caméras ; - cartographie, plane, ou en relief par comparaison de vues aériennes, spatiales, ou terrestres ; - reconnaissance de symboles, mots, caractères d'imprimerie ou logos ; et - application à un film pour suivre à la trace un objet présent dans toute une séquence.
Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être io décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.

Claims (17)

  1. REVENDICATIONS1. Procédé pour la reconnaissance d'objets dans au moins une image digitale dans lequel : s a) à partir de ladite image digitale, on simule une pluralité de rotations digitales et au moins deux tilts digitaux différents de 1, de façon à élaborer pour chaque couple rotation-tilt, une image simulée, et b) on applique un algorithme produisant des valeurs invariantes par translation, rotation et zoom sur les images simulées de façon à déterminer io des caractéristiques locales dites SIFs ( scale invariant features ) que l'on utilise pour la reconnaissance d'objets.
  2. 2. Procédé selon la revendication 1, caractérisé en ce qu'il est appliqué à une image dite requête et une image dite cible, les SIFs des images 15 simulées de la requête étant comparées aux SIFs des images simulées de la cible de façon à reconnaître des objets semblables ou identiques entre la requête et la cible.
  3. 3. Procédé selon la revendication 2, caractérisé en ce que la requête 20 contient une prise de vue quelconque d'un objet de forme semblable ou identique à la forme d'un autre objet contenu dans la cible sous une prise de vue quelconque ; et en ce qu'on détermine des couples rotation-tilt pour lesquels les SIFs des deux objets sont semblables. 25
  4. 4. Procédé selon la revendication 2 ou 3, caractérisé en ce qu'on élabore un même nombre d'images simulées pour la requête et pour la cible, et pour les mêmes couples rotation-tilt.
  5. 5. Procédé selon la revendication 2 ou 3, caractérisé en ce qu'on élabore un 30 nombre différent d'images simulées pour la requête et pour la cible.
  6. 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que le nombre de rotations par tilt augmente en même temps que la valeur du tilt augmente. 35 10 20- 17 -
  7. 7. Procédé selon l'une quelconque des revendications précédentes, dans lequel procédé le tilt est fonction de la latitude dans une demi-sphère au-dessus de l'image digitale ; caractérisé en ce que l'écart de latitude entre deux tilts consécutifs diminue en même temps que le tilt augmente.
  8. 8. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que les tilts considérés forment approximativement une suite géométrique finie 1, a, a2, a3, ... , an, a étant un nombre plus grand que 1.
  9. 9. Procédé selon la revendication 8, caractérisé en ce que a est de l'ordre de racine de 2 et n allant de 2 à 6 si les couples rotation-tilt sont appliqués aussi bien sur la cible que sur la requête, et de 2 à 12 si les couples rotation-tilt sont appliqués sur une seule des deux images. 15
  10. 10. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour un tilt t donné, les rotations digitales forment une suite approximativement arithmétique 0, b/t, 2b/t, ..., kb/t degrés, avec b en degrés et k un nombre entier.
  11. 11. Procédé selon la revendication 10, caractérisé en ce que b est de l'ordre de 72 degrés, et k la dernière valeur entière telle que kb/t soit inférieur à 180 degrés. 25
  12. 12. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'appliquer un tilt t consiste à sous-échantillonner l'image digitale dans une direction fixée d'une valeur égale à t.
  13. 13. Procédé selon l'une quelconque des revendications précédentes, 30 caractérisé en ce qu'appliquer un tilt t consiste à sous-échantillonner l'image digitale dans une direction fixée et à sur-échantillonner dans une direction orthogonale à la précédente.
  14. 14. Procédé selon l'une quelconque des revendications précédentes, 35 caractérisé en ce qu'il est appliqué à une ou plusieurs images dites requêtes 2931277 - 18 - et une ou plusieurs images dites cibles ; et en ce que les SIFs relatifs à la requête sont déterminés au cours d'une étape préalable d'étalonnage de façon à constituer un dictionnaire de SIFs ; et en ce que les SIFs relatifs aux cibles sont respectivement déterminés au cours d'une étape de fonctionnement pendant laquelle on compare les SIFs obtenus à partir de chaque cible aux SIFs dudit dictionnaire.
  15. 15. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est appliqué à une image digitale en comparaison io avec la même image digitale ou une transformée de celle-ci, de façon à déterminer dans cette image digitale des symétries obliques, des formes répétées ou des formes présentant des périodicités.
  16. 16. Dispositif pour la mise en oeuvre d'un procédé pour la reconnaissance 15 d'objets dans au moins une image digitale selon l'une quelconque des revendications précédentes, ce dispositif comprenant un circuit de traitement configuré pour : a) appliquer, à partir de ladite image digitale, une pluralité de rotations digitales et au moins deux tilts digitaux t différents de 1 de façon à élaborer 20 pour chaque couple rotation-tilt, une image simulée, et b) appliquer un algorithme produisant des valeurs invariantes par translation, rotation et zoom sur les images simulées de façon à déterminer des caractéristiques locales dites SIFs ( scale invariant features ) que l'on utilise pour la reconnaissance d'objets. 25
  17. 17. Dispositif selon la revendication 16, caractérisé en ce qu'il comprend un espace mémoire dans lequel est stocké un dictionnaire de SIFs ; et en ce que le circuit de traitement est configuré de façon à comparer les SIFs de ladite image digitale aux SIFs dudit dictionnaire. 30
FR0853244A 2008-05-19 2008-05-19 Procede et dispositif de reconnaissance invariante-affine de formes Expired - Fee Related FR2931277B1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR0853244A FR2931277B1 (fr) 2008-05-19 2008-05-19 Procede et dispositif de reconnaissance invariante-affine de formes
KR1020107028499A KR20110073386A (ko) 2008-05-19 2009-05-18 형태의 불변 어파인 인식을 위한 방법 및 장치
EP09761912A EP2289026A2 (fr) 2008-05-19 2009-05-18 Procédé et dispositif de reconnaissance invariante-affine de formes
JP2011510028A JP5442721B2 (ja) 2008-05-19 2009-05-18 形状の不変量アフィン認識方法及びデバイス
CN200980127996.XA CN102099815B (zh) 2008-05-19 2009-05-18 用于形状的仿射不变识别的方法和装置
US12/993,499 US8687920B2 (en) 2008-05-19 2009-05-18 Method and device for the invariant-affine recognition of shapes
PCT/FR2009/050923 WO2009150361A2 (fr) 2008-05-19 2009-05-18 Procede et dispositif de reconnaissance invariante-affine de formes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0853244A FR2931277B1 (fr) 2008-05-19 2008-05-19 Procede et dispositif de reconnaissance invariante-affine de formes

Publications (2)

Publication Number Publication Date
FR2931277A1 true FR2931277A1 (fr) 2009-11-20
FR2931277B1 FR2931277B1 (fr) 2010-12-31

Family

ID=40352778

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0853244A Expired - Fee Related FR2931277B1 (fr) 2008-05-19 2008-05-19 Procede et dispositif de reconnaissance invariante-affine de formes

Country Status (7)

Country Link
US (1) US8687920B2 (fr)
EP (1) EP2289026A2 (fr)
JP (1) JP5442721B2 (fr)
KR (1) KR20110073386A (fr)
CN (1) CN102099815B (fr)
FR (1) FR2931277B1 (fr)
WO (1) WO2009150361A2 (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110054872A1 (en) * 2009-08-31 2011-03-03 Aptina Imaging Corporation Optical simulator using parallel computations
KR101165357B1 (ko) * 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법
CN102231191B (zh) * 2011-07-17 2012-12-26 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
US9020982B2 (en) * 2012-10-15 2015-04-28 Qualcomm Incorporated Detection of planar targets under steep angles
CN103076943B (zh) * 2012-12-27 2016-02-24 小米科技有限责任公司 一种图标的转换方法和图标的转换装置
JP6014008B2 (ja) * 2013-11-13 2016-10-25 日本電信電話株式会社 幾何検証装置、幾何検証方法及びプログラム
CN104156413A (zh) * 2014-07-30 2014-11-19 中国科学院自动化研究所 一种基于商标密度的个性化商标匹配识别方法
US9026407B1 (en) * 2014-10-16 2015-05-05 Christine Marie Kennefick Method of making and using a material model of elements with planar faces
CN109801234B (zh) * 2018-12-28 2023-09-22 南京美乐威电子科技有限公司 图像几何校正方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040081360A1 (en) * 2002-10-28 2004-04-29 Lee Shih-Jong J. Fast pattern searching
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161204A (en) * 1990-06-04 1992-11-03 Neuristics, Inc. Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
JP3244798B2 (ja) * 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5911035A (en) * 1995-04-12 1999-06-08 Tsao; Thomas Method and apparatus for determining binocular affine disparity and affine invariant distance between two image patterns
US5802525A (en) * 1996-11-26 1998-09-01 International Business Machines Corporation Two-dimensional affine-invariant hashing defined over any two-dimensional convex domain and producing uniformly-distributed hash keys
US6005986A (en) * 1997-12-03 1999-12-21 The United States Of America As Represented By The National Security Agency Method of identifying the script of a document irrespective of orientation
US6181832B1 (en) * 1998-04-17 2001-01-30 Mclean Hospital Corporation Methods and systems for removing artifacts introduced by image registration
US6912293B1 (en) * 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US7016539B1 (en) * 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6507661B1 (en) * 1999-04-20 2003-01-14 Nec Research Institute, Inc. Method for estimating optical flow
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
US7289662B2 (en) * 2002-12-07 2007-10-30 Hrl Laboratories, Llc Method and apparatus for apparatus for generating three-dimensional models from uncalibrated views
CA2535828C (fr) * 2003-08-15 2011-02-08 Scape A/S Systeme de vision artificielle destine a la classification et a la localisation spatiale d'objets tridimensionnels finis
US7697792B2 (en) * 2003-11-26 2010-04-13 Yesvideo, Inc. Process-response statistical modeling of a visual image for use in determining similarity between visual images
WO2005055138A2 (fr) * 2003-11-26 2005-06-16 Yesvideo, Inc. Modelisation statistique en reponse-processus d'une image visuelle permettant de determiner la similarite entre des images visuelles et utilisation de cette similarite d'images pour generer une interaction avec une collection d'images visuelles
US7382897B2 (en) * 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
US7493243B2 (en) * 2004-12-27 2009-02-17 Seoul National University Industry Foundation Method and system of real-time graphical simulation of large rotational deformation and manipulation using modal warping
US7653264B2 (en) * 2005-03-04 2010-01-26 The Regents Of The University Of Michigan Method of determining alignment of images in high dimensional feature space
WO2006138525A2 (fr) * 2005-06-16 2006-12-28 Strider Labs Systeme et procede de reconnaissance d'images 2d utilisant des modeles de classe 3d
EP1736928A1 (fr) * 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Recalage robuste d'images
US7454037B2 (en) * 2005-10-21 2008-11-18 The Boeing Company System, method and computer program product for adaptive video processing
US7912321B1 (en) * 2005-12-19 2011-03-22 Sandia Corporation Image registration with uncertainty analysis
EP1850270B1 (fr) * 2006-04-28 2010-06-09 Toyota Motor Europe NV Détecteur robuste et descripteur de point d'intérêt
CN100587518C (zh) * 2006-07-20 2010-02-03 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
KR100796849B1 (ko) * 2006-09-04 2008-01-22 삼성전자주식회사 휴대 단말기용 파노라마 모자이크 사진 촬영 방법
CN100530239C (zh) * 2007-01-25 2009-08-19 复旦大学 基于特征匹配与跟踪的视频稳定方法
JP4668220B2 (ja) * 2007-02-20 2011-04-13 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
US8090160B2 (en) * 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8004576B2 (en) * 2008-10-31 2011-08-23 Digimarc Corporation Histogram methods and systems for object recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
US20040081360A1 (en) * 2002-10-28 2004-04-29 Lee Shih-Jong J. Fast pattern searching

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LOWE D G: "Distinctive image features from scale-invariant keypoints", INTERNATIONAL JOURNAL OF COMPUTER VISION, DORDRECHT, NL, vol. 60, no. 2, 1 January 2004 (2004-01-01), pages 91 - 110, XP002377339 *

Also Published As

Publication number Publication date
CN102099815A (zh) 2011-06-15
WO2009150361A2 (fr) 2009-12-17
JP2011521372A (ja) 2011-07-21
CN102099815B (zh) 2014-09-17
JP5442721B2 (ja) 2014-03-12
WO2009150361A3 (fr) 2010-02-25
FR2931277B1 (fr) 2010-12-31
EP2289026A2 (fr) 2011-03-02
US20110069889A1 (en) 2011-03-24
KR20110073386A (ko) 2011-06-29
US8687920B2 (en) 2014-04-01

Similar Documents

Publication Publication Date Title
FR2931277A1 (fr) Procede et dispositif de reconnaissance invariante-affine de formes
Lumsdaine et al. Full resolution lightfield rendering
EP0661671B1 (fr) Procédé et dispositif de traitement d&#39;image pour construire à partir d&#39;une image source une image cible avec changement de perspective
EP1386480B1 (fr) Procede de capture et d&#39;affichage d&#39;une image panoramique numerique a resolution variable
WO2003010599A1 (fr) Procede de capture d&#39;une image panoramique au moyen d&#39;un capteur d&#39;image de forme rectangulaire
EP2828834A2 (fr) Modèle et procédé de production de modèle 3d photo-réalistes
CN107660336A (zh) 对于从摄像机获得的图像,具备自动补正功能的图像处理装置及其方法
Jung et al. Deep360Up: A deep learning-based approach for automatic VR image upright adjustment
FR2955409A1 (fr) Procede d&#39;integration d&#39;un objet virtuel dans des photographies ou video en temps reel
FR3009635A1 (fr) Procede de recherche d&#39;une image similaire dans une banque d&#39;images a partir d&#39;une image de reference
WO2018031962A1 (fr) Capture d&#39;images avec modulation de longueur de trajet optique numérique
Chandramouli et al. Convnet-based depth estimation, reflection separation and deblurring of plenoptic images
FR3011968A1 (fr) Procede et dispositif de capture et de construction d&#39;au moins une image panoramique ou stereoscopique
FR3047103A1 (fr) Procede de detection de cibles au sol et en mouvement dans un flux video acquis par une camera aeroportee
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d&#39;objets d&#39;un espace, construction de contours et applications
Jiang et al. Annular computational imaging: Capture clear panoramic images through simple lens
EP2909671A1 (fr) Procédé de conception d&#39;un imageur monovoie passif capable d&#39;estimer la profondeur de champ
FR3002673A1 (fr) Procede et dispositif d&#39;imagerie tridimensionnelle d&#39;une region partielle de l&#39;environnement d&#39;un vehicule
FR2729236A1 (fr) Guidage de robot par eclairage actif
EP2994813B1 (fr) Procede de commande d&#39;une interface graphique pour afficher des images d&#39;un objet tridimensionnel
WO2011033186A1 (fr) Procédé de numérisation tridimensionnelle d&#39;une surface comprenant la projection d&#39;un motif combiné
EP3018625B1 (fr) Procédé de calibration d&#39;un système de visée
WO2020094441A1 (fr) Capteur d&#39;image pour la reconnaissance optique de code(s)
Li et al. Digital three-dimensional reconstruction based on integral imaging
EP3072110B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

ST Notification of lapse

Effective date: 20200108