FR2914761A1 - Dispositif pour reconnaitre un objet sur une image - Google Patents

Dispositif pour reconnaitre un objet sur une image Download PDF

Info

Publication number
FR2914761A1
FR2914761A1 FR0852220A FR0852220A FR2914761A1 FR 2914761 A1 FR2914761 A1 FR 2914761A1 FR 0852220 A FR0852220 A FR 0852220A FR 0852220 A FR0852220 A FR 0852220A FR 2914761 A1 FR2914761 A1 FR 2914761A1
Authority
FR
France
Prior art keywords
typical
point
detail
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0852220A
Other languages
English (en)
Other versions
FR2914761B1 (fr
Inventor
Masanari Takaki
Hironobu Fujiyoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of FR2914761A1 publication Critical patent/FR2914761A1/fr
Application granted granted Critical
Publication of FR2914761B1 publication Critical patent/FR2914761B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Dispositif de reconnaissance d'objet, qui établit chacun des points clés extraits d'une image typique (22) et un des points clés extrait d'une image d'entrée (25), ayant des détails invariant à l'échelle semblables l'un à l'autre, comme point correspondant typique et point correspondant d'objet concordant l'un avec l'autre, et produit un vecteur de position orienté depuis un point de référence typique de l'image typique vers chaque point de détail typique. Le dispositif détermine une position d'un point de référence d'objet sur l'image d'entrée d'après une position de chaque point correspondant d'objet et le vecteur du point correspondant typique concordant avec le point correspondant d'objet. Lorsque les positions du point de référence d'objet sont concentrées, le dispositif (28) estime qu'une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée concorde avec l'image typique, et le dispositif reconnaît la figuration comme étant un objet indiqué par l'image typique.

Description

DISPOSITIF POUR RECONNAITRE UN OBJET SUR UNE IMAGE
La présente invention est relative à un dispositif de reconnaissance d'objet qui reconnaît une figuration d'un objet présente sur une image d'entrée sous la forme d'un objet indiqué par une image typique lorsque la figuration de l'objet concorde avec l'image typique.
Diverses techniques pour reconnaître une figuration d'une image d'entrée concordant avec une image typique enregistrée ont été proposées. Par exemple, des points clés sont extraits d'une image d'entrée, un détail d'image en chaque point clé est calculé, et chaque détail calculé est comparé avec des détails d'image en des points clés extraits d'une image typique. En réponse à cette comparaison, il est estimé si un objet concordant avec l'image typique est présent sur l'image d'entrée. Ce procédé consistant à comparer des détails de points clés sur une image d'entrée avec des détails de points clés d'une image typique a été décrit dans un document de brevet (première publication de brevet japonais publiée n 2006-65 399) ainsi que dans un document qui n'est pas un brevet ("Distinctive Image Features from Scale-Invariant Keypoints", article écrit par David G. Lowe, dans la revue International Journal of Computer Vision, 2004). Plus particulièrement, des détails sont établis de manière à être invariants à la transformation d'échelle (c'est-à-dire l'agrandissement et la réduction) et à la rotation de l'image. Par conséquent, même lorsqu'une dimension ou une position en rotation d'une figuration d'un objet présente sur une image d'entrée diffère d'une image typique d'un objet, la figuration de l'objet peut être reconnue comme étant l'objet.
Dans ce procédé de comparaison, un lissage de l'image à l'aide de la fonction gaussienne est effectué pour une image d'entrée. Plus particulièrement, plusieurs images lissées correspondant à des échelles respectives de la fonction gaussienne sont calculées à partir d'une image d'entrée. Aux images lissées est appliqué un filtre de DOG (Différence de Gaussiennes) correspondant aux différentes échelles afin d'obtenir plusieurs images à DOG, et des valeurs extrêmes sont détectées d'après les images à DOG. Un point (c'est-à-dire un pixel) de chaque valeur extrême est établi comme candidat pour un point clé (ci-après, on l'appellera candidat à un point clé). L'échelle de chaque image à DOG ayant au moins une valeur extrême sert ensuite à calculer un détail au point de la valeur extrême. De la même manière, l'image d'entrée est réduite ou miniaturisée à chacun des rapports de réduction pour obtenir des images réduites, d'autres images à DOG sont calculées à partir de chacune des images réduites, et d'autres candidats à des points clés de l'image d'entrée sont détectés à partir des autres images à DOG. Dans cette détection des candidats à des points clés, existe une probabilité pour que certains des candidats à des points clés créent un problème d'ouverture. Pour résoudre ce problème, des points clés moins contrastés et des points clés situés sur les bords sont supprimés des candidats à des points clés afin d'extraire de l'image d'entrée des points clés stables. Ensuite, un détail d'image est calculé pour chaque point clé extrait. Le détail d'image de chaque point clé contient un élément de détail invariant à la transformation d'échelle, aux informations d'échelle nécessaires au calcul du détail invariant à la transformation d'échelle et aux informations (à savoir des informations de rotation) indiquant une rotation d'une image dans une zone prédéterminée autour du point clé. La zone prédéterminée est déterminée en fonction des informations d'échelle. Comme décrit en détail dans les documents, le détail invariant à la transformation d'échelle est invariant à la transformation d'échelle (c'est-à-dire l'agrandissement et la réduction d'image) et à la rotation de l'image. Par conséquent, même lorsqu'une figuration d'objet correspondant à une image typique existe sur une image d'entrée à n'importe quelles dimensions ou n'importe quelle position en rotation, la figuration d'objet peut être reconnue comme étant l'objet. Lors de l'opération de mise en concordance, un détail invariant à la transformation d'échelle en chaque point clé de l'image typique est comparé avec des détails invariants à la transformation d'échelle de tous les points clés de l'image d'entrée. Lorsque des détails de certains points clés de l'image d'entrée sont identiques ou similaires à des détails respectifs de points clés de l'image typique, il peut être estimé qu'une figuration d'objet concordant avec l'image typique existe sur l'image d'entrée. Par exemple, le nombre de points clés existant sur une image typique est égal à 1oo et des points clés ayant des détails identiques ou similaires à des détails respectifs des points clés de l'image typique sont extraits d'une image d'entrée. Lorsque le nombre de points clés extraits de l'image d'entrée est égal à 90 ou plus, une figuration d'un objet concordant avec l'image typique est présente avec une forte probabilité sur l'image d'entrée. Par conséquent, la figuration d'objet peut être reconnue comme étant l'objet. En revanche, lorsque le nombre de points clés extraits de l'image d'entrée est égal à 10 ou moins, une figuration d'un objet concordant avec l'image typique est présente avec une faible probabilité sur l'image d'entrée. Par conséquent, aucun objet indiqué par l'image typique n'est reconnu. Cependant, même lorsqu'une figuration d'un objet concordant avec une image typique existe réellement sur une image d'entrée, il est parfois difficile d'extraire suffisamment de points clés de l'objet de l'image d'entrée. Dans ce cas, puisque le nombre de points clés de l'objet extraits de l'image d'entrée devient faible, il est parfois jugé à tort qu'aucun objet concordant avec l'image typique n'existe sur l'image d'entrée. Par exemple, dans le cas d'une existence d'une occlusion, une figuration d'un objet remarqué concordant avec une image typique est cachée derrière une figuration d'un autre objet sur une image entrée, si bien que l'objet remarqué est partiellement représenté sur l'image d'entrée. Dans ce cas, bien que la figuration d'objet concordant avec l'image typique soit présente sur l'image d'entrée, des points clés de l'objet remarqué ne peuvent pas être suffisamment extraits de l'image d'entrée. De la sorte, le nombre de points clés de l'objet remarqué extraits de l'image d'entrée devient faible. En outre, lorsqu'une figuration d'objet est représentée sous des dimensions extrêmement petites sur une image d'entrée, des points clés d'un objet ne peuvent pas être suffisamment extraits de l'image d'entrée. Ainsi, lorsque la figuration d'objet représentée sur une image d'entrée a presque les mêmes dimensions que celles d'une image typique de l'objet, le nombre de points clés de l'objet extraits de l'image d'entrée devient presque égal au nombre de points clés de l'image typique. En revanche, lorsque la figuration d'objet a des dimensions extrêmement petites en comparaison de l'image typique, la résolution sur la figuration d'objet est très basse.
Par conséquent, le nombre de points clés de l'objet extraits de l'image d'entrée devient très faible. Comme décrit plus haut, lors de la reconnaissance d'un objet, à l'aide des détails invariants à la transformation d'échelle des points clés, une figuration d'objet concordant avec une image typique sur une image d'entrée est de préférence reconnue comme objet ayant l'image typique, quelle que soit la transformation d'échelle (c'est-à-dire l'agrandissement et la réduction d'image) ou la rotation de l'image. Cependant, lorsqu'une figuration d'objet concordant avec une image typique est établie dans un état spécifique (occlusion, dimensions extrêmement petites ou analogue) sur une image d'entrée, un petit nombre de points clés ayant des détails identiques ou similaires à des détails respectifs de points clés de l'image typique sont extraits de l'image d'entrée. Par conséquent, il est parfois jugé à tort qu'aucune figuration d'objet concordant avec l'image typique n'existe sur l'image d'entrée.
La présente invention vise à réaliser, compte tenu des inconvénients du dispositif de reconnaissance d'objet selon la technique antérieure, un dispositif de reconnaissance d'objet qui reconnait de manière fiable comme objet une figuration d'un objet concordant avec une image typique sur une image d'entrée même lorsque des points clés de l'objet sont insuffisamment extraits de l'image d'entrée. Selon un premier aspect de la présente invention, l'objectif est atteint grâce à la proposition d'un dispositif de reconnaissance d'objet comprenant une unité d'extraction de points de détail typiques extrayant d'une image typique plusieurs points de détails typiques, une première unité de calcul de détail, calculant un détail de chaque point de détail typique à partir de données d'image de l'image typique, une unité d'extraction de points de détail d'objet, extrayant d'une image d'entrée plusieurs points de détails de l'objet, une deuxième unité de calcul de détail calculant un détail de chaque point de détail d'objet d'après des données d'image de l'image d'entrée, une unité d'établissement de points correspondants, une unité de production d'informations, une unité d'estimation et une unité de reconnaissance. L'unité d'établissement calcule des similitudes entre le détail d'un point de détail typique et les détails des points de détails d'objet pour chaque point de détail typique, estime d'après les similitudes si, oui ou non, les détails d'un point de détail typique et d'un point de détail d'objet de chaque paire sont mutuellement semblables, et établit un point de détail typique et un point de détail d'objet de chaque paire, ayant les détails mutuellement semblables, comme point correspondant typique et point correspondant d'objet concordant l'un avec l'autre. L'unité de production produit des informations de positions indiquant des positions des points de détail typiques sur l'image typique. L'unité d'estimation estime, d'après les informations de position des points correspondants typiques si, oui ou non, une relation de position entre ou parmi les points correspondants d'objet est sensiblement semblable à une relation de position entre ou parmi les points correspondants typiques. L'unité de reconnaissance reconnaît une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée comme objet indiqué par l'image typique lorsque l'unité d'estimation estime que les relations de position sont sensiblement identiques l'une à l'autre. Avec cette configuration du dispositif, si une figuration d'objet concordant avec l'image typique est présente sur l'image d'entrée, les relations deviennent mutuellement similaires même lorsqu'une différence d'échelle ou une différence de rotation existe entre les images. Dans la présente invention, lorsque l'unité d'estimation estime, d'après les informations de position des points correspondants typiques, que les relations de position sont mutuellement similaires, l'unité de reconnaissance reconnaît une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée comme objet indiqué par l'image typique. Dans la technique antérieure, lorsque le nombre de points clés (c'est-à-dire de points de détails) d'une image d'entrée concordant avec des points clés d'une image typique est grand, il est estimé qu'une figuration d'objet concordant avec une Io image typique est présente sur l'image d'entrée. Par conséquent, pour reconnaître d'une manière fiable une figuration d'objet concordant avec une image typique, il faut de nombreux points clés de l'image d'entrée qui concordent avec des points clés de l'image typique. En revanche, dans la présente invention, il est estimé qu'il y a une similitude entre les relations de position. De la sorte, même lorsque des points 15 correspondants d'objet sont insuffisamment extraits de l'image d'entrée, le dispositif peut reconnaître d'une manière fiable une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée comme objet indiqué par l'image typique. Avantageusement, dans cet aspect, l'unité de production d'informations est conçue pour établir un point de référence typique sur l'image typique et pour établir 20 un vecteur de position indiquant une différence de position entre le point de référence typique et chaque point de détail typique comme information de position du point de détail typique, l'unité d'estimation est conçue pour déterminer une position d'un point de référence d'objet concordant avec le point de référence typique sur l'image d'entrée d'après la position de chaque point correspondant d'objet et le vecteur de 25 position du point correspondant typique concordant avec le point correspondant d'objet et pour estimer si, oui ou non, les positions du point de référence d'objet sont concentrées à une concentration supérieure à une valeur de concentration prédéterminée, et l'unité de reconnaissance est conçue pour reconnaître l'objet lorsque les positions du point de référence d'objet sont concentrées à une 30 concentration supérieure à la valeur de concentration prédéterminée. Alternativement, l'unité d'estimation est conçue pour établir la valeur de concentration prédéterminée d'après le nombre de points de détail typique, ou pour établir une petite zone contenant une position du point de référence d'objet sur l'image d'entrée chaque fois que la position du point de référence d'objet est 35 déterminée par un point correspondant d'objet à condition que la position du point de référence d'objet ne soit pas située dans l'une quelconque d'autres petites zones déjà établies, et l'unité d'estimation est conçue pour estimer que les positions du point de référence d'objet sont concentrées, selon une probabilité prédéterminée ou plus grande encore, à une concentration supérieure à la valeur de concentration prédéterminée lorsque les positions du point de référence d'objet sont situées dans l'une des petites zones, ou encore pour ajuster le vecteur de position du point correspondant typique concordant avec chaque point correspondant d'objet pour le transformer en vecteur de position ajustée de manière à compenser une différence d'échelle ou une différence de rotation entre l'image d'entrée et l'image typique, et pour déterminer la position du point de référence d'objet d'après la position de chaque point correspondant d'objet et d'après le vecteur de position ajustée du point correspondant typique concordant avec le point correspondant d'objet. En variante, l'unité de production d'informations est conçue pour établir des vecteurs de positions typiques indiquant des positions relatives d'un point de détail typique par rapport aux autres points de détail typique comme information de position du point de détail typique pour chaque point de détail typique, l'unité d'estimation est conçue pour calculer des vecteurs de positions d'objet indiquant des positions relatives de chaque point correspondant d'objet par rapport aux autres points correspondants d'objet, pour déterminer la relation de position entre les points correspondants typiques d'après les vecteurs de positions typiques des points correspondants typiques, pour déterminer la relation de position entre les points correspondants d'objet d'après les vecteurs de positions d'objet des points correspondants d'objet, et pour estimer si, oui ou non, les relations sont sensiblement semblables l'une à l'autre, et l'unité de reconnaissance est conçue pour reconnaître l'objet en réponse à l'estimation faite par l'unité d'estimation. Dans ce cas, l'unité d'estimation est conçue pour sélectionner trois des points correspondants typiques, pour établir un triangle typique déterminé par les trois points correspondants typiques, pour établir un triangle d'objet déterminé par trois points correspondants d'objet concordant avec les trois points correspondants typiques, pour estimer, d'après les vecteurs de positions typiques des trois points correspondants typiques et les vecteurs de positions d'objet des trois points correspondants d'objet, si, oui ou non, le triangle d'objet est sensiblement semblable au triangle typique, et l'unité de reconnaissance est conçue pour reconnaître l'objet lorsque le triangle d'objet est sensiblement semblable au triangle typique.
Dans ces différentes configurations, la figuration d'objet de l'image d'entrée a une échelle ou une rotation différente de celle de l'image typique. Selon un deuxième aspect de la présente invention, qui ne se distingue du premier aspect que par les unités d'estimation et de reconnaissance et ne comprend pas d'unité de production d'informations, l'unité d'estimation estime si, oui ou non, un rapport du nombre de points correspondants d'objet au nombre de points de détail typiques est supérieur à une valeur prédéterminée, et l'unité de reconnaissance reconnaît une figuration d'objet ayant les points correspondants d'objet de l'image d'entrée comme objet indiqué par l'image typique lorsque l'unité d'estimation estime que le rapport est supérieur à la valeur prédéterminée. Avec cette configuration du dispositif, de la même manière que dans le premier aspect de la présente invention, le dispositif peut reconnaître d'une manière fiable une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée comme objet indiqué par l'image typique.
L'invention sera mieux comprise à l'étude de la description détaillée de modes de réalisation pris à titre d'exemples non limitatifs et illustrés par les dessins annexés sur lesquels : la Fig. 1 est un schéma de principe d'un dispositif de reconnaissance de signes représentant un dispositif de reconnaissance d'objet selon la première forme de réalisation de la présente invention ; la Fig. 2 est un organigramme représentant un processus de reconnaissance d'image exécuté dans le dispositif représenté sur la Fig. 1 ; la Fig. 3 est un organigramme illustrant un processus pour extraire des points clés de chacune des images ; la Fig. 4 est une vue explicative illustrant la production d'image à DOG et la détection de candidats à des points clés à partir des images à DOG dans le processus illustré sur la Fig. 3 ; la Fig. 5 est un organigramme illustrant un processus pour calculer des détails en des points clés d'objet respectifs; la Fig. 6A est une vue explicative illustrant la détermination d'une orientation de gradient représentative d'un point clé dans le processus illustré sur la Fig. 5 ; la Fig. 6B est une vue explicative représentant une rotation d'une région autour d'un point clé par l'orientation représentative de gradient dans le processus illustré sur la Fig. 5 ; la Fig. 6C est une vue explicative illustrant le calcul d'un détail invariant à la 5 transformation d'échelle en un même point clé dans le processus illustré sur la Fig. 5
la Fig. 7 est un organigramme illustrant un processus pour calculer des détails de points clés respectifs sur une image typique selon la première forme de réalisation ; w la Fig. 8 est une vue explicative représentant un vecteur de position orienté depuis un point de référence typique vers chacun de trois points clés sur une image typique ; la Fig. 9 est un organigramme illustrant un processus d'établissement de points correspondants ; 15 la Fig. 10 est une vue explicative illustrant des comparaisons d'un détail invariant à la transformation d'échelle d'un point clé typique avec des détails invariants à la transformation d'échelle de points clés d'objet ; la Fig. 11 est un organigramme illustrant un processus d'estimation et de reconnaissance d'objet selon la première forme de réalisation ; 20 la Fig. 12 est un organigramme illustrant un processus d'enregistrement de position de point de référence d'objet dans le processus illustré sur la Fig. 11 ; la Fig. 13 est une vue explicative illustrant le calcul d'une position d'un point de référence d'objet dans le processus illustré sur la Fig. 12 ; la Fig. 14A est une vue explicative représentant des positions du point de 25 référence d'objet, concentrées dans une petite région la Fig. 14B est une vue explicative représentant des positions du point de référence d'objet dispersées dans une grande région ; la Fig. 15 est une vue explicative représentant des positions du point de référence d'objet dans des petites zones d'un plan de coordonnées de l'image d'entrée 30 la Fig. 16 est un organigramme illustrant un processus d'enregistrement de position de point de référence d'objet selon une variante de la première forme de réalisation la Fig. 17 est une vue explicative représentant trois petites zones établies pour placer un groupe de positions ou une position d'un point de référence d'objet dans chaque petite zone dans le processus illustré sur la Fig. 16 ; la Fig. 18 est un organigramme illustrant un processus de calcul de détail d'image typique pour une image typique selon la deuxième forme de réalisation ; la Fig. 19 est une vue explicative représentant un vecteur de position entre deux points clés typiques de chaque paire dans le processus illustré sur la Fig. 18 ; la Fig. 20 est un organigramme d'un processus d'estimation et de reconnaissance d'objet selon la deuxième forme de réalisation Io la Fig. 21 est une vue explicative illustrant la formation d'un triangle typique et d'un triangle d'objet correspondant l'un à l'autre ; la Fig. 22A illustre une comparaison d'un triangle typique déterminé par une première combinaison de trois points typiques correspondants avec un triangle d'objet correspondant au triangle typique ; 15 la Fig. 22B illustre une comparaison d'un triangle typique déterminé par une deuxième combinaison de trois points typiques correspondants avec un triangle d'objet correspondant au triangle typique la Fig. 22C illustre une comparaison d'un triangle typique déterminé par une troisième combinaison de trois points typiques correspondants avec un triangle 20 d'objet correspondant au triangle typique ; et la Fig. 23 est un organigramme d'un processus de calcul de similitude dans le processus illustré sur la Fig. 20.
On va maintenant décrire des formes de réalisation de la présente invention 25 en référence aux dessins annexés sur lesquels, sauf indication contraire, les mêmes repères désignent, dans toute la description, des parties, organes ou éléments identiques. FORME DE REALISATION 1 La Fig. 1 est un schéma de principe d'un dispositif de reconnaissance de 30 panneau de signalisation représentant un dispositif de reconnaissance d'objet selon la première forme de réalisation. Un dispositif de reconnaissance 1 de panneau représenté sur la Fig. 1 est monté dans un véhicule à moteur. Le dispositif 1 photographie une vue depuis un pare-brise avant du véhicule pour obtenir une image d'entrée d'une zone prédéterminée située en avant du véhicule et estime si, oui ou 35 non, une figuration d'un objet concordant avec une image typique telle qu'un panneau de signalisation routière ou analogue est représentée ou se trouve sur l'image d'entrée. Lorsque le dispositif 1 reconnaît la figuration d'objet concordant avec l'image typique, le dispositif 1 informe un conducteur de ce que l'objet se trouve en avant du véhicule.
Comme représenté sur la Fig. 1, le dispositif 1 comprend une caméra 10 de prise vue en couleurs, un bloc de commande électronique (ECU) de navigation 20 et un périphérique de sortie 30. La caméra 10 est disposée près d'un rétroviseur intérieur pour produire une image d'une zone vue en avant du véhicule. La caméra 10 comporte un objectif 11 et un élément de prise d'image 12. L'élément 12 reçoit des informations d'image par l'intermédiaire de l'objectif 11 et délivre un signal d'image (par exemple, des signaux de pixels pour des pixels, et chaque signal de pixel indique un signal rouge, vert ou bleu) indiquant les infoiinations d'image à l'ECU 20. Le dispositif 1 peut comporter, au lieu de la caméra 10, une caméra produisant une image monochrome.
L'ECU 20 comporte un mécanisme de commande servant à commander un système de navigation (non représenté). En outre, l'ECU 20 comporte une unité de traitement 21 d'image servant à reconnaître des objets tels que des panneaux de signalisation routière et autres d'après des données d'image d'un signal d'image. L'ECU 20 reçoit le signal d'image indiquant une image d'entrée. Une image typique de chaque panneau de signalisation routière est enregistrée à l'avance dans l'unité 21. L'unité 21 estime, d'après les images typiques, si, oui ou non, une figuration d'objet concordant avec au moins une des images typiques est présente sur l'image d'entrée. L'unité 21 délivre un résultat d'estimation au périphérique de sortie 30. L'unité 21 comporte un bloc d'extraction 22 de points clés typiques, un bloc de calcul 23 de détail typique, un bloc de production 24 d'informations, un bloc d'extraction 25 de points clés d'objet, un bloc de calcul 26 de détail d'objet, un bloc d'établissement 27 de points correspondants et un bloc d'estimation et de reconnaissance 28 de panneau servant d'objet. Le bloc d'extraction 22 extrait plusieurs points clés typiques (par exemple, des points de détails typiques) de chacune de plusieurs images typiques. Le bloc de calcul 23 calcule un détail invariant à la transformation d'échelle en chaque point clé typique d'après des données d'image de l'image typique correspondante. Le bloc de production 24 produit des informations de position indiquant une position d'un point clé typique sur l'image typique correspondante pour chaque point clé typique.
Il Le bloc d'extraction 25 extrait de l'image d'entrée plusieurs points clés d'objet (à savoir des points de détails d'objet). Le bloc de calcul 26 calcule un détail invariant à la transformation d'échelle en chaque point clé d'objet d'après des données d'image de l'image d'entrée.
Le bloc d'établissement 27 calcule des similitudes entre le détail d'un point clé typique et les détails des points clés d'objet pour chaque point clé typique, estime d'après les similitudes si, oui ou non, les détails d'un point clé typique et d'un point clé d'objet de chaque paire sont similaires l'un à l'autre, et établit un point clé typique et un point clé d'objet de chaque paire, ayant les détails similaires les uns aux autres, comme point correspondant typique et comme point correspondant d'objet concordant l'un avec l'autre. Le bloc d'estimation et de reconnaissance 28 estime, d'après les informations de position des points correspondants typiques si, oui ou non, une relation de position entre ou parmi les points correspondants d'objet est sensiblement similaire à une relation de position entre ou parmi les points correspondants typiques. Lorsque les relations de position sont sensiblement similaires l'une à l'autre, le bloc 28 reconnaît une figuration d'objet ayant les points correspondants d'objet comme objet indiqué par l'image typique correspondante. Un résultat de reconnaissance du bloc 28 est délivré au périphérique de sortie 30.
Le bloc 22 peut extraire les points clés typiques des images typiques chaque fois que le bloc 22 extrait les points clés d'objet de l'image d'entrée. Dans la présente forme de réalisation, lorsque chaque image typique est enregistrée à l'avance dans l'unité 21, les points clés typiques de l'image typique sont extraits et stockés dans une base de données (non représentée) de points clés typiques. Le bloc 23 peut calculer les détails des points clés typiques chaque fois que le bloc 26 calcule les détails des points clés d'objet. Dans la présente forme de réalisation, lorsque chaque point clé typique est extrait, le détail dupoint clé typique est calculé et stocké dans une base de données (non représentée) de détails typiques. De la sorte, lorsque chaque image typique est enregistrée dans l'unité 21, les points clés typiques de l'image typique sont extraits et stockés, et les détails des points clés typiques sont calculés et stockés. Par conséquent, chaque fois que l'unité 21 reçoit une image d'entrée pour faire une estimation quant à l'existence d'un objet sur l'image d'entrée, l'unité 21 extrait seulement les points clés d'objet de l'image d'entrée et calcule seulement les détails des points clés d'objet.
Les blocs 22 à 28 de l'unité 21 peuvent être constitués par des éléments matériels respectifs différents les uns des autres, ou peuvent être mis en oeuvre par une unité centrale de traitement qui exécute un programme logiciel pour réaliser les fonctions des blocs 22 à 28.
L'unité 30 comporte un écran d'affichage 31, une enceinte acoustique 32 et un voyant 33. L'écran d'affichage 31 affiche un résultat de la reconnaissance d'image effectuée dans l'unité 21, en plus d'une image de carte et d'informations produites dans le système de navigation. Par exemple, lorsque l'unité 21 reconnaît un panneau de signalisation routière présent sur l'image d'entrée, une image du panneau de signalisation routière est affichée sur l'écran d'affichage 31. L'enceinte acoustique 32 émet un message (guidage) sonore indiquant un résultat de la reconnaissance d'image dans l'unité 21, ainsi qu'un message (guidage) sonore produit dans le système de navigation. Par exemple, lorsque l'unité 21 reconnaît un panneau de traversée de piétons présent sur l'image d'entrée, l'enceinte acoustique 32 délivre un message vocal synthétisé "traversée de piétons présente en avant". Le voyant 33 informe visuellement un conducteur de l'existence d'un panneau de signalisation routière reconnu. Par exemple, lorsque l'unité 21 reconnaît au moins un panneau de signalisation routière enregistré, le voyant 33 allume une DEL (diode électroluminescente) spécifique correspondant à chaque panneau de signalisation routière reconnu. En référence à la Fig. 2, on va maintenant décrire un processus de reconnaissance d'image effectué dans l'unité 21 de l'ECU 20. La Fig. 2 est un organigramme illustrant un processus de reconnaissance d'image effectué dans l'unité de traitement 21.
Comme représenté sur la Fig. 2, lors de l'étape S 100, l'unité 21 reçoit de la caméra 10 une image d'entrée. Plus particulièrement, l'unité 21 reçoit de la caméra 10 une image dynamique. L'image dynamique contient plusieurs dizaines d'images statiques par seconde. L'unité 21 reçoit chaque image statique comme image d'entrée. Par conséquent, l'unité 21 exécute, pour chaque image statique, un processus de reconnaissance d'image illustré sur la Fig. 2. L'unité 21 peut exécuter le processus suivant une périodicité prédéterminée. Lors de l'étape 5200, le bloc 25 exécute un processus d'extraction de points clés. Ce processus est décrit en détail dans le document ne constituant pas un brevet, aussi décrira-t-on brièvement le processus. Lors du processus d'extraction de points clés, des points clés d'objet sont extraits d'une image d'entrée ayant des données de pixels pour chacun des pixels. La Fig. 3 est un organigramme illustrant le processus d'extraction de points clés et la Fig. 4 est une vue explicative représentant la production d'images à DOG et la détection de candidats à des points clés dans les images à DOG lors du processus d'extraction de points clés.
Comme représenté sur la Fig. 3, au moment du lancement du processus d'extraction de points clés, lors de l'étape 5210, le bloc 25 élabore une image multirésolution à lissage gaussien d'après des données d'image d'une image d'entrée. Plus particulièrement, les dimensions d'une image d'entrée I (x, y) sont réduites suivant un rapport de réduction ou suivant chacun de plusieurs rapports de réduction afin d'obtenir plusieurs images d'entrée réduites à résolution différente de la résolution de l'image d'entrée. Ensuite, une image à lissage gaussien L (x, y, a) est produite conformément aux formules (1) et (2) d'après la convolution de la fonction gaussienne G (x, y, a) mise à une échelle de lissage variable a avec chacune des images d'entrée I(x, y).
L(x, y, o) G(x, y, o) * I(x, y) ù(1)
1 (x' + y G(x, y, ô) = exp Dru- 2o-2
L'échelle a est établie à chacune de plusieurs valeurs a i (i = 1, 2, --), et l'image L (x, y, G) est obtenue pour chaque valeur de l'échelle a. Ici, (x, y) désigne des coordonnées de chaque pixel d'une image dans un système de coordonnées à deux dimensions.
Ensuite, lors d'une étape 5220, figurant sur le côté gauche sur la Fig. 4, une différence entre les images lissées L (x, y, a i+l) et L (x, y, a i) correspondant à deux échelles proches est calculée suivant une formule (3) pour produire une image Di (x, y, a) à DOG (différence de Gaussiennes).
D, x, y, o.) L(x, y, û L(x, y, 0-i) --- (3) L'image à DOG est obtenue pour chaque paire d'images (x, y, a i+l) et L(x, y, a i). Plusieurs candidats à un point clé sont détectés d'après les images à DOG correspondant à différentes échelles pour chacune des images d'entrée.
Plus particulièrement, un processus de filtrage à différence de gaussiennes, (c'est-à-dire un processus différentiel) est appliqué pour les images lissées correspondant aux différentes échelles pour obtenir un ensemble d'images à DOG pour chaque image d'entrée. Par exemple, la production d'un ensemble de quatre images à DOG à partir de cinq images lissées correspondant à des échelles --- (2) respectives pour chaque image d'entrée est illustrée sur la Fig. 4. Comme représenté sur le côté droit sur la Fig. 4, chaque pixel de l'image Di (x, y, a) à DOG est établi comme pixel remarqué (désigné par x) adjacent à trente-six pixels comparés (désignés par o). Les pixels comparés sont formés de neuf pixels dans une région à 3 x 3 pixels de l'image Di û 1 (x, y, a) à DOG, de huit pixels dans une région à 3 x 3 pixels de l'image Di (x, y, a) à DOG, et de neuf pixels dans une région à 3 x 3 pixels de l'image Di + 1 (x, y, a) à DOG. Le bloc 25 estime si, oui ou non, la donnée du pixel remarqué est une valeur extrême (c'est-à-dire maximale ou minimale) parmi les données des pixels remarqués et comparés. Dans le cas de l'estimation affirmative, le to bloc 25 établit le pixel remarqué comme candidat à un point clé d'objet. Lorsque le candidat à un point clé est formellement établi comme point clé d'objet, la valeur d'échelle a i de l'image Di à DOG ayant le point clé d'objet sert à calculer un détail d'image du point clé d'objet. Lors de l'étape S230, le bloc 25 estime si, oui ou non, au moins un candidat 15 à un point clé est établi dans les images à DOG produites à partir des images d'entrée. Si aucun candidat à un point clé n'est établi lors de l'étape 5220, il est mis un terme au processus d'extraction de points clés, lors de l'étape 5200. En revanche, si les images à DOG ont au moins un candidat à un point clé, la procédure passe à l'étape 5240. 20 Lors de l'étape 5240, le bloc 25 estime si, oui ou non, chacun des candidats à un point clé est placé dans un coin de l'image correspondante à DOG. Un candidat à un point clé placé dans un coin signifie que le candidat à un point clé ne se trouve pas sur un bord. En revanche, un candidat à un point clé non placé dans un coin se trouve très probablement sur un bord. Certains des candidats à des points clés établis 25 lors de l'étape 5220 provoquent très probablement un problème d'ouverture. Dans la présente forme de réalisation, un candidat à un point clé situé sur un bord n'est très probablement pas adopté comme point clé d'objet, aussi seulement un candidat à un point clé ayant un détail stable est-il adopté comme vrai point clé d'objet. Plus particulièrement, lors de l'étape 5240, la limitation des candidats à des 30 points clés à des points clés d'objet s'effectue à l'aide d'une technique similaire à la méthode de détection de coins de Harris. Ainsi, une matrice hessienne H à deux dimensions exprimée par une formule (4) est obtenue. (4) 35
où Dxx = d [i û 1] [j d [i] [j] + d [i + [j] , Dyy = d [i] [j û ] û 2 x d [i] [j] + d [i] [j Dxy ( d [i + 1] [j + 1] û d [i + ] [j û 1 + - d [i ù 1] [j û 1] ) 4 sont satisfaites. Chaque entrée d [i] [j] désigne une donnée de pixel d'un seul pixel situé aux coordonnées (i, j). Ensuite, un candidat à un point clé satisfaisant une formule (5) est adopté comme point clé d'objet officiel.
Tr(H)xTr(H) <Th Det(H) où Tr (H) = Dxx + Dyy, et Det (H) = Dxx x Dyy ù Dxy x Dxy sont satisfaites. Ainsi, une somme Tr (H) d'entrées de diagonales Dxx et Dyy de la matrice hessienne est calculée, et un déterminant Det (H) de la matrice hessienne est calculé. Lorsqu'un rapport de Tr (H) x Tr (H) à Det (H) dans un candidat à un point clé est inférieur à une valeur seuil prédéterminée Th, le bloc 25 estime que le candidat à un point clé est placé dans un coin sur l'image correspondante à DOG. Par conséquent, lors de l'étape 5250, le candidat à un point clé est officiellement extrait comme point clé d'objet, et la procédure passe à l'étape 5260. En revanche, dans le cas d'une estimation négative lors de l'étape 5240, la procédure saute à l'étape 5260. Lors de l'étape 5260, le bloc 25 estime si, oui ou non, tous les candidats à des points clés établis lors de l'étape 5220 ont été traités lors des étapes 5240 et 5250 ou lors de l'étape 5240. Dans le cas d'une estimation négative, les étapes 5240 à 5260 sont à nouveau exécutées. Ainsi, jusqu'au terme de la limitation de tous les candidats à des points clés à des points clés d'objet, les étapes 5240 à 5260 sont répétées. Par conséquent, dans le processus d'extraction de détails, des points clés d'objet sont choisis parmi tous les candidats à des points clés établis sur les images Di à DOG. Ainsi, tous les points clés d'objet sont sensiblement extraits de l'image d'entrée non réduite. De la même manière que dans le processus d'extraction de points clés illustré sur la Fig. 3 et la Fig. 4, des points clés typiques sont extraits de chaque image typique et sont stockés dans la base de données de points clés typiques. Revenant à la Fig. 2, après le processus d'extraction de points clés, le bloc 26 exécute, lors de l'étape 5300, un processus de calcul de détail. Ainsi, un détail en chaque point clé d'objet est calculé. Ce processus est décrit avec précision dans le document ne constituant pas un brevet, aussi décrira-t-on brièvement le processus. La Fig. 5 est un organigramme illustrant le processus de calcul de détail pour les points clés d'objet. La Fig. 6A illustre la détermination d'une orientation de gradient représentative d'un point clé, la Fig. 6B illustre une rotation d'une région autour du point clé suivant l'orientation de gradient représentative et la Fig. 6C illustre le calcul d'un détail invariant à la transformation d'échelle, caractérisant le point clé. Comme représenté sur la Fig. 5, au moment du lancement du processus de calcul de détail, lors de l'étape 5310, le bloc 26 calcule une amplitude de gradient de luminance et une orientation de gradient de luminance en chacun des pixels placés près d'un point clé pour produire un histogramme d'orientation indiquant les amplitudes de gradients de luminance et les orientations de gradients de luminance aux pixels. Plus particulièrement, comme représenté sur la Fig. 6A, une amplitude de gradient m (x, y) de luminance et une orientation de gradient 0 (x, y) de luminance dans un pixel sont calculées d'après des données d'image des images lissées L suivant des formules (6), (7) et (8) pour chacun des pixels proches (c'est-à-dire, des points d'échantillonnage) à l'intérieur d'une région de référence (indiquée par un cercle sur la Fig. 6A) autour d'un point clé. f,(x, y) = L(x + 1, y) û L(x û 1, y) (x, y) L(x, y +1) û L(x, y û Les dimensions de la région de référence sont déterminées d'après l'échelle a i de 30 l'image Di à DOG ayant le point clé, et les images lissées L de la formule (8) sont établies à l'échelle a i. Ensuite, un histogramme d'orientation est formé d'après les amplitudes de gradients m (x, y) et les orientations de gradients 0 (x, y) des pixels proches. L'histogramme d'orientation comporte trente-six cases couvrant les 360 degrés de la 35 plage d'orientations. Pour produire cet histogramme, des pixels proches ayant la ,(x, Y) , y) = (x, Y)2 + J'y (x, y)2 --- (6) .fX (7) --- (8) même orientation de gradient sont ajoutés dans la case correspondante tout en étant pondérés par les amplitudes de gradients des pixels respectifs. Ainsi, la longueur de chaque case est établie à une somme d'amplitudes de gradients ayant une orientation de gradient correspondant à la case. Une orientation de gradient d'une case spécifique ayant un pic le plus élevé (ou une longueur maximale) parmi ceux des cases est établie comme orientation de gradient représentative du point clé. Dans la présente forme de réalisation, une seule orientation de gradient correspondant à la case ayant le pic le plus élevé est attribuée à chaque point clé comme orientation de gradient représentative. Cependant, plusieurs orientations de gradients correspondant à des Io cases, ayant des pics respectifs ne dépassant pas 80% du pic le plus élevé, peuvent être établies comme groupe d'orientations de gradients représentatives pour chaque point clé. Lors de l'étape 5320, les niveaux des orientations de gradients dans les pixels proches sont normalisés. Plus particulièrement, comme représenté sur la Fig. 15 6B, la région de référence autour du point clé tourne sous l'effet de l'orientation de gradient représentative du point clé. Autrement dit, l'orientation de gradient représentative est soustraite de l'orientation de gradient de chaque pixel proche à l'intérieur de la région de référence. Avec cette normalisation des orientations de gradients des pixels proches, il est possible d'obtenir un détail d'image du point clé 20 invariant à la rotation d'image d'un objet (par exemple, un panneau de signalisation routière) présent sur l'image d'entrée. Lors de l'étape 5330, un détail invariant à l'échelle du point clé invariant à la transformation d'échelle est calculé. Plus particulièrement, comme illustré sur la Fig. 6C, une fenêtre circulaire gaussienne sert à attribuer un poids à la valeur de chaque 25 pixel proche de façon qu'un facteur de pondération pour un pixel augmente à mesure que diminue la distance entre le pixel et le centre de la fenêtre gaussienne. Les dimensions de la fenêtre gaussienne sont déterminées d'après l'échelle a i de l'image Di à DOG ayant le point clé. Dans ce cas, par exemple, lorsque les dimensions d'une première image sont deux fois plus grandes que celles d'une deuxième image, les 30 dimensions de la fenêtre pour la première image sont deux fois plus grandes que les dimensions de la fenêtre pour la deuxième image. Par conséquent, les mêmes pixels sont placés dans la fenêtre quelle que soit l'échelle cr, si bien qu'il est possible d'obtenir un détail invariant à la transformation d'échelle d'image. Ensuite, la région de référence est divisée en seize (4 x 4) sous-régions de pixels et un histogramme 35 d'orientation est formé d'après les valeurs des gradients de luminance et les orientations des gradients de luminance des pixels proches pour chaque sous-région. Chaque histogramme d'orientation a huit cases couvrant les 360 degrés de la plage d'orientations. Les seize histogrammes sont établis comme détail du point clé invariant à l'échelle. Ce détail invariant à l'échelle est un vecteur dimensionnel 128 (8 cases x 16 histogrammes). Lors de l'étape S340, le bloc 26 estime si, oui ou non, des détails, invariants à l'échelle, de tous les points clés extraits par le bloc 25 lors de l'étape 5200 sont calculés. Jusqu'à l'achèvement du calcul de détails invariants à l'échelle de tous les points clés, un détail invariant à l'échelle est calculé lors des étapes S310 à S330 pour chaque point clé. Par conséquent, les détails invariants à l'échelle de tous les points clés d'objet sont calculés lors du processus d'extraction de détails. Des détails d'image des points clés typiques respectifs sont calculés à l'avance pour chaque image typique et sont stockés dans une base de données. Le détail de chaque point clé typique a un vecteur dimensionnel 128 d'histogrammes d'orientations issus de l'image typique correspondante, de la même manière que le détail invariant à l'échelle d'un point clé d'objet. En outre, le détail de chaque point clé typique a une information de position indiquant une position du point clé sur l'image typique. Le calcul de détails des points clés typiques est décrit en référence à la Fig. 7.
La Fig. 7 est un organigramme illustrant un processus de calcul de détails d'image typiques. Comme représenté sur la Fig. 7, lorsque le bloc 24 lance ce processus, lors de l'étape S351, un point de référence typique est établi à un emplacement d'un pixel arbitraire sur une image typique. Ensuite, lors d'étapes S352, S353 et S354, un détail invariant à l'échelle d'un point clé typique sur l'image typique est calculé de la même manière que dans le processus de calcul de détail d'objet (étapes S310 à S330) pour l'image d'entrée. La Fig. 8 est une vue explicative représentant un vecteur de position orienté depuis le point de référence typique vers chacun de trois points clés sur une même image typique. Comme représenté sur la Fig. 8, par exemple, un vecteur de position est orienté depuis le point de référence typique (représenté par un cercle blanc) vers chacun de trois points clés typiques (représentés par des cercles noirs) sur une même image typique. Lors de l'étape 5355, le bloc 23 calcule des différences Ax (= x' ûx) Y y' ûy) entre des coordonnées (x', y') du point de référence typique et des coordonnées 35 (x, y) du point clé typique, et le bloc 23 établit comme information de position un vecteur de position (Ax, Ay) du point clé typique. Le vecteur de position est orienté depuis le point de référence typique vers le point clé typique pour indiquer une différence de position entre le point de référence typique et le point clé typique. Lors de l'étape S356, le détail invariant à l'échelle calculé lors de l'étape 5354 et le vecteur de position sont établis comme détail combiné du point clé typique et sont enregistrés ou stockés dans une base de données. Lors de l'étape S357, l'unité 21 estime si, oui ou non, des détails combinés de tous les points clés typiques sont calculés. Jusqu'à l'achèvement du calcul de détails combinés de tous les points clés typiques, un détail combiné d'un autre point Io clé typique est à nouveau calculé lors des étapes S352 à S356. Par conséquent, des détails combinés de tous les points clés typiques d'une même image typique sont calculés au cours de ce processus. De la même manière, des détails combinés de tous les points clés typiques sont calculés pour chacune des autres images typiques. Revenant à la Fig. 2, au terme du processus de calcul de détail lors de l'étape 15 5300, le bloc 27 exécute un processus d'établissement de points correspondants lors de l'étape S400 pour établir un point clé typique et un point clé d'objet, ayant des détails respectifs invariants à l'échelle similaires les uns aux autres, comme combinaison d'un point correspondant typique et d'un point correspondant d'objet concordant l'un avec l'autre. Lors de ce processus, chacun des détails invariants à 20 l'échelle des points clés typiques est comparé avec les détails invariants à l'échelle des points clés d'objet calculés dans le bloc 26 pour chaque image typique. Lorsqu'un détail invariant à l'échelle d'un point clé typique sur une image typique est identique ou similaire à un détail invariant à l'échelle d'un point clé d'objet sur l'image d'entrée, le point clé typique et le point clé d'objet sont établis comme combinaison de points 25 correspondants concordant l'un avec l'autre. Ce processus est décrit en détail dans le document ne constituant pas un brevet, aussi le processus est-il brièvement décrit. La Fig. 9 est un organigramme illustrant le processus d'établissement de points correspondants. La Fig. 10 est une vue explicative illustrant une comparaison du détail invariant à l'échelle d'un point clé typique avec le détail invariant à l'échelle 30 de chaque point clé d'objet. Comme représenté sur la Fig. 9, lorsque le bloc 27 lance le processus d'établissement de points correspondants lors de l'étape S400, au cours de l'étape S410, une similitude entre le détail invariant à l'échelle d'un point clé typique d'une image typique et le détail invariant à l'échelle de chaque point clé d'objet de l'image 35 d'entrée est calculé. Par exemple, comme illustré sur la Fig. 10, le détail invariant à l'échelle d'un point clé typique d'un panneau de traversée de piétons représentant une image typique est comparé avec le détail invariant à l'échelle de chaque point clé d'objet de l'image d'entrée, et une similitude entre les détails est calculée. Plus particulièrement, il est supposé que M points clés typiques sont extraits d'une même image typique, tandis que N points clés d'objet sont extraits de l'image d'entrée. Un détail Stempm invariant à l'échelle du m-ième (1 < m < M) point clé typique est exprimé suivant une formule (9), et un détail W.putn invariant à l'échelle du n-ième (1 n N) point clé d'objet est exprimé suivant une formule (10). k feimp = (si ) (9) n =(Wn n input 1 , Une similitude n' entre le détail Stempm du m-ième point clé typique et le 15 détail W,nput" de chaque point clé d'objet est calculée suivant une formule (11). 128 n' = arg,,{,,, min (128 (sitn win )2 20 Ainsi, les similitudes entre le détail d'un point clé typique remarqué et les détails de tous les points clés d'objet peuvent être calculées, et un ensemble comprenant le point clé typique remarqué et un point clé d'objet ayant le niveau de similitude le plus élevé (c'est-à-dire que le point clé typique et le point clé d'objet ont les détails les plus similaires les uns aux autres) et un autre ensemble constitué du 25 point clé typique remarqué et d'un point clé d'objet ayant le second niveau de similitude le plus grand (c'est-à-dire, un point clé typique et un point clé d'objet ayant les seconds détails les plus similaires l'un à l'autre) peut être déterminé. Lors de l'étape 5420, le niveau de similitude le plus grand est comparé avec le second niveau de similitude le plus grand. Lors de l'étape 5430, le bloc 27 estime 30 si oui ou non, une différence entre le niveau de similitude le plus grand et le second niveau de similitude le plus grand est supérieure à un niveau prédéterminé. Si la différence est supérieure au niveau prédéterminé, le bloc 27 estime que le détail du point clé d'objet ayant le niveau de similitude le plus grand avec le point clé typique remarqué est semblable au détail du point clé typique remarqué. Par conséquent, lors 35 de l'étape 5440, le bloc 27 établit le point clé typique remarqué et le point clé d'objet ayant le niveau de similitude le plus grand comme combinaison d'un point correspondant typique et d'un point correspondant d'objet concordant l'un avec l'autre. En revanche, en cas d'estimation négative, le bloc 27 estime qu'aucun point clé d'objet n'est lié au point clé typique remarqué, et la procédure saute à l'étape 5450. Lors de l'étape S450, le bloc 27 estime si, oui ou non, chacun des détails invariants à l'échelle de tous les points clés typiques sur les images typiques ont été comparés avec les détails invariants à l'échelle de tous les points clés d'objet. En cas de jugement négatif, le processus d'établissement de points correspondants est à to nouveau exécuté lors d'étapes S410 à 5440. En revanche, en cas de jugement affirmatif, il est mis fin au processus d'établissement de points correspondants lors de l'étape S500. Revenant à la Fig. 2, lors de l'étape S500, le bloc 28 exécute un processus d'estimation et de reconnaissance d'objet. Lors de ce processus, le bloc 28 estime, 15 d'après toutes les combinaisons de points correspondants, si, oui ou non, au moins un objet concordant avec une image typique est présent sur l'image d'entrée. La Fig. 11 est un organigramme illustrant le processus d'estimation et de reconnaissance d'objet, la Fig. 12 est un organigramme illustrant un processus d'enregistrement de position de point de référence d'objet dans le processus d'estimation et de reconnaissance 20 d'objet, et la Fig. 13 est une vue explicative illustrant un procédé pour calculer une position d'un point de référence d'objet sur l'image d'entrée. Comme représenté sur la Fig. 11, lors de l'étape S510, le bloc 28 juge si, oui ou non, au moins un point correspondant d'objet est présent sur l'image d'entrée. Dans le cas où le jugement est affirmatif, lors de l'étape 5520, le bloc 28 exécute un 25 processus d'enregistrement de position de point de référence. En supposant qu'un objet concordant avec l'image typique soit présent sur l'image d'entrée, un point de référence d'objet correspondant au point de référence typique de l'image typique est présent sur l'image entrée. Lors de ce processus, une position du point de référence d'objet est calculée pour chaque point correspondant d'objet. 30 Plus particulièrement, comme illustré sur la Fig. 12, lors de l'étape 5521, le bloc 28 détecte une position du point correspondant d'objet, non encore utilisée pour le processus d'enregistrement de position de point de référence, dans un plan de coordonnées de l'image d'entrée. Ensuite, le bloc 28 calcule une position d'un point de référence d'objet dans le plan de coordonnées de l'image d'entrée d'après la position détectée du point correspondant d'objet et le vecteur de position du point correspondant typique concordant avec le point correspondant d'objet. Par exemple, comme illustré sur la Fig. 13, une distance Dl entre le point de référence typique et un point correspondant typique sur une image typique est calculée suivant une formule (12). D14Ax2+Ay2 ---(12)
Ax et Ay sont des éléments du vecteur de position du point correspondant typique. Ici, le détail de chaque point correspondant typique contient le vecteur de position (Ax, Ay), une échelle atemp de l'image typique, une information de rotation Otemp indiquant l'orientation du gradient représentative du point correspondant typique. Le détail de chaque point correspondant d'objet contient des coordonnées (ain, bin) du point sur l'image d'entrée, une échelle ain de l'image d'entrée et une information de rotation O in indiquant l'orientation du gradient représentatif du point correspondant d'objet. A l'aide des échelles ain et atemp, une distance D2 sur l'image d'entrée entre un point de référence d'objet correspondant au point de référence typique et le point correspondant d'objet concordant avec le point correspondant typique est calculée suivant une formule (13).
D2 = Crin X dx2 + Ay2 ---(13) ertemp Un terme o-inlatemp compense une différence d'échelles entre les images pour la distance D2. Par ailleurs, comme il y a une différence de rotation Otemp Oin entre les orientations de gradient des points correspondants, le point de référence d'objet est amené à tourner autour du point correspondant d'objet dans une mesure correspondant à la différence de rotation Otemp - Oin. Dans ce cas, une position (X,Y) du point de référence d'objet dans un plan de coordonnées de l'image d'entrée est calculée suivant les formules (14), (15) et (16). X = a, ---(14) xjAx2 + Ay2x sin(O + 0 û S) ---(15) Y = 1,e.,in p Crin
arctgAy' ---(16) Le symbole 0 de la formule (16) indique l'orientation du vecteur de position du point correspondant typique. Par conséquent, la position (X, Y) du point de référence d'objet est déterminée d'après le vecteur de position du point correspondant typique tout en considérant la différence d'échelle et la différence de rotation entre les images. Lors de l'étape S 522, le bloc 28 enregistre, dans une base de données, la position (X, Y) du point de référence d'objet pour procéder à un choix. Revenant à la Fig. 11, lors de l'étape S530, le bloc 28 estime si, oui ou non, le processus d'enregistrement de position de point de référence pour tous les points to d'objet correspondants a été terminé. En cas de jugement négatif, le processus de l'étape S520 est réexécuté. Une fois le processus terminé pour tous les points correspondants d'objet, les positions du point de référence d'objet sont obtenues. Lors de l'étape S540, le bloc 28 estime si, oui ou non, les positions du point de référence d'objet sont concentrées dans une petite région à un niveau de 15 concentration (ou amplitude de concentration) supérieur à une valeur de concentration prédéterminée. Si une figuration d'objet concordant avec l'image typique existe sur l'image d'entrée, une relation de position entre les points correspondants d'objet devient similaire à une relation de position entre les points correspondants typiques. Cette 20 similitude est obtenue même s'il y a une différence d'échelle ou une différence de rotation entre la figuration d'objet et l'image typique. Par conséquent, les positions du point de référence d'objet sont concentrées dans une petite région du plan de coordonnées. En revanche, s'il n'existe pas de concordance de figuration d'objet avec l'image typique sur l'image d'entrée, une relation de position entre les points 25 correspondants d'objet est différenciée d'une relation de position entre les points correspondants typiques. Par conséquent, les positions du point de référence d'objet sont dispersées dans une grande région du plan de coordonnées. La Fig. 14A est une vue explicative représentant les positions du point de référence d'objet concentrées dans une petite région, tandis que la Fig. 14B est une 30 vue explicative représentant les positions du point de référence d'objet dispersées dans une grande région. Par exemple, lorsque les positions du point de référence d'objet représentées sur la Fig. 14A sont obtenues, une figuration d'objet concordant avec l'image typique peut très probablement exister sur l'image d'entrée. En revanche, si les positions du point de référence d'objet représentées sur la Fig. 14B
sont obtenues, une figuration d'objet concordant avec l'image typique peut difficilement exister sur l'image d'entrée. Revenant à la Fig. 11, dans le cas d'une estimation affirmative lors de l'étape S540, la procédure passe à l'étape 5550. La Fig. 15 est une vue explicative représentant les positions du point de référence d'objet dans plusieurs petites zones établie en divisant le plan de coordonnées de l'image d'entrée. Par exemple, comme représenté sur la Fig. 15, lorsque les positions du point de référence d'objet sont concentrées dans une seule petite zone à un niveau de concentration supérieur à une valeur de concentration prédéterminée, le bloc 28 rend le jugement affirmatif lors de l'étape 5540. Lors de l'étape 5550, le bloc 28 estime si, oui ou non, un rapport d'échelle ain temp entre l'image d'entrée et l'image typique se situe dans un intervalle prédéterminé. Dans le cas du jugement affirmatif, lors de l'étape S560, le bloc 28 estime si, oui ou non, la différence de rotation 0 temp - 0 in entre l'image d'entrée et l'image typique se situe dans un intervalle prédéterminé. Dans le cas du jugement affirmatif, lors de l'étape S570, le bloc 28 estime qu'une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée concorde avec l'image typique, si bien que le bloc 28 reconnaît la figuration d'objet présente sur l'image d'entrée comme objet indiqué par l'image typique. Il est ensuite mis fin au processus d'estimation et de reconnaissance d'objet. En revanche, dans le cas du jugement négatif lors de l'étape 5510, S540, S550 ou de l'étape 5560, le bloc 28 estime, lors de l'étape 5580, qu'une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée ne concorde pas avec l'image typique. Ainsi, le bloc 28 ne reconnaît pas d'objet indiqué par l'image typique. Ce processus d'estimation et de reconnaissance d'objet est exécuté pour chacune des images typiques. Au terme de ce processus, il est mis fin au processus de reconnaissance d'image (cf Fig. 2). Comme décrit plus haut, dans le dispositif de reconnaissance 1 de panneau représentant le dispositif de reconnaissance d'objet, le bloc 22 extrait à l'avance, d'une image typique, plusieurs points clés typiques. Le bloc 23 établit un point de référence typique sur l'image typique et calcule un vecteur de position indiquant une différence de position entre le point de référence typique et chaque point clé typique, en plus d'un détail invariant à l'échelle en chaque point clé typique. Lorsque l'unité de traitement 21 d'image reçoit une image d'entrée, le bloc 25 extrait de l'image d'entrée plusieurs points clés d'objet et le bloc 26 calcule un détail invariant à l'échelle en chaque point clé d'objet. Le bloc 27 compare le détail de chaque point clé typique avec les détails des points clés d'objet et établit chaque paire constituée d'un point clé typique et d'un point clé d'objet comportant les détails respectifs similaires l'un à l'autre comme combinaison d'un point correspondant typique et d'un point correspondant d'objet. Le bloc 28 détermine une position d'un point de référence d'objet correspondant au point de référence typique d'après la position d'un point correspondant d'objet et du vecteur de position du point correspondant typique concordant avec le point correspondant d'objet pour chaque point correspondant d'objet. Lorsque les positions du point de référence d'objet se situent dans une petite Io région, le bloc 28 réalise qu'une relation de position entre les points correspondants d'objet extraits de l'image d'entrée est sensiblement similaire à une relation de position entre les points correspondants typiques extraits de l'image typique, et le bloc 28 juge qu'une figuration d'objet concordant avec l'image typique est présente sur l'image d'entrée. Par conséquent, le bloc 28 reconnaît la figuration d'objet comme 15 étant un objet indiqué par l'image typique. Dans la technique antérieure, lorsque le nombre de points clés d'une image d'entrée concordant avec des points clés d'une image typique est élevé, il est estimé qu'une figuration d'objet concordant avec l'image typique est présente sur l'image d'entrée. Par conséquent, pour reconnaître d'une manière fiable un objet indiqué par 20 l'image typique, il faut qu'un grand nombre de points clés de l'image d'entrée concordent avec des points clés de l'image typique. En revanche, dans la présente forme de réalisation, même s'il y a peu de points correspondants d'objet qui soient extraits de l'image d'entrée, le dispositif 1 peut déterminer d'une manière fiable une relation de position entre les points correspondants d'objet et le dispositif 1 peut juger 25 de manière fiable si, oui ou non, une relation de position entre les points correspondants d'objet est sensiblement similaire à une relation de position entre les points correspondants typiques concordant avec les points correspondants d'objet. Ainsi, même lorsque le nombre de points correspondants d'objet est faible, les positions du point de référence d'objet sont suffisamment concentrées dans une petite zone lorsqu'une figuration d'objet concordant avec l'une des images typiques est présente sur l'image d'entrée. De la sorte, le dispositif peut estimer l'existence d'un objet indiqué par l'image typique sur l'image d'entrée, et le dispositif peut reconnaître d'une manière fiable la figuration d'objet comme étant l'objet. Par ailleurs, le détail de chaque point clé d'objet est invariant à la 35 transformation d'échelle c'est-à-dire l'agrandissement et la réduction) à la rotation de l'image. De la sorte, le dispositif peut reconnaître d'une manière fiable l'objet, quelle que soit l'échelle ou la rotation de l'objet sur l'image d'entrée. Dans la première forme de réalisation, un vecteur de position de chaque point clé typique indiquant une différence de position entre le point de référence typique et le point clé typique est établi comme information de position du point clé typique et est ajouté au détail invariant à l'échelle du point clé typique (cf. Fig. 7) pour indiquer de manière indirecte une position du point clé typique sur l'image typique et pour déterminer une relation de position entre les points correspondants typiques. Cependant, la présente invention ne doit pas se limiter au vecteur de position du point clé typique, des informations indiquant de manière directe ou indirecte une position de chaque point clé typique sur l'image typique pouvant également être utile pour le dispositif 1. En outre, l'estimation (étape S540 de la Fig. 11) de ce que, oui ou non, les positions du point de référence d'objet sont concentrées dans une petite région est réalisée pour chacune des images typiques à l'aide de la valeur de concentration fixe prédéterminée. Cependant, une valeur de concentration prédéterminée peut être établie de manière à pouvoir changer pour chaque image typique. Par exemple, une valeur de concentration prédéterminée peut être établie en fonction du nombre de points clés typiques. Ainsi, à mesure qu'augmente le nombre de points clés typiques, la valeur de concentration prédéterminée peut être accrue. VARIANTE Dans la première forme de réalisation, avant le processus d'enregistrement de position de point de référence, lors de l'étape S520 (cf. Fig.11), le dispositif 1 divise de façon régulière et fixe le plan de coordonnées de l'image d'entrée en plusieurs petites zones (cf. Fig. 15), quelles que soient les positions du point de référence d'objet. Cependant, plusieurs petites zones peuvent être établies en rapport avec des positions du point de référence d'objet pendant le processus d'enregistrement de positions de points de référence. La Fig. 16 est un organigramme illustrant un processus d'enregistrement de positions de points de référence d'objet selon une variante de la première forme de réalisation. La Fig. 17 est une vue explicative représentant trois petites zones établies de façon à placer un groupe de positions ou une position d'un point de référence d'objet dans chaque petite zone. Dans la présente variante, comme représenté sur la Fig. 16, lorsque débute 35 le processus d'enregistrement de positions de point de référence, lors de l'étape S610, le bloc 28 calcule une première position (X, Y) du point de référence d'objet d'après la position d'un premier point correspondant d'objet et d'après le vecteur de position du point correspondant typique concordant avec le premier point correspondant d'objet suivant les formules (14) et (15), et enregistre la première position. Lors de l'étape S620, une première petite zone PI ayant pour centre la première position est établie dans le plan de coordonnées de l'image d'entrée. Lors de l'étape S630, une position suivante du point de référence d'objet est enregistrée. Lors de l'étape S640, le bloc 28 estime si, oui ou non, la position suivante récemment enregistrée est placée hors de 1a/d'une des petites zones préalablement établies, dont la zone P 1. Io Lorsque la position suivante se trouve hors de laides petites zones préalablement établies, lors de l'étape S650, une nouvelle petite zone ayant pour centre la position suivante est établie. En revanche, dans le cas d'une estimation négative, aucune petite zone n'est nouvellement établie et la procédure saute à l'étape S660. Par exemple, comme représenté sur la Fig. 17, la deuxième position du point 15 de référence d'objet se trouve hors de la première petite zone Pl, si bien qu'une deuxième petite zone P2 ayant pour centre la deuxième position est établie. Trois autres positions du point de référence d'objet se trouvent à l'intérieur de la zone P2, aussi aucune nouvelle petite zone n'est-elle établie pour les trois autres positions. Par ailleurs, une autre position du point de référence d'objet se trouve hors des première 20 et deuxième petites zones Pl et P2, aussi une troisième petite zone P3 ayant pour centre la position est-elle établie. Revenant à la Fig. 16, lors de l'étape S660, le bloc 28 estime si, oui ou non, des positions du point de référence d'objet calculées d'après tous les points correspondants d'objet sont enregistrées. Dans le cas d'une estimation négative, la 25 procédure revient à l'étape S630. En revanche, dans le cas d'une estimation affirmative, lors de l'étape 5670, le bloc 28 estime si, oui ou non, le nombre de positions du point de référence d'objet dans l'une des petites zones dépasse un rapport prédéterminé au nombre de tous les points correspondants d'objet de l'image d'entrée. Dans le cas d'une estimation affirmative, les mêmes processus d'estimation que ceux 30 des étapes 5550 et S560 indiqués sur la Fig. 11 sont exécutés lors de l'étape S680. Dans le cas d'une estimation affirmative lors de l'étape S680, le même processus que celui de l'étape S570 indiquée sur la Fig. 11 est exécuté lors des étapes S690. En revanche, dans le cas d'une estimation négative lors de l'étape S680, le même processus que celui de l'étape S580 indiqué sur la Fig. 11 est exécuté lors d'étapes 35 S695.
Par conséquent, le dispositif 1 peut reconnaître la figuration d'objet comme étant un objet indiqué par l'image typique lorsque la figuration d'objet se trouve sur l'image d'entrée. FORME DE RÉALISATION 2 Dans la présente forme de réalisation, aucun point de référence n'est établi sur l'image typique, mais le bloc 24 établit des vecteurs de positions typiques indiquant des positions relatives de chaque point de détail typique pour les autres points de détail typiques en tant qu'information de position du point de détail typique, et le bloc 28 calcule des vecteurs de positions d'objet indiquant des positions relatives de chaque point correspondant d'objet pour les autres points correspondants d'objet. Le bloc 28 détermine la relation de position entre les points correspondants typiques d'après les vecteurs de positions typiques des points correspondants typiques et détermine la relation de position entre les points correspondants d'objet d'après les vecteurs de positions d'objet des points correspondants d'objet. Ensuite, le bloc 28 juge si, oui ou non, les relations sont sensiblement similaires l'une à l'autre. Si une figuration d'objet concordant avec une image typique est présente sur l'image d'entrée, les relations deviennent similaires l'une à l'autre. Cette similitude est obtenue même lorsqu'il y a une différence d'échelle ou une différence de rotation entre la figuration d'objet et l'image typique. Lorsque le bloc 28 juge que les relations sont sensiblement similaires l'une à l'autre, le bloc 28 reconnaît une figuration d'objet ayant les points correspondants d'objet comme étant un objet indiqué par l'image typique. Par exemple, le bloc 28 sélectionne trois des points correspondants typiques et établit un triangle typique déterminé par les trois points correspondants typiques.
Le bloc 28 établit également un triangle d'objet déterminé par trois points correspondants d'objet concordant avec les trois points correspondants typiques. La relation de positions entre les points correspondants typiques est représentée par une figure du triangle typique et la relation de positions entre les points correspondants d'objet est représentée par une figure du triangle d'objet. Ensuite, d'après les vecteurs de positions typiques des trois points correspondants typiques et les vecteurs de positions d'objet des trois points correspondants d'objet, le bloc 28 estime si, oui ou non, le triangle d'objet est sensiblement similaire au triangle typique. Lorsque le triangle d'objet est sensiblement similaire au triangle typique, le bloc 28 reconnaît une figuration d'objet ayant le triangle d'objet sur l'image d'entrée comme étant un objet indiqué par l'image typique.
La Fig. 18 est un organigramme illustrant un processus de calcul de détail typique pour une image typique selon la deuxième forme de réalisation. Comme illustré sur la Fig. 18, lorsque les blocs 23 et 24 lancent un processus de calcul de détail typique, le bloc 23 calcule un détail invariant à l'échelle d'un point clé typique sur une image typique, lors d'étapes 5710, S720 et S730, de la même manière que lors des étapes S352 à S354 du processus représenté sur la Fig. 7. Ensuite, lors de l'étape S740, le bloc 24 calcule des différences Ax et Ay entre des coordonnées du point clé typique et des coordonnées (x', y') d'un des autres points clés typiques sur l'image typique afin d'obtenir un vecteur de position (Ax, Ay) du point clé typique. Lors de l'étape 5750, le bloc 24 estime si, oui ou non, des vecteurs de positions du point clé typique jusqu'à tous les autres points clés typiques sont obtenus. Dans le cas d'une estimation négative, un autre vecteur de position du point clé typique est calculé lors de l'étape 5740. Par conséquent, tous les vecteurs de positions du point clé typique sont finalement obtenus comme information de position du point clé typique. La Fig. 19 est une vue explicative représentant un vecteur de position entre deux points clés typiques de chaque paire parmi trois points clés typiques d'une image typique. Comme illustré sur la Fig. 19, trois points clés typiques A, B et C sont, par exemple, extraits d'une même image typique. Un vecteur de position depuis un point clé typique jusqu'à chacun des autres points clés typiques est établi pour chaque point clé typique. De la sorte, un vecteur de position depuis le point clé typique A jusqu'au point clé typique B et un vecteur de position depuis le point clé typique A jusqu'au point clé typique C sont établis pour le point clé typique A. Un vecteur de position depuis le point clé typique B jusqu'au point clé typique A et un vecteur de position depuis le point clé typique B jusqu'au point clé typique C sont établis pour le point clé typique B. Un vecteur de position depuis le point clé typique C jusqu'au point clé typique A et un vecteur de position depuis le point clé typique C jusqu'au point clé typique B sont établis pour le point clé typique C. Revenant à la Fig. 18, lors de l'étape 5760, le détail invariant à l'échelle et les vecteurs de positions du point clé typique sont enregistrés dans une base de données comme un détail combiné du point clé typique. Lors de l'étape 5770, le bloc 26 estime si, oui ou non, des détails combinés de tous les points clés typiques sur l'image typique sont calculés. Dans le cas d'une estimation négative, un détail combiné d'un autre point clé typique est calculé lors des étapes 5710 à 5760. Par conséquent, des détails combinés de tous les points clés typiques sont finalement calculés et enregistrés. Ce processus est exécuté de la même manière pour chacune des autres images typiques. Ensuite, le bloc 28 lance un processus d'estimation et de reconnaissance d'objet. La Fig. 20 est un organigramme d'un processus d'estimation et de 5 reconnaissance d'objet selon la deuxième forme de réalisation. Comme représenté sur la Fig. 20, lors de l'étape S810, le bloc 28 estime si, oui ou non, au moins un point correspondant d'objet est présent sur l'image d'entrée. En cas de jugement affirmatif, lors de l'étape S820, le bloc 28 exécute un processus de calcul de similitude. t 0 La Fig. 21 est une vue explicative illustrant la formation d'un triangle typique et d'un triangle d'objet correspondant l'un à l'autre. La Fig. 22A illustre une comparaison d'un triangle déterminé par une première combinaison de trois points correspondants typiques avec un triangle déterminé par une première combinaison de trois points correspondants d'objet, la Fig. 22B illustre une comparaison d'un triangle 15 déterminé par une deuxième combinaison de trois points correspondants typiques avec un triangle déterminé par une deuxième combinaison de trois points correspondants d'objet et la Fig. 22C illustre une comparaison d'un triangle déterminé par une troisième combinaison de trois points correspondants typiques avec un triangle déterminé par une troisième combinaison de trois points correspondants 20 d'objet. Comme représenté sur la Fig. 21, lors du processus de calcul de similitude, un triangle typique est déterminé par trois points correspondants typiques choisis arbitrairement sur une image typique, et un triangle d'objet sur l'image d'entrée est déterminé par trois points correspondants d'objet concordant avec les trois points 25 correspondants typiques. Une similitude entre les triangles est calculée d'après les vecteurs de positions des points correspondants. Le nombre de triangles déterminé sur chaque image est accru du nombre de points correspondants sur l'image d'entrée. Par exemple, lorsque l'image d'entrée a quatre points correspondants, quatre triangles d'objet et quatre triangles typiques sont déterminés. Sur les figures 22A à 22C, trois 30 des quatre triangles sont représentés à titre d'exemple. La similitude est calculée pour chaque triangle d'objet. Ce processus de calcul de similitude est décrit en détail en référence à la Fig. 23. La Fig. 23 est un organigramme du processus de calcul de similitude. Comme représenté sur la Fig. 23, lors de l'étape 5821, trois points 35 correspondants typiques déterminant un triangle typique sont choisis arbitrairement sur une image typique. Lors de l'étape 5822, trois vecteurs de positions A, B et C des trois points correspondants sont établis d'après des positions des trois points correspondants typiques sur l'image typique. Les vecteurs sont donnés suivant une formule (17). A (AXtempA 'à'Y 1 PA B (AXtempB , AY tempB) C (AXtempC , AYtemPC) 10 Par exemple, lorsque trois points correspondants typiques A, B et C sont sélectionnés, le vecteur A désigne une différence de position entre les points A et B pour indiquer une position relative du point A par rapport au point B, le vecteur B désigne une différence de position entre les points B et C pour indiquer une position relative du point B par rapport au point C et le vecteur é désigne une différence de 15 position entre les points C et A pour indiquer une position relative du point C par rapport au point A. Lors de l'étape 5823, trois points correspondants d'objet concordant avec les points correspondants typiques sont sélectionnés sur l'image d'entrée pour déterminer une combinaison de triangles typiques et d'objet. Lors de l'étape 5824, trois vecteurs 20 de positions A', B' et é' des trois points correspondants d'objet déterminant le triangle d'objet sont calculés d'après les positions des trois points correspondants d'objet. Les vecteurs sont donnés suivant une formule (18). A Axi,,A , , AyinA,) 25 I3' Axit,B ., A y,,,B ,) C' Axinc., Ayinc. Le vecteur A' désigne une différence de position entre deux points correspondants A' et B' d'objet concordant avec deux points correspondants typiques 30 à partir desquels le vecteur A est déterminé et indique une position relative du point A' par rapport au point B'. Le vecteur B' désigne une différence de position entre deux points correspondants B' et C' d'objet concordant avec deux points correspondants typiques à partir desquels le vecteur B est déterminé et indique une position relative du point B' par rapport au point C'. Le vecteur C' désigne une 35 différence de position entre deux points correspondants C' et A' d'objet concordant5 avec deux points correspondants typiques à partir desquels le vecteur C est déterminé et indique une position relative du point C' par rapport au point A'. Lors de l'étape S825, une similitude Sim entre les triangles typiques déterminés par les points correspondants typiques et le triangle d'objet déterminé par les points correspondants d'objet est calculée d'après des éléments des vecteurs. La similitude Sim est donnée suivant une formule (19).
Sim = È B + B C C + C Al te A2 + AYtempA 2 &inA' 2 + 'à.Y MA' 2 empB 2 + AYtempB 2, inB' 2+AYinB' 2, tempC 2 + Al,tempC 2 20 IcIl = N/Axinc 2 + AYinc, 2
Chaque triangle a trois côtés correspondant à ceux de l'autre triangle, et les 25 côtés correspondants de chaque ensemble ont un rapport de longueur. La similitude Sim est calculée en additionnant les unes aux autres une différence absolue entre un premier et un deuxième rapports de longueur, une différence absolue entre le deuxième et un troisième rapports de longueur et une différence absolue entre le troisième et le premier rapport de longueur. Par conséquent, lorsqu'un triangle se 30 rapproche d'une figure similaire de l'autre triangle, une valeur de la similitude Sim diminue et un niveau de similitude entre les triangles se renforce. Lorsque les triangles sont totalement semblables l'un à l'autre, la similitude Sim devient égale à zéro.
La similitude Sim est équivalente à une similitude entre une relation parmi les positions relatives des trois points correspondants d'objet et une relation parmi les positions relatives des trois points correspondants typiques. Lors de l'étape 5826, le bloc 28 estime si, oui ou non, des similitudes ont été calculées pour toutes les combinaisons de triangles typiques et d'objet. En cas de jugement négatif, une similitude dans une autre combinaison est calculée lors d'étapes 5821 à S825. Lorsque des similitudes pour toutes les combinaisons ont été calculées, il est mis fin au processus de calcul de similitudes. Revenant à la Fig. 20, lors de l'étape 5830, le bloc 28 estime, d'après les similitudes Sim, si, oui ou non, les triangles typique et d'objet dans au moins une combinaison sont sensiblement similaires l'un à l'autre. Autrement dit, le bloc 28 estime si, oui ou non, une valeur de la similitude Sim dans au moins une combinaison est inférieure à une valeur prédéterminée. Si une figuration d'objet concordant avec une image typique est présente sur l'image d'entrée, les triangles deviennent similaires l'un à l'autre. La similitude des triangles est obtenue même s'il y a une différence d'échelle ou une différence de rotation entre la figuration d'objet et l'image typique. Lorsque les triangles d'une combinaison sont sensiblement similaires l'un à l'autre, lors de l'étape S840, le bloc 28 procède à une estimation sur un rapport d'échelle, de la même manière que lors de l'étape S550 (cf. Fig. 11). En cas de jugement affirmatif, lors de l'étape S850, le bloc 28 effectue une estimation sur une différence de rotation 0 temp - 0 in de la même manière que lors de l'étape 5560 (cf. Fig. 11). Dans le cas d'une estimation affirmative, lors de l'étape 5860, le bloc 28 estime qu'une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée concorde avec l'image typique. Le bloc 28 reconnaît alors la figuration d'objet comme étant un objet indiqué par l'image typique. Par conséquent, il est mis fin au processus d'estimation et de reconnaissance d'objet. En revanche, en cas de jugement négatif lors de l'étape 5810, 5830, 5840 ou de l'étape S850, le bloc 28 estime, lors de l'étape 5870, qu'aucune figuration d'objet concordant avec l'image typique n'est présente sur l'image d'entrée. Par conséquent, le bloc 28 ne reconnaît aucun objet indiqué par l'image typique. Le processus d'estimation et de reconnaissance d'objet est exécuté pour chacune des autres images typiques, de la même manière, et il est mis fin au processusde reconnaissance d'objet. Comme décrit plus haut, dans le dispositif 1 selon la présente forme de 35 réalisation, toutes les combinaisons de triangles typiques et d'objet sont établies, et une similitude entre les triangles typique et d'objet de chaque combinaison est calculée d'après des vecteurs de positions de trois points correspondants typiques déterminant le triangle typique et d'après des vecteurs de positions de trois points correspondants d'objet concordant avec les points correspondants typiques. Lorsque la similitude entre les triangles typique et d'objet d'une combinaison indique que les triangles sont sensiblement similaires l'un à l'autre, le dispositif 1 estime qu'une figuration d'objet concordant avec l'image typique est présente sur l'image d'entrée. De la sorte, même lorsque des points clés d'une figuration d'objet concordant avec une image typique sont insuffisamment extraits d'une image d'entrée, le dispositif 1 peut reconnaître d'une manière fiable la figuration d'objet comme étant un objet indiqué par l'image typique. VARIANTES Dans la présente forme de réalisation, une figuration d'objet concordant avec une image typique est reconnue comme objet indiqué par l'image typique d'après une similitude entre des triangles typique et d'objet, et cette similitude représente une similitude entre une relation parmi des positions relatives de trois points correspondants d'objet déterminant le triangle d'objet et une similitude entre une relation parmi des positions relatives des trois points correspondants typiques déterminant le triangle typique. Par conséquent, lorsqu'au moins trois points correspondants d'objet sont obtenus, le dispositif 1 peut reconnaître l'objet. Cependant, même si le nombre de points correspondants d'objet nécessaires pour reconnaître un objet est accru, un objet indiqué par une image typique peut être reconnu d'après une similitude entre des figures polygonales typiques et d'objet. Dans la première et la deuxième formes de réalisation, le processus d'estimation et de reconnaissance d'objet est exécuté quel que soit le nombre de points correspondants typiques ou le nombre de points correspondants d'objet. Cependant, lorsque le nombre de points correspondants d'objet est suffisamment grand en comparaison du nombre de points clés typiques, une figuration d'objet concordant avec une image typique est très probablement présente sur l'image d'entrée. En revanche, lorsque le nombre de points correspondants d'objet est petit en comparaison du nombre de points clés typiques, il est probable qu'une grande partie de la figuration d'objet concordant avec une image typique soit masquée du fait d'une occlusion derrière un autre objet. Par conséquent, la probabilité pour qu'une configuration d'image concordant avec une image typique soit présente sur l'image d'entrée n'est pas nulle, mais il est peu probable que la figuration d'objet se trouve sur l'image d'entrée. Pour cette raison, lorsqu'un rapport du nombre de points correspondants d'objet au nombre de points clés typiques est supérieur à une valeur prédéterminée, le bloc 28 peut estimer qu'une figuration d'objet concordant avec une image typique se trouve sur l'image d'entrée pour reconnaître la figuration d'objet comme objet indiqué par l'image typique. Par exemple, lorsque le nombre de points correspondants d'objet dépasse 80 % du nombre de points clés typiques, une figuration d'objet concordant avec une image typique se trouve très probablement sur l'image d'entrée. En outre, dans le processus d'établissement de point correspondant (cf Fig. 10 9) selon la première forme de réalisation, lorsqu'une différence entre le niveau de similitude le plus grand et le second niveau de similitude le plus grand est supérieure à un niveau prédéterminé, un point clé typique et un point clé d'objet ayant le niveau de similitude le plus grand sont établis comme combinaison d'un point correspondant typique et d'un point correspondant d'objet concordant l'un avec l'autre. Cependant, 15 un point clé typique et un point clé d'objet ayant la similitude la plus grande parmi les similitudes entre le point clé typique et les points clés d'objet peuvent toujours être établis comme combinaison d'un point correspondant typique et d'un point correspondant d'objet concordant l'un avec l'autre pour chaque point clé typique. Par ailleurs, un point clé typique et un point clé d'objet ayant la similitude la plus grande 20 parmi les similitudes entre les points clés typiques et le point clé d'objet peuvent être établis comme combinaison d'un point correspondant typique et d'un point correspondant d'objet concordant l'un avec l'autre pour chaque pont clé d'objet. Dans la première et la deuxième formes de réalisation, le dispositif de reconnaissance 1 de panneau monté sur un véhicule est appliqué comme dispositif de 25 reconnaissance d'objet selon la présente invention. Cependant, n'importe quel dispositif de reconnaissance peut être employé comme dispositif de reconnaissance d'objet à condition que le dispositif effectue l'extraction de points clés à partir de l'image typique et de l'image d'entrée, le calcul de détails des points clés et en étant apte à reconnaître si une figuration d'objet de l'image d'entrée concorde avec l'image 30 typique. Dans la présente description, on utilise l'expression "une relation de position entre des points correspondants d'objet est similaire à une relation de position entre des points correspondants typiques". Cette expression signifie que, lorsqu'une figure polygonale d'objet obtenue en reliant les points correspondants d'objet les uns aux 35 autres est agrandie ou réduite de façon adéquate sur l'image d'entrée, la figure polygonale d'objet correctement agrandie ou réduite peut devenir congruente avec une figure polygonale typique obtenue en reliant les uns aux autres les points correspondants typiques. Autrement dit, l'expression signifie que la figure polygonale d'objet est semblable à la figure polygonale typique.

Claims (9)

Revendications
1. Dispositif de reconnaissance d'objet, caractérisé en ce qu'il comprend : une unité d'extraction de points de détail typiques (22) qui extrait d'une image typique plusieurs points de détails typiques ; une première unité de calcul de détail (23) qui calcule un détail de chaque point de détail typique d'après des données d'image de l'image typique ; une unité d'extraction de points de détail d'objet (25) qui extrait d'une image d'entrée plusieurs points de détails d'objet une deuxième unité de calcul de détail (26) qui calcule un détail de Io chaque point de détail d'objet d'après des données d'image de l'image d'entrée ; une unité d'établissement de point correspondants (27) qui calcule des similitudes entre le détail d'un point de détail typique et les détails des points de détails d'objet pour chaque point de détail typique, estime, d'après les similitudes, si, oui ou non, les détails d'un point de détail typique ainsi que d'un point de détail 15 d'objet de chaque paire sont semblables l'un à l'autre, et établit un point de détail typique et un point de détail d'objet de chaque paire, ayant les détails semblables l'un à l'autre, comme point correspondant typique et point correspondant d'objet concordant l'un avec l'autre ; une unité de production d'informations (24) qui produit des 20 informations de positions indiquant des positions des points de détail typiques sur l'image typique ; une unité d'estimation (28) qui estime, d'après les informations de position des points correspondants typiques, si, oui ou non, une relation de position entre ou parmi les points correspondants d'objet est sensiblement semblable à une 25 relation de position entre ou parmi les points correspondants typiques ; et une unité de reconnaissance (28) qui reconnaît une figuration d'objet ayant les points correspondants d'objet sur l'image d'entrée comme objet indiqué par l'image typique lorsque l'unité d'estimation (28) estime que les relations de position sont sensiblement identiques l'une à l'autre. 30
2. Dispositif selon la revendication 1, caractérisé en ce que l'unité de production d'informations (24) est conçue pour établir un point de référence typique sur l'image typique et pour établir un vecteur de position indiquant une différence de position entre le point de référence typique et chaque point de détail typique comme information de position du point de détail typique, l'unité d'estimation (28) est 35 conçue pour déterminer une position d'un point de référence d'objet concordant avecle point de référence typique sur l'image d'entrée d'après la position de chaque point correspondant d'objet et le vecteur de position du point correspondant typique concordant avec le point correspondant d'objet et pour estimer si, oui ou non, les positions du point de référence d'objet sont concentrées à une concentration supérieure à une valeur de concentration prédéterminée, et l'unité de reconnaissance est conçue pour reconnaître l'objet lorsque les positions du point de référence d'objet sont concentrées à une concentration supérieure à la valeur de concentration prédéterminée.
3. Dispositif selon la revendication 2, caractérisé en ce que l'unité d'estimation (28) est conçue pour établir la valeur de concentration prédéterminée d'après le nombre de points de détail typique.
4. Dispositif selon la revendication 2, caractérisé en ce que l'unité d'estimation (28) est conçue pour établir une petite zone contenant une position du point de référence d'objet sur l'image d'entrée chaque fois que la position du point de référence d'objet est déterminée par un point correspondant d'objet à condition que la position du point de référence d'objet ne soit pas située dans l'une quelconque d'autres petites zones déjà établies, et l'unité d'estimation (28) est conçue pour estimer que les positions du point de référence d'objet sont concentrées, selon une probabilité prédéterminée ou plus grande encore, à une concentration supérieure à la valeur de concentration prédéterminée lorsque les positions du point de référence d'objet sont situées dans l'une des petites zones.
5. Dispositif selon la revendication 2, caractérisé en ce que l'unité d'estimation (28) est conçue pour ajuster le vecteur de position du point correspondant typique concordant avec chaque point correspondant d'objet pour le transformer en vecteur de position ajustée de manière à compenser une différence d'échelle ou une différence de rotation entre l'image d'entrée et l'image typique, et pour déterminer la position du point de référence d'objet d'après la position de chaque point correspondant d'objet et d'après le vecteur de position ajustée du point correspondant typique concordant avec le point correspondant d'objet.
6. Dispositif selon la revendication 1, caractérisé en ce que l'unité de production d'informations (24) est conçue pour établir des vecteurs de positions typiques indiquant des positions relatives d'un point de détail typique par rapport aux autres points de détail typique comme information de position du point de détail 35 typique pour chaque point de détail typique, l'unité d'estimation (28) est conçue pourcalculer des vecteurs de positions d'objet indiquant des positions relatives de chaque point correspondant d'objet par rapport aux autres points correspondants d'objet, pour déterminer la relation de position entre les points correspondants typiques d'après les vecteurs de positions typiques des points correspondants typiques, pour déterminer la relation de position entre les points correspondants d'objet d'après les vecteurs de positions d'objet des points correspondants d'objet, et pour estimer si, oui ou non, les relations sont sensiblement semblables l'une à l'autre, et l'unité de reconnaissance (28) est conçue pour reconnaître l'objet en réponse à l'estimation faite par l'unité d'estimation (28).
7. Dispositif selon la revendication 6, caractérisé en ce que l'unité d'estimation (28) est conçue pour sélectionner trois des points correspondants typiques, pour établir un triangle typique déterminé par les trois points correspondants typiques, pour établir un triangle d'objet déterminé par trois points correspondants d'objet concordant avec les trois points correspondants typiques, pour estimer, d'après les vecteurs de positions typiques des trois points correspondants typiques et les vecteurs de positions d'objet des trois points correspondants d'objet, si, oui ou non, le triangle d'objet est sensiblement semblable au triangle typique, et l'unité de reconnaissance (28) est conçue pour reconnaître l'objet lorsque le triangle d'objet est sensiblement semblable au triangle typique.
8. Dispositif selon la revendication 1, caractérisé en ce que la figuration d'objet de l'image d'entrée a une échelle ou une rotation différente de celle de l'image typique.
9. Dispositif de reconnaissance d'objet, caractérisé en ce qu'il comprend : une unité d'extraction de points de détail typiques (22) qui extrait d'une image typique plusieurs points de détails typiques une première unité de calcul de détail (23) qui calcule un détail de chaque point de détail typique d'après des données d'image de l'image typique ; une unité d'extraction de points de détail d'objet (25) qui extrait d'une image d'entrée plusieurs points de détails d'objet ; une deuxième unité de calcul de détail (26) qui calcule un détail de chaque point de détail d'objet d'après des données d'image de l'image d'entrée une unité d'établissement de points correspondants (27) qui calcule des similitudes entre le détail d'un point de détail typique et les détails des points de détails d'objet pour chaque point de détail typique, estime, d'après les similitudes, si, 35 oui ou non, les détails d'un point de détail typique et d'un point de détail d'objet dechaque paire sont semblables l'un à l'autre, et établit un point de détail typique et un point de détail d'objet de chaque paire, ayant les détails semblables l'un à l'autre, comme point correspondant typique et point correspondant d'objet concordant l'un avec l'autre ; une unité d'estimation (28) qui estime si, oui ou non, un rapport du nombre de points correspondants d'objet au nombre de points de détail typiques est supérieur à une valeur prédéterminée ; et une unité de reconnaissance (28) qui reconnaît une figuration d'objet ayant les points correspondants d'objet de l'image d'entrée comme objet indiqué par l'image typique lorsque l'unité d'estimation (28) estime que le rapport est supérieur à la valeur prédéterminée.
FR0852220A 2007-04-09 2008-04-03 Dispositif pour reconnaitre un objet sur une image Expired - Fee Related FR2914761B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007102105A JP4988408B2 (ja) 2007-04-09 2007-04-09 画像認識装置

Publications (2)

Publication Number Publication Date
FR2914761A1 true FR2914761A1 (fr) 2008-10-10
FR2914761B1 FR2914761B1 (fr) 2014-11-21

Family

ID=39758699

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0852220A Expired - Fee Related FR2914761B1 (fr) 2007-04-09 2008-04-03 Dispositif pour reconnaitre un objet sur une image

Country Status (4)

Country Link
US (1) US8027514B2 (fr)
JP (1) JP4988408B2 (fr)
DE (1) DE102008000758B4 (fr)
FR (1) FR2914761B1 (fr)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
US20100092093A1 (en) * 2007-02-13 2010-04-15 Olympus Corporation Feature matching method
EP2028605A1 (fr) * 2007-08-20 2009-02-25 Delphi Technologies, Inc. Procédé de détection de formes symétriques
JP5376906B2 (ja) * 2008-11-11 2013-12-25 パナソニック株式会社 特徴量抽出装置、物体識別装置及び特徴量抽出方法
US20100166303A1 (en) * 2008-12-31 2010-07-01 Ali Rahimi Object recognition using global similarity-based classifier
JP5075861B2 (ja) * 2009-03-16 2012-11-21 株式会社東芝 画像処理装置及び画像処理方法
JP5287392B2 (ja) * 2009-03-17 2013-09-11 トヨタ自動車株式会社 物体識別装置
US9129163B2 (en) * 2009-06-24 2015-09-08 Here Global B.V. Detecting common geographic features in images based on invariant components
US8761435B2 (en) * 2009-06-24 2014-06-24 Navteq B.V. Detecting geographic features in images based on invariant components
US8953838B2 (en) * 2009-06-24 2015-02-10 Here Global B.V. Detecting ground geographic features in images based on invariant components
DE102009027275A1 (de) 2009-06-29 2010-12-30 Robert Bosch Gmbh Bildverarbeitungsverfahren für ein Fahrerassistenzsystem eines Kraftfahrzeugs zur Detektion und Klassifikation wenigstens eines Teils wenigstens eines vorgegebenen Bildelements
JP5257274B2 (ja) * 2009-06-30 2013-08-07 住友電気工業株式会社 移動体検出装置、移動体検出方法及びコンピュータプログラム
JP5468332B2 (ja) * 2009-08-20 2014-04-09 Juki株式会社 画像特徴点抽出方法
JP2011060058A (ja) * 2009-09-11 2011-03-24 Hitachi Kokusai Electric Inc 撮影装置および監視システム
WO2011088497A1 (fr) * 2010-01-19 2011-07-28 Richard Bruce Baxter Procédé de reconnaissance d'objet et système informatique
JP5290227B2 (ja) * 2010-03-30 2013-09-18 セコム株式会社 対象物検知装置及びその学習装置
JP5411809B2 (ja) * 2010-05-31 2014-02-12 日本電信電話株式会社 画像特徴量比較装置、画像特徴量比較方法および画像特徴量比較プログラム
JP5578965B2 (ja) * 2010-07-02 2014-08-27 富士フイルム株式会社 オブジェクト推定装置および方法ならびにプログラム
US20120011119A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Object recognition system with database pruning and querying
JP5289412B2 (ja) * 2010-11-05 2013-09-11 株式会社デンソーアイティーラボラトリ 局所特徴量算出装置及び方法、並びに対応点探索装置及び方法
US9146126B2 (en) * 2011-01-27 2015-09-29 Here Global B.V. Interactive geographic feature
KR101165357B1 (ko) * 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법
WO2012137621A1 (fr) * 2011-04-07 2012-10-11 富士フイルム株式会社 Procédé et dispositif de traitement d'image
JP5746550B2 (ja) 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
US9582707B2 (en) 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
US8675997B2 (en) * 2011-07-29 2014-03-18 Hewlett-Packard Development Company, L.P. Feature based image registration
JP5806606B2 (ja) 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
JP5906071B2 (ja) 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
JP6153087B2 (ja) * 2011-12-16 2017-06-28 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US10115127B2 (en) 2011-12-16 2018-10-30 Nec Corporation Information processing system, information processing method, communications terminals and control method and control program thereof
US9418314B2 (en) * 2012-01-30 2016-08-16 Nec Corporation Information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
US9792528B2 (en) 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
JP6131859B2 (ja) * 2012-01-30 2017-05-24 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
ITVI20120041A1 (it) * 2012-02-22 2013-08-23 St Microelectronics Srl Rilevazione di caratteristiche di un'immagine
US8774508B2 (en) 2012-02-27 2014-07-08 Denso It Laboratory, Inc. Local feature amount calculating device, method of calculating local feature amount, corresponding point searching apparatus, and method of searching corresponding point
JP5946315B2 (ja) * 2012-04-18 2016-07-06 説男 木村 画像検索システム
JP6295956B2 (ja) * 2012-10-19 2018-03-20 コニカミノルタ株式会社 超音波診断装置、及び超音波診断装置の制御方法
JP5962497B2 (ja) * 2012-12-25 2016-08-03 富士通株式会社 画像処理方法、画像処理装置および画像処理プログラム
US20140233859A1 (en) * 2013-02-15 2014-08-21 Samsung Electronics Co., Ltd. Electronic device and method of determining descriptor thereof
KR102127673B1 (ko) * 2013-02-15 2020-06-30 삼성전자주식회사 전자장치 및 전자장치의 디스크립터 결정방법
JP6128910B2 (ja) 2013-03-21 2017-05-17 キヤノン株式会社 学習装置、学習方法及びプログラム
RU2014109439A (ru) * 2014-03-12 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с сопоставлением положения руки, основываясь на признаках контура
JP2015223260A (ja) 2014-05-27 2015-12-14 ブラザー工業株式会社 ミシン
DE102014110527A1 (de) * 2014-07-25 2016-01-28 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten für ein Kamerasystem eines Kraftfahrzeugs, Kamerasystem, Fahrassistenzsystem und Kraftfahrzeug
DE102014113174A1 (de) * 2014-09-12 2016-03-17 Connaught Electronics Ltd. Verfahren zum Bestimmen von charakteristischen Bildpunkten, Fahrerassistenzsystem und Kraftfahrzeug
US9576218B2 (en) * 2014-11-04 2017-02-21 Canon Kabushiki Kaisha Selecting features from image data
DE102014117074A1 (de) * 2014-11-21 2016-05-25 Adasens Automotive Gmbh Bildbasierte Objekterkennungstechnik
JP2016110215A (ja) * 2014-12-02 2016-06-20 トヨタ自動車株式会社 マーカ認識装置、マーカ認識方法及び認識プログラム
US9959661B2 (en) 2015-12-02 2018-05-01 Samsung Electronics Co., Ltd. Method and device for processing graphics data in graphics processing unit
JP2017134598A (ja) 2016-01-27 2017-08-03 キヤノン株式会社 画像検索装置、画像検索方法及びプログラム
JP6732517B2 (ja) * 2016-04-26 2020-07-29 蛇の目ミシン工業株式会社 縫製データ生成装置、縫製データ生成方法、プログラムおよび縫製システム
JP6986333B2 (ja) * 2016-04-28 2021-12-22 株式会社ジャノメ 刺繍模様連結データ生成装置、刺繍模様連結データ生成方法、プログラムおよび縫製システム
JP6770782B2 (ja) * 2016-04-28 2020-10-21 蛇の目ミシン工業株式会社 縫製データ生成装置、縫製データ生成方法、プログラムおよび縫製システム
JP6757203B2 (ja) * 2016-08-02 2020-09-16 キヤノン株式会社 画像検出装置とその制御方法、及びプログラム
WO2018116589A1 (fr) 2016-12-19 2018-06-28 株式会社安川電機 Processeur et contrôleur de reconnaissance d'image de dispositif industriel
JP7072765B2 (ja) 2017-01-31 2022-05-23 株式会社アイシン 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム
WO2018143278A1 (fr) 2017-01-31 2018-08-09 株式会社エクォス・リサーチ Dispositif de traitement d'images, dispositif de reconnaissance d'images, programme de traitement d'images et programme de reconnaissance d'images
CN106980843B (zh) * 2017-04-05 2019-09-06 南京航空航天大学 目标跟踪的方法及装置
KR20220004460A (ko) * 2020-07-03 2022-01-11 삼성전자주식회사 이미지 병합을 위한 이미지 매칭 방법 및 이를 수행하는 데이터 처리 장치
AU2021290436A1 (en) * 2021-12-10 2022-02-10 Sensetime International Pte. Ltd. Object recognition method, apparatus, device and storage medium
CN115191008A (zh) * 2021-12-10 2022-10-14 商汤国际私人有限公司 对象识别方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3040466B2 (ja) 1990-07-17 2000-05-15 ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 画像処理方法
JPH04291472A (ja) * 1991-03-20 1992-10-15 N T T Data Tsushin Kk カラー画像同一性判定方法及びその実施装置
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6215914B1 (en) 1997-06-24 2001-04-10 Sharp Kabushiki Kaisha Picture processing apparatus
US6711293B1 (en) * 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
DE10045360A1 (de) 2000-09-14 2002-03-28 Giesecke & Devrient Gmbh Verfahren zur Klassifizierung von Dokumenten
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP4324417B2 (ja) * 2003-07-18 2009-09-02 富士重工業株式会社 画像処理装置および画像処理方法
JP4605445B2 (ja) 2004-08-24 2011-01-05 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2006133979A (ja) * 2004-11-04 2006-05-25 Nec Infrontia Corp 指紋照合装置および指紋照合方法
JP4332556B2 (ja) 2005-03-01 2009-09-16 公立大学法人大阪府立大学 文書・画像検索方法とそのプログラム、文書・画像登録装置および検索装置
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
US8144947B2 (en) * 2008-06-27 2012-03-27 Palo Alto Research Center Incorporated System and method for finding a picture image in an image collection using localized two-dimensional visual fingerprints

Also Published As

Publication number Publication date
JP4988408B2 (ja) 2012-08-01
DE102008000758A1 (de) 2009-02-05
US20080247651A1 (en) 2008-10-09
DE102008000758B4 (de) 2018-09-06
FR2914761B1 (fr) 2014-11-21
US8027514B2 (en) 2011-09-27
JP2008257649A (ja) 2008-10-23

Similar Documents

Publication Publication Date Title
FR2914761A1 (fr) Dispositif pour reconnaitre un objet sur une image
JP4755202B2 (ja) 顔特徴の検出方法
EP1431907B1 (fr) Evaluation de la netteté d&#39;une image d&#39;iris d&#39;oeil
JP6371553B2 (ja) 映像表示装置および映像表示システム
JP4415198B2 (ja) 画像合成装置及びプログラム
FR2931006A1 (fr) Systeme et procede pour la reconnaissance visuelle
US20150294469A1 (en) Image processing device and image processing method, and program
WO2011121688A1 (fr) Dispositif de reconnaissance de visage et procédé de reconnaissance de visage
FR2947656A1 (fr) Procede de detection d&#39;un obstacle pour vehicule automobile
FR2947657A1 (fr) Procede de detection d’un obstacle pour vehicule automobile
EP0749097A1 (fr) Méthode d&#39;extraction de contours par une approche mixte contour actif et amorce/guidage
FR3085219A1 (fr) Appareil de detection d&#39;objet en mouvement et procede de detection d&#39;objet en mouvement
CA3000153A1 (fr) Procede d&#39;analyse d&#39;un document structure susceptible d&#39;etre deforme
EP2593907A1 (fr) Procédé de détection d&#39;une cible dans des images stéréoscopiques par apprentissage et classification statistique à partir d&#39;une loi de probabilité
CN108416291A (zh) 人脸检测识别方法、装置和系统
FR3074941A1 (fr) Utilisation de silhouettes pour une reconnaissance rapide d&#39;objets
WO2018138064A1 (fr) Detection d&#39;obstacles dans l&#39;environnement d&#39;un vehicule automobile par traitement d&#39;images
JP2006318059A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2007241477A (ja) 画像処理装置
Wang et al. A multimodal temporal panorama approach for moving vehicle detection, reconstruction and classification
EP3888000A1 (fr) Dispositif et procede d&#39;authentification d&#39;un individu
Barua et al. An Efficient Method of Lane Detection and Tracking for Highway Safety
FR2704668A1 (fr) Appareil de poursuite de véhicules routiers à partir d&#39;une plate-forme aérienne.
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l&#39;image d&#39;une scene routiere
EP1431906B1 (fr) Détermination d&#39;un indice de netteté d&#39;une image numérique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

ST Notification of lapse

Effective date: 20231205