FR2847696A1 - Procede d'etalonnage main/oeil utilisant un descripteur de forme invariant en projection pour une image bidimensionnelle - Google Patents

Procede d'etalonnage main/oeil utilisant un descripteur de forme invariant en projection pour une image bidimensionnelle Download PDF

Info

Publication number
FR2847696A1
FR2847696A1 FR0313536A FR0313536A FR2847696A1 FR 2847696 A1 FR2847696 A1 FR 2847696A1 FR 0313536 A FR0313536 A FR 0313536A FR 0313536 A FR0313536 A FR 0313536A FR 2847696 A1 FR2847696 A1 FR 2847696A1
Authority
FR
France
Prior art keywords
projection
image
corresponding points
images
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0313536A
Other languages
English (en)
Inventor
Kyoung Sig Roh
Young Son
Joo Young Kwak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of FR2847696A1 publication Critical patent/FR2847696A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Abstract

Le procédé comprend le calcul d'un descripteur de forme invariant en projection pour une image bidimensionnelle à partir d'au moins deux images obtenues par une caméra (110) montée sur une main de robot (100), à un intervalle de temps prédéterminé, l'extraction de points correspondants entre les images par l'utilisation du descripteur de forme invariant en projection, le calcul d'une matrice de rotation pour les points correspondants, d'après une translation de la main de robot (100), le calcul d'un vecteur de translation pour les points correspondants, d'après une translation et une rotation de la main de robot (100), et la détermination d'une relation entre la main de robot (100) et la caméra (110) sur la base de la matrice de rotation et du vecteur de translation.

Description

<Desc/Clms Page number 1>
La présente invention concerne une technologie d'asservissement visuel, et elle concerne plus particulièrement un procédé d'étalonnage main/oeil utilisant un descripteur de forme invariant en projection d'une image bidimensionnelle.
L'étalonnage main/oeil désigne une procédure pour déterminer la transformation spatiale entre une main de robot et une caméra montée sur la main de robot, pour obtenir une image désirée en utilisant une technique d'asservissement visuel dans un système de coordonnées du robot, et pour commander le robot. L'un des procédés d'étalonnage main/oeil, qui est très fréquemment utilisé, consiste à fournir une information de mouvement antérieure et à obtenir une information désirée à partir de transformées d'images générées sur la base de l'information de mouvement fournie. Pour extraire aisément et correctement une information de transformation de la main de robot, dans ce procédé, il est très important de sélectionner correctement des points correspondants entre des images transformées.
La présente invention procure un procédé d'étalonnage main/oeil qui permet d'extraire aisément et correctement une information de transformation entre une main de robot et une caméra.
La présente invention procure également un support lisible par ordinateur sur lequel est enregistré un programme d'ordinateur pour le procédé d'étalonnage main/oeil.
Selon un aspect de la présente invention celle-ci procure un procédé d'étalonnage main/oeil. Le procédé comprend (a) le calcul d'un descripteur de forme invariant en projection à partir d'au moins deux images obtenues consécutivement au moyen d'une caméra montée sur une main de robot ; l'extraction de points correspondants entre les images, par l'utilisation du descripteur de forme invariant en projection; (c) le calcul d'une matrice de
<Desc/Clms Page number 2>
rotation pour les points correspondants, à partir d'une translation du robot ; le calcul d'un vecteur de translation pour les points correspondants, à partir d'une translation et d'une rotation du robot ; (e) la détermination d'une relation entre la main du robot et la caméra sur la base de la matrice de rotation calculée à l'étape (c) et du vecteur de translation calculé à l'étape (d).
Selon un second aspect de la présente invention, celle-ci procure un procédé d'extraction de points correspondants entre des images. Le procédé comprend (a) la définition d'erreurs pour un descripteur de forme invariant en projection pour une image bidimensionnelle, à partir d'au moins deux images obtenues à un intervalle prédéterminé, et le calcul d'une invariance bruyante ; le calcul d'un seuil à utiliser pour fixer des points correspondants conformément à l'invariance bruyante ; (c) l'extraction de données de limite à partir des images et la présentation des données de limite extraites, par le sous- échantillonnage de N données ; la minimisation du descripteur de forme invariant en projection ; (e) la transformation d'une image suivante pour donner l'image suivante conformément au descripteur de forme invariant en projection minimisé ; la restauration de la distance entre des données de limite en considération du rapport de distance entre les données de limite avant la transformation et la distance entre les données de limite après la transformation ; (g) la détermination de similitudes entre les données de limite et l'extraction de points correspondants entre les images précédentes et l'image suivante.
D'autres caractéristiques et avantages de l'invention seront mieux compris à la lecture de la description qui va suivre de modes de réalisation, donnés à titre d'exemples non limitatifs. La suite de la description se réfère aux dessins annexés, dans lesquels :
<Desc/Clms Page number 3>
la figure 1 est une vue d'une main de robot sur laquelle une caméra est montée, la main de robot étant commandée en utilisant un asservissement visuel; la figure 2 est une vue d'un aspect de la caméra de la figure 1; la figure 3 est une représentation d'un modèle de caméra à sténopé pour la caméra de la figure 2; la figure 4 est une représentation de systèmes de coordonnées d'un plan objet et d'un plan image, et d'un résultat de projection du plan image sur le plan objet; la figure 5 est une représentation montrant des conditions pour respecter une linéarité de la caméra de la figure 2; la figure 6 est une représentation illustrant une relation pour un système de coordonnées d'un plan objet, un système de coordonnées sur un plan image et un système de coordonnées du monde extérieur d'une main de robot; la figure 7 est une représentation pour expliquer un procédé d'obtention d'un descripteur de forme invariant en projection à partir d'une image bidimensionnelle; la figure 8 est une représentation montrant un exemple de descripteur de forme invariant en projection calculé à partir d'une forme bidimensionnelle de la figure 7; la figure 9 est un organigramme d'un procédé pour l'étalonnage main/oeil conforme à un mode de réalisation de la présente invention ; la figure 10 est un organigramme détaillé d'un procédé d'obtention de points correspondants entre une image précédente et une image suivante représenté sur la figure 9.
Dans les dessins, des éléments semblables sont toujours désignés par des numéros de référence semblables.
La figure 1 est une vue d'une main de robot 100 sur laquelle une caméra à dispositif à couplage de charge (CCD) 110 est montée pour adopter une technique de commande par asservissement visuel. En se référant à la figure 1, on
<Desc/Clms Page number 4>
note qu'au moins une caméra à CCD 110 est montée à une extrémité de la main de robot 100 utilisée comme un robot industriel.
La figure 2 est une vue d'un aspect de la caméra à CCD 110 de la figure 1. En se référant à la figure 2, on note que la caméra à CCD 110 est composée d'un corps de main 111, d'un réseau de CCD 112 et d'un objectif 114. L'objectif 114 a la même fonction d'un cristallin des yeux d'une personne. Le réseau de CCD 112 correspond à un plan image sur lequel est formée une image projetée à travers l'objectif 114 de la caméra à CCD 110, et il a la même fonction que la rétine des yeux d'une personne. Lorsqu'une mise au point de l'objectif 114 est réglée à l'infini, la distance à partir d'un centre de l'objectif 114 jusqu'au réseau de CCD 112 est égale à une distance focale F, et l'image a un aspect différent en fonction de la distance focale F. La distance focale F est un paramètre important nécessaire pour estimer la distance entre la caméra à CCD 110 et un objet.
La figure 3 est une représentation d'un modèle de caméra à sténopé pour la caméra à CCD 110 de la figure 2, et la figure 4 est une représentation de systèmes de coordonnées d'un plan objet et d'un plan image, et d'un résultat de projection du plan image sur le plan objet. En se référant aux figures 3 et 4, on note qu'une transformation de projection pour une image dans le modèle de caméra à sténopé peut être exprimée de la façon suivante :
Figure img00040001

avec les notations suivantes : (u, v, 1) désignent des coordonnées d'un point q défini sur le plan image, (X, Y, Z, 1) désigne des coordonnées d'un point P dans un
<Desc/Clms Page number 5>
système de coordonnées d'objet, et tij désigne un élément ij d'une matrice de transformation entre un plan objet et le plan image.
Ici, si un objet est projeté sur un plan bidimensionnel, c'est-à-dire Z = 0, l'Equation 1 est transformée de la façon suivante :
Figure img00050001
Comme le montrent les Equations 1 et 2, le processus pour obtenir une image est effectué dans un environnement non linéaire. Cependant, une transformation de projection linéarisée est adoptée pour une image bidimensionnelle obtenue par l'intermédiaire de la caméra à CCD 110, au lieu d'une transformation de projection non linéaire semblable à celle de l'Equation 2.
La figure 5 est une représentation montrant des conditions pour obtenir un modèle linéaire de la caméra à CCD 110 de la figure 2. Comme représenté sur la figure 5, si une distance S à partir de la caméra à CCD 110 jusqu'à l'objet est suffisamment supérieure à une taille So de l'objet, la transformation de projection non linéaire semblable à celle de l'Equation 2 est transformée de la façon suivante :
Figure img00050002
Un descripteur de Fourier est un descripteur de forme linéarisé qui vérifie les Equations 1,2 et 3. Le descripteur de Fourier représente une image de l'objet avec des coefficients de Fourier qui sont obtenus par une transformation de Fourier bidimensionnelle pour le contour d'image d'un objet bidimensionnel. Cependant, ce procédé ne peut être appliqué qu'à un cas dans lequel la linéarité d'une caméra est garantie, c'est-à-dire lorsqu'une distance
<Desc/Clms Page number 6>
entre la caméra à CCD 110 et l'objet est très longue . Par conséquent, pour surmonter la restriction, l'image obtenue à partir de la caméra à CCD 110 est analysée dans la présente invention en utilisant un descripteur de forme invariant en projection, I. Il en résulte que, même dans un cas dans lequel la linéarité de la caméra n'est pas garantie, c'est-à-dire que la distance entre la caméra à CCD 110 et l'objet n'est pas longue, l'image peut être analysée correctement sans être affectée du bruit, des angles d'inclinaison ou la non-linéarité de la caméra à CCD 110 se manifestant lorsque des images sont obtenues.
La figure 6 est une représentation montrant une relation pour un système de coordonnées d'un plan objet, un système de coordonnées sur un plan image, et un système de coordonnées du monde extérieur d'une main de robot. En se référant à la figure 6, on note qu'un système de coordonnées de la caméra à CCD 110 correspond à un système de coordonnées du monde extérieur de la main de robot 100 après une rotation et une translation. Par conséquent, un étalonnage main/oeil du robot est un processus consistant à trouver les éléments d'une matrice de rotation qui donne une direction de la caméra à CCD 110, et les composantes d'un vecteur de translation t qui donne un emplacement de la caméra à CCD 110, dans le système de coordonnées du monde extérieur.
Dans le procédé d'étalonnage main/oeil conforme à la présente invention, on utilise le modèle de caméra à sténopé dans lequel on peut négliger une distorsion de la lentille 114 ou un défaut d'alignement d'un axe de propagation de lumière. Les relations entre la main de robot 100 de la figure 6 et la caméra à CCD 110 peuvent être exprimées de la façon suivante,
Figure img00060001

dans laquelle Xh désigne le système de coordonnées du monde extérieur de la main de robot 100, Xc désigne un
<Desc/Clms Page number 7>
système de coordonnées de la caméra à CCD 110, R désigne une matrice de rotation et t désigne un vecteur de translation.
La relation entre la caméra à CCD 110 et l'image peut être exprimée de la façon suivante :
Figure img00070001

dans laquelle u et u0 désignent des coordonnées X sur un plan image, et v et v0 désignent des coordonnées Y sur un plan image. De plus, f désigne une distance focale entre la lentille 114 et le réseau de CCD, et Sx et Sy désignent des facteurs d'échelle de la caméra à CCD 110. La distance focale f et les facteurs d'échelle Sx et Sy sont des valeurs caractéristiques qui indiquent des caractéristiques originales de la caméra à CCD 110, et sont fixés conformément à une spécification de la caméra à CCD 110.
Si une information de mouvement de robot déjà connue de l'utilisateur, Xp1 = RplXp2 + tpl, est introduite dans l'Equation 4, on obtient l'Equation suivante :
Figure img00070002
Le mouvement de la caméra à CCD 110, Xc1, peut être exprimé de la façon suivante en utilisant l'Equation 6 :
Figure img00070003
Si la matrice de rotation est exclue de l'Equation 7 et seule la translation est considérée, la matrice de rotation R peut être exprimée de la façon suivante :
Figure img00070004
L'Equation 8 peut être exprimée en substituant à tp1 trois vecteurs de mouvement du robot, tp1, tp2 et tp3 , de la façon suivante :
Figure img00070005
<Desc/Clms Page number 8>
Ici, des vecteurs d'image correspondant à trois vecteurs de mouvement de la main de robot, tpl, tp2 et tp3, sont OF1, OF2 et OF3, et chaque vecteur d'image est défini par l'Equation 10 suivante,
Figure img00080001

dans laquelle fx = f/Sx, et fy = f/Sx. On peut calculer Sx y Sy des paramètres intrinsèques de la façon suivante.
Figure img00080002
L'Equation 11 peut être exprimée de la façon suivante,
Figure img00080003

avec s1 = v0 fx2/fy2 et s2 = fx2/fy2. L'Equation 12 peut être exprimée sous une forme matricielle de la façon suivante.
Figure img00080004
En considération de la rotation et de la translation de la main de robot 100, le vecteur de translation t entre la main de robot 100 et la caméra à CCD 110 peut être exprimé de la façon suivante,
<Desc/Clms Page number 9>
Figure img00090001

dans laquelle (Rp1, tp1) désigne une information de mouvement déjà connue par l'utilisateur, et R désigne une matrice de rotation qui est calculée à partir de trois rotations de la main de robot 100. tc'1 désigne un vecteur d'image, et I désigne un descripteur de forme invariant en projection calculé à partir d'une image bidimensionnelle.
Pour améliorer la précision de l'étalonnage main/oeil, il est très important de fixer correctement des points correspondant à des coordonnées qui sont prédéterminées à l'intérieur du champ d'observation de la caméra à CCD 110.
Par conséquent, dans la présente invention, des points correspondants sont obtenus par la caméra à CCD 110 en utilisant le descripteur de forme invariant en projection qui ne varie pas sous l'effet d'une transformation non linéaire. Ensuite, les points correspondants sont utilisés comme des cibles d'étalonnage pour effectuer l'étalonnage main/oeil. Le descripteur de forme invariant en projection I, qui est utilisé comme un facteur fondamental de l'étalonnage main/oeil, peut être défini de la façon suivante,
Figure img00090002

dans laquelle P désigne des points de l'objet, q désigne des points correspondants de l'image, comme représenté sur la figure 3. det(.) dans l'Equation 15 peut être défini de la façon suivante.
Figure img00090003
<Desc/Clms Page number 10>
Le descripteur de forme invariant en projection I exprimé dans les Equations 15 et 16 représente une information qui ne varie pas sous l'effet d'une transformation non linéaire, comme représenté dans l'Equation 2, et qui ne varie pas bien que des images obtenues par la caméra à CCD 110 soient transformées.
La figure 7 est une représentation pour expliquer un procédé d'obtention d'un descripteur de forme invariant en projection, à partir d'une image bidimensionnelle. En se référant à la figure 7, on note qu'un contour de l'image bidimensionnelle d'un dessin est extrait, et le contour extrait est divisé en cinq intervalles similaires. Les coordonnées de points (X1(1), X1(k), X2(l), X2(k), X3(l), X3(k), X4(l), X4(k), X5(l), X5(k)) qui constituent chaque intervalle sont obtenues, et ensuite le descripteur de forme invariant en projection est calculé. Les points (X1(1), X1(k), X2(l), X2(k), X3(l), X3(k), X4(l), X4(k), X5(l), X5(k)) sont introduits de façon récursive dans l'Equation 15, avec un déplacement continuel le long du contour, sur une distance égale à 1/N fois la longueur du contour, jusqu'à ce que chaque point atteigne sa position initiale.
Figure img00100001
<Desc/Clms Page number 11>
Y (k) (k) désignent des fonctions des coordonnées d'axes X et Y du contour.
La figure 8 montre un exemple de descripteur de forme invariant en projection calculé à partir d'une forme bidimensionnelle de la figure 7. Le résultat du calcul du descripteur de forme invariant en projection I de la figure 8, c'est-à-dire un invariant en projection, conserve sa valeur intrinsèque bien que la forme de l'image obtenue par la caméra à CCD 110 soit transformée. De plus, le descripteur de forme invariant en projection I n'est pas affecté par du bruit ou des angles d'inclinaison. Par conséquent, si l'invariant en projection est utilisé pour l'étalonnage main/oeil, la précision de l'étalonnage peut être améliorée.
On peut extraire de la façon suivante des points correspondants des images obtenues par la caméra à CCD 110, en utilisant le descripteur de forme invariant en proj ection I.
Pour extraire des points correspondants des images, il est nécessaire de définir des erreurs dans le descripteur de forme invariant en projection I. Dans la présente invention, les erreurs sont définies en utilisant un modèle de bruit gaussien. Pour utiliser le modèle de bruit gaussien, on peut exprimer l'Equation 17 de la façon suivante.
Figure img00110001
Figure img00110002

avec i, = tX; .#t u ou 1 =1 {x ,11 ,7C2 .i)2 .X3 ,J3 JC4 .Y4 .x5 .1J5 .
Ici, si on désigne par (xi, yi) les données vraies, et par (#i, #i) un paramètre d'observation bruyant, le paramètre d'observation de bruit peut être exprimé de la façon suivante,
Figure img00110003

dans laquelle les termes de bruit Ç et #i sont des termes de bruit réparti, et leur moyenne et leur variance
<Desc/Clms Page number 12>
sont 0 et #i2. Les termes de bruit peuvent être exprimés de la façon suivante.
Figure img00120001
Un invariant bruyant peut être exprimé de la façon suivante, après observation de mesures bruyantes sur l'image.
# (#1, #1, #2, #2, #3, #3, #4, #4, #5, #5) (21)
Pour calculer une espérance mathématique et une variance de l'invariant bruyant #, on peut exprimer l'invariant bruyant # avec (x1, y1, x2, y2, x3, y3, x4, y4, x5, y5), en utilisant une série de Taylor.
Figure img00120002
Ici, on peut exprimer la variance de la façon suivante.
Figure img00120003
On peut définir de la façon suivante un seuil de l'invariant bruyant.
Figure img00120004
Les points correspondants sont trouvés à partir des images obtenues par la caméra à CCD 110 de la main de robot 100, en répétant le calcul du descripteur de forme invariant en projection, et des données de limite entre une image précédente et une image suivante obtenues consécutivement par la caméra à CCD 110 peuvent être
<Desc/Clms Page number 13>
exprimées de la façon suivante,
Figure img00130001

dans laquelle nIn et nMo désignent le nombre de points dans une limite entre une scène et un modèle. Les données de limite sont présentées en sous-échantillonnant N données, et ce sous-échantillonnage peut être exprimé sous la forme suivante :
Figure img00130002

dans laquelle (i) nin 'r2 (') nMo dans laquelle #1(i) = @/N#i, #2(i) @/N#i, et N désigne le nombre de points sur un contour normalisé.
Ensuite, un descripteur de forme invariant en projection en calculé en utilisant qiIn et qiMo définis dans l'Equation 26, lorsqu'une valeur de l'Equation suivante est minimisée,
Figure img00130003

e2=îwXqf-(C-qfo + dr\Agfo + b))T(qf-(C-q + dr(A q? + b)) (27) =E(-(C.''±'"+6)/(-(C.±' qM +, bl ( 2 7 )
A, b, c et d désignant des termes variables définis d'après la transformation entre l'image précédente et l'image suivante, et qui peuvent être exprimés de la façon suivante :
Figure img00130004
Le poids wi de l'Equation 27 est calculé par la variance définie dans l'Equation 23, de la façon suivante.
Figure img00130005
Les descripteurs de forme invariants en projection peuvent être minimisés par les Equations 27 à 30, de la
<Desc/Clms Page number 14>
façon suivante :
Figure img00140001
Après que les descripteurs de forme invariants en projection ont été minimisés en utilisant l'Equation 31, l'image suivante obtenue par la caméra à CCD 110 est transformée en une image précédente. Cette transformation peut être exprimée sous la forme suivante :
Figure img00140002

dans laquelle A, b, c et d désignent des termes variables définis d'après la transformation entre l'image précédente et l'image suivante.
Après l'achèvement de la transformation entre l'image précédente et l'image suivante, le rapport de la distance entre les données de limite avant la transformation à la distance entre les données de limite après la transformation, c'est-à-dire #2(i)', est calculé en utilisant l'Equation suivante, et ensuite la longueur entre les données est restaurée en utilisant le rapport.
Figure img00140003
En utilisant le rapport #2(i)' calculé par l'Equation 33, l'image suivante peut être rééchantillonnée de la façon suivante :
Figure img00140004
<Desc/Clms Page number 15>
Après ceci, pour inclure dans une étendue prédéterminée des erreurs entre l'image précédente et l'image suivante, les Equations 29 à 34 sont répétées. Les erreurs sont exprimées par des erreurs des points correspondants et des similitudes entre les descripteurs de forme invariants en projection (Im, Ii) des données de limite. Une valeur de similitude des descripteurs de forme invariants en projection (Im, Ii) des données de limite peut être exprimée de la façon suivante :
Figure img00150001
Si la valeur maximale des valeurs de similitude est plus grande qu'un seuil prédéterminé, il est déterminé que les points correspondants de l'image précédente et de l'image suivante sont mutuellement les mêmes. La valeur de #I dans l'Equation 35 et le seuil prédéterminé sont sélectionnés conformément à un environnement auquel la présente invention est appliquée, et à une précision exigée.
La figure 9 est un organigramme d'un procédé pour l'étalonnage main/oeil conforme à un mode de réalisation préféré de la présente invention. En se référant à la figure 9, on note que le procédé d'étalonnage main/oeil conforme à la présente invention comprend le calcul d'un descripteur de forme invariant en projection 1 à partir d'une image bidimensionnelle (étape 210). Ensuite, les points correspondants entre une image précédente et une image suivante obtenus consécutivement au moyen de la caméra à CCD 110 sont extraits en utilisant le descripteur de forme invariant en projection I qui a été calculé (étape 220). Les points correspondants extraits sont utilisés comme des cibles pour effectuer l'étalonnage main/oeil.
Ensuite, une matrice de rotation R pour une
<Desc/Clms Page number 16>
coordonnée, c'est-à-dire l'extraction des points correspondants, est calculée à partir d'une translation de la main de robot 100 (étape 230). Ici, la matrice de rotation R est calculée par l'Equation 8. Un vecteur de translation t pour la coordonnée, c'est-à-dire les points correspondants extraits, est calculé à partir d'une translation et d'une rotation de la main de robot 100 (étape 240) . Ici, le vecteur de translation t est calculé par l'Equation 14. Après l'achèvement des étapes 230 et 240, l'étalonnage main/oeil qui définit une relation entre la main de robot 100 et la caméra à CCD 110, c' est-à-dire qui obtient un résultat de calcul de Xh = RXC + t, est achevé (étape 250). Ici, Xh désigne un système de coordonnées de la main de robot 100, et Xc désigne un système de coordonnées de la caméra à CCD 110 montée sur la main de robot 100.
La figure 10 est un organigramme détaillé d'un procédé d'obtention de points correspondants entre une image précédente et une image suivante représenté sur la figure 9. De façon générale, une cible d'étalonnage qui est organisée finement est exigée pour effectuer l'étalonnage main/oeil avec exactitude. Ainsi, comme représenté sur la figure 10 de la présente invention, des points correspondants d'images consécutives obtenues par la caméra à CCD 110 sont extraits en utilisant le descripteur de forme invariant en projection I qui n'est pas affecté par la non-linéarité ou le bruit de la caméra à CCD 110, et le descripteur de forme invariant en projection I est utilisé comme la cible d'étalonnage.
Pour effectuer de manière exacte l'étalonnage main/ oeil, on définit des erreurs du descripteur de forme invariant en projection I pour des images (étape 2200), et on calcule un invariant bruyant en analysant une quantité de bruit des images (étape 2210). Ensuite, on calcule un seuil conformément à l'invariant bruyant calculé à l'étape 2210 (étape 2220).
<Desc/Clms Page number 17>
On extrait des données de limite d'une image précédente et d'une image suivante obtenues par la caméra à CCD 110 (étape 2230). Les données de limite extraites sont présentées en sous-échantillonnant N données (étape 2240). Ensuite, on minimise un descripteur de forme invariant en projection conformément à l'Equation 31 (étape 2250), et on transforme l'image suivante en une image précédente en réponse au descripteur de forme invariant en projection minimisé (étape 2260). Après ceci, on restaure la distance entre les données de limite en utilisant le rapport de la distance entre des données de limite avant la transformation et de la distance entre des données de limite après la transformation (étape 2270).
Après que la distance entre les données de limite a été restaurée à l'étape 2270, on trouve des similitudes entre les données de limite de l'image précédente et de l'image suivante (étape 2280), et on extrait des points correspondants entre l'image précédente et l'image suivante, en utilisant les similitudes trouvées (étape 2290).
Le procédé d'étalonnage main/oeil conforme à la présente invention extrait des points correspondants entre l'image précédente et l'image suivante en utilisant le descripteur de forme invariant en projection I. Il est donc possible d'effectuer l'étalonnage main/oeil de manière exacte, sans être affecté par le bruit ou la non-linéarité d'une caméra.
Dans la présente invention, le procédé d'étalonnage maint/oeil est appliqué à la main de robot. Le procédé d'étalonnage main/oeil peut cependant être appliqué à diverses sortes de dispositifs d'asservissement visuel qui commandent des mouvements d'un objet en utilisant des images obtenues au moyen d'au moins une caméra.
La présente invention peut être mise en oeuvre sous la forme d'un code lisible par ordinateur sur un support lisible par ordinateur. Le support lisible par ordinateur
<Desc/Clms Page number 18>
englobe toutes les sortes de dispositif d'enregistrement dans lequel des données lisibles par ordinateur sont stockées. Le support lisible par ordinateur comprend, mais de façon non limitative, des mémoires mortes, des mémoires vives, des CD-ROM, des bandes magnétiques, des disquettes, des dispositifs de stockage de données optiques, et des ondes porteuses telles que des transmissions par l'Internet. De plus, le support lisible par ordinateur peut être distribué à des systèmes informatiques qui sont connectés par l'intermédiaire d'un réseau, être stocké et être mis en oeuvre pour le code lisible par ordinateur.
Bien que la présente invention ait été spécialement illustrée et décrite en référence à des modes de réalisation de celle-ci qui constituent des exemples, l'homme de l'art notera que diverses transformations de forme et de détails peuvent y être apportées, sans sortir de l'esprit et du cadre de la présente invention, qu'ils sont définis par les revendications suivantes.

Claims (15)

REVENDICATIONS
1. Procédé d'étalonnage main/oeil caractérisé en ce qu'il comprend : (a) le calcul (210) d'un descripteur de forme invariant en projection à partir d'au moins deux images obtenues consécutivement par une caméra (110) montée sur une main de robot (100) ; (b) l'extraction (220) de points correspondants entre les images en utilisant le descripteur de forme invariant en projection ; (c) le calcul (230) d'une matrice de rotation pour les points correspondants, d'après la translation du robot ; le calcul (240) d'un vecteur de translation pour les points correspondants d'après une translation et une rotation du robot ; et (e) la détermination (250) d'une relation entre la main de robot (100) et la caméra (110) sur la base de la matrice de rotation calculée à l'étape (c) et du vecteur de translation calculé à l'étape (d).
2. Procédé selon la revendication 1, caractérisé en ce que les points correspondants sont utilisés comme des cibles d'étalonnage pour effectuer l'étalonnage main/oeil.
3. Procédé selon la revendication 1, caractérisé en ce que la matrice de rotation R a une valeur calculée par tc1 = R-ltpl, en désignant par tcl un vecteur d'image et par tpl une information de mouvement de la main de robot (110).
4. Procédé selon la revendication 1, caractérisé en ce que le vecteur de translation t est calculé par : t = (Rp1-I)-1(Rtc1 - tpl) , avec les notations suivantes : R désigne une matrice de rotation, tc'1 désigne un vecteur d'image, (Rpl, tpl) désigne une information de mouvement déjà connue par un utilisateur, et I désigne un descripteur de forme invariant en projection pour les points correspondants.
5. Procédé selon la revendication 1, caractérisé en ce qu'un système de coordonnées de la main de robot (100) est calculé en multipliant un système de coordonnées de la caméra par la matrice de rotation et en additionnant le vecteur de translation à un résultat de la multiplication.
<Desc/Clms Page number 20>
6. Procédé selon la revendication 1, caractérisé en ce que le descripteur de forme invariant en projection est
Figure img00200001
calculé par I- det(qsqlqa)det{qsq2q3) -~ det(PsPrP4)det(psp2p3) avec les det (q5q1q3)det(q5q2q4) det(P5P1P3)det(P5P2P4) notations suivantes : P désigne des points de l'objet, q désigne des points d'images correspondant aux point de l'objet P, et det(.) est défini par :
Figure img00200002
7. Procédé selon la revendication 1, dans lequel l'étape (a) est caractérisée par la division d'un contour des images bidimensionnelles en N intervalles, le calcul d'une coordonnée pour chaque point constituant chaque intervalle et la répétition du calcul d'une invariance en projection pour la coordonnée, tout en déplaçant la coordonnée de 1/N fois une longueur du contour, jusqu'à ce que la coordonnée corresponde à un emplacement initial de chaque intervalle.
8. Procédé selon la revendication 7, caractérisé en ce que le descripteur de forme invariant en projection pour chacune de N intervalles est calculé par
Figure img00200003
<Desc/Clms Page number 21>
Figure img00210002
avec 1 # k # N, X(k) et Y(k) qui désignent des fonctions des coordonnées d'axes X et avec
Figure img00210001
9. Procédé selon la revendication 1, caractérisé en ce que l'étape (b) comprend en outre : (b-1) la définition (2200) d'erreurs pour les descripteurs de forme invariants en projection et le calcul (2210) d'une invariance bruyante ; (b-2) le calcul (2220) d'un seuil à utiliser pour fixer des points correspondants conformément à l'invariance bruyante ; (b-3) l'extraction (2230) de données de limite à partir d'images, et la présentation des données de limite extraites, en sous-échantillonnant N données ; la minimisation (2250) du descripteur de forme invariant en projection ; (b-5)) la transformation (2260) de l'image suivante en une image précédente conformément au descripteur de forme invariant en projection minimisé ; 6) la restauration (2270) de la distance entre des données de limite, en considération du rapport de la distance entre des données de limite avant la transformation, et de la distance entre des données de limite après la transformation ; et (b-7) la détermination (2280) de similitudes entre les données de limite et l'extraction (2290) de points correspondants entre l'image précédente et l'image suivante.
10. Procédé selon la revendication 9, caractérisé en ce que les erreurs sont définies en utilisant un modèle de bruit gaussien.
11. Procédé selon la revendication 9, dans lequel le procédé d'étalonnage main/oeil est caractérisé par la répétition des étapes (b-4) à (b-6) jusqu'à ce que les erreurs soient à l'intérieur d'une plage prédéterminée.
12. Procédé d'extraction de points correspondants entre des images, caractérisé en ce qu'il comprend : (a) la définition (2200) d'erreurs pour un descripteur de forme invariant en projection, pour une image bidimensionnelle, à
<Desc/Clms Page number 22>
partir d'au moins deux images obtenues à un intervalle prédéterminé, et le calcul (2210) d'une invariance bruyante ; (b) le calcul (2220) d'un seuil à utiliser pour fixer des points correspondants conformément à l'invariance bruyante ; (c) l'extraction (2230) de données de limite à partir des images et la présentation (2240) des données de limite extraites, en sous-échantillonnant N données ; la minimisation (2250) du descripteur de forme invariant en projection; (e) la transformation (2260) d'une image suivante pour donner l'image suivante conformément au descripteur de forme invariant en projection minimisé ; la restauration (2270) de la distance entre des données de limite, en considération du rapport de la distance entre des données de limite avant la transformation et de la distance entre des données de limite après la transformation ; et (g) la détermination (2280) de similitudes entre les données de limite, et l'extraction (2290) de points correspondants entre les images précédentes et l'image suivante.
13. Procédé selon la revendication 12, caractérisé en ce que les erreurs sont définies en utilisant un modèle de bruit gaussien.
14. Procédé selon la revendication 12, caractérisé en ce que les étapes (d) à (f) sont répétées jusqu'à ce que les erreurs soient à l'intérieur d'une plage prédéterminée.
15. Support lisible par ordinateur sur lequel est enregistré un programme d'ordinateur pour un procédé selon la revendication 1 ou 12.
FR0313536A 2002-11-21 2003-11-19 Procede d'etalonnage main/oeil utilisant un descripteur de forme invariant en projection pour une image bidimensionnelle Pending FR2847696A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0072695A KR100468857B1 (ko) 2002-11-21 2002-11-21 2차원 형상에 대한 투사 불변형 표현자를 이용한핸드/아이 캘리브레이션 방법

Publications (1)

Publication Number Publication Date
FR2847696A1 true FR2847696A1 (fr) 2004-05-28

Family

ID=36263152

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0313536A Pending FR2847696A1 (fr) 2002-11-21 2003-11-19 Procede d'etalonnage main/oeil utilisant un descripteur de forme invariant en projection pour une image bidimensionnelle

Country Status (4)

Country Link
US (2) US7019825B2 (fr)
KR (1) KR100468857B1 (fr)
DE (1) DE10355283A1 (fr)
FR (1) FR2847696A1 (fr)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006135394A2 (fr) * 2004-08-20 2006-12-21 The Regents Of The University Of Colorado, A Body Corporate Signatures et identification biometrique via l'utilisation d'invariants projectifs
CN101175990B (zh) * 2005-02-23 2011-04-20 松下电工株式会社 粒状物体的检查方法及实施该方法的检查装置
CN1330466C (zh) * 2005-04-21 2007-08-08 上海交通大学 基于运动选择的机器人在线手眼标定方法
DE102006005958A1 (de) * 2006-02-08 2007-08-16 Kuka Roboter Gmbh Verfahren zum Erzeugen eines Umgebungsbildes
US7684025B2 (en) * 2006-10-19 2010-03-23 Xerox Corporation Auto-adjust of imaging module mechanical setup
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
EP2808645B1 (fr) * 2012-01-23 2019-02-20 Nec Corporation Dispositif, procédé et programme d'étalonnage d'un appareil de prise de vues
EP2728374B1 (fr) 2012-10-30 2016-12-28 Technische Universität Darmstadt Invention concernant le calibrage main-oeil de caméras, en particulier de caméras à image de profondeur
WO2014161603A1 (fr) 2013-04-05 2014-10-09 Abb Technology Ltd Système robot et méthode d'étalonnage
US9652833B2 (en) * 2014-03-18 2017-05-16 Honeywell International, Inc. Point spread function estimation for motion invariant images
CN104864807B (zh) * 2015-04-10 2017-11-10 深圳大学 一种基于主动双目视觉的机械手手眼标定方法
CN104842371B (zh) * 2015-05-29 2016-08-24 山东大学 一种基于非最小化的最优化算法的机器人手眼标定方法
CN105215972A (zh) * 2015-09-18 2016-01-06 中国科学院合肥物质科学研究院 一种破拆机器人手眼协调定位装置及方法
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
CN106695796B (zh) * 2016-11-02 2019-04-05 北京信息科技大学 基于ransac的便携式激光扫描测量臂手眼标定方法
CN110288660B (zh) * 2016-11-02 2021-05-25 北京信息科技大学 一种基于凸松弛全局优化算法的机器人手眼标定方法
KR102576842B1 (ko) 2017-01-04 2023-09-12 삼성전자주식회사 핸드-아이 캘리브레이션을 수행하는 로봇 및 전자 장치
CN106920261B (zh) * 2017-03-02 2019-09-03 江南大学 一种机器人手眼静态标定方法
CN107053177B (zh) * 2017-04-13 2020-07-17 北京邮电大学 改进的基于筛选和最小二乘法的手眼标定算法
CN110998235B (zh) * 2017-07-28 2024-03-01 高通股份有限公司 在机器人式运载工具中的图像输出调整
CN107993227B (zh) * 2017-12-15 2020-07-24 深圳先进技术研究院 一种获取3d腹腔镜手眼矩阵的方法和装置
CN108393887B (zh) * 2018-01-31 2019-03-19 湖北工业大学 一种用于工件手眼标定方法
CN108748146A (zh) * 2018-05-30 2018-11-06 武汉库柏特科技有限公司 一种机器人手眼标定方法及系统
CN108994832B (zh) * 2018-07-20 2021-03-02 上海节卡机器人科技有限公司 一种基于rgb-d相机的机器人手眼系统及其自标定方法
CN109493389B (zh) * 2018-10-15 2021-11-09 同济大学 一种基于深度学习的相机标定方法及系统
CN109702738B (zh) * 2018-11-06 2021-12-07 深圳大学 一种基于三维物体识别的机械臂手眼标定方法及装置
CN109859275B (zh) * 2019-01-17 2022-08-02 南京邮电大学 一种基于s-r-s结构的康复机械臂的单目视觉手眼标定方法
CN110000790B (zh) * 2019-04-19 2021-11-16 深圳市科瑞软件技术有限公司 一种SCARA机器人eye-to-hand手眼系统的标定方法
CN110238849B (zh) * 2019-06-13 2021-11-12 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置
CN110370272B (zh) * 2019-06-20 2021-08-31 重庆大学 一种基于垂直反射的机器人tcp标定系统
CN110500990B (zh) * 2019-07-09 2020-08-18 同济大学 一种六自由度测量系统及方法
CN110238820A (zh) * 2019-07-12 2019-09-17 易思维(杭州)科技有限公司 基于特征点的手眼标定方法
WO2021012122A1 (fr) * 2019-07-19 2021-01-28 西门子(中国)有限公司 Procédé et appareil d'étalonnage main-œil de robot, dispositif informatique, support et produit
CN110555889B (zh) * 2019-08-27 2021-01-15 西安交通大学 一种基于CALTag和点云信息的深度相机手眼标定方法
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
KR102220173B1 (ko) 2019-11-01 2021-02-25 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN110853103B (zh) * 2019-11-12 2022-06-10 佛山智能装备技术研究院 一种用于深度学习姿态估计的数据集制作方法
CN111152223A (zh) * 2020-01-09 2020-05-15 埃夫特智能装备股份有限公司 一种全自动机器人手眼标定方法
CN111815634A (zh) * 2020-09-09 2020-10-23 苏州浪潮智能科技有限公司 基于机器视觉内存对位接插方法与系统、设备、存储介质
CN112067337B (zh) * 2020-09-21 2022-09-23 郑州轻工业大学 基于标准球双目机器人的快速手眼标定装置及标定方法
CN112022355B (zh) * 2020-09-27 2022-06-10 平安科技(深圳)有限公司 基于计算机视觉的手眼标定方法及装置、存储介质
CN112454332B (zh) * 2020-11-25 2022-02-22 中科新松有限公司 一种用于手眼标定的机器人轨迹点生成方法
CN112936301B (zh) * 2021-01-26 2023-03-03 深圳市优必选科技股份有限公司 一种机器人手眼标定方法、装置、可读存储介质及机器人
DE102021211185B4 (de) 2021-10-05 2024-05-02 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Steuern eines Roboters
CN114147728B (zh) * 2022-02-07 2022-05-06 杭州灵西机器人智能科技有限公司 通用的机器人眼在手上标定方法和系统
CN114227700B (zh) * 2022-02-23 2022-05-20 杭州灵西机器人智能科技有限公司 机器人的手眼标定方法和系统
KR102585332B1 (ko) * 2022-12-06 2023-10-05 성형원 로봇 핸드와 로봇 핸드와 분리된 카메라 간의 캘리브레이션을 수행하는 방법 및 디바이스

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
JP2769947B2 (ja) * 1992-05-15 1998-06-25 株式会社椿本チエイン マニピュレータの位置・姿勢制御方法
JPH0882505A (ja) * 1994-09-12 1996-03-26 Mazda Motor Corp カメラパラメーターのキャリブレーション方法および物体の位置計測方法
JPH08272414A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd ロボットとハンドカメラを用いた視覚センサのキャリブレーション方法
US5550376A (en) * 1995-05-22 1996-08-27 General Electric Company Method of calibration of imaging devices
EP1040393A4 (fr) * 1997-09-04 2004-03-10 Dynalog Inc Procede d'etalonnage d'un systeme de controle robotise

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDREFF N ET AL: "Robot hand-eye calibration using structure-from-motion", INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH SAGE PUBLICATIONS USA, vol. 20, no. 3, March 2001 (2001-03-01), pages 228 - 248, XP002517219, ISSN: 0278-3649 *
DIAS J ET AL: "Improving camera calibration by using multiple frames in hand-eye robotic systems", PROCEEDINGS IROS '91. IEEE/RSJ INTERNATIONAL WORKSHOP ON INTELLIGENT ROBOTS AND SYSTEMS '91. INTELLIGENCE FOR MECHANICAL SYSTEMS (CAT. NO.91TH0375-6) IEEE NEW YORK, NY, USA, 1991, pages 285 - 291 vol.1, XP002517220, ISBN: 0-7803-0067-X *
LECTURE NOTES: "Shape representation and description: Contour-based shape representation and description", May 1999, XP002517221 *

Also Published As

Publication number Publication date
DE10355283A1 (de) 2004-06-17
US20060095226A1 (en) 2006-05-04
US20040102911A1 (en) 2004-05-27
KR20040044620A (ko) 2004-05-31
US7019825B2 (en) 2006-03-28
US7151853B2 (en) 2006-12-19
KR100468857B1 (ko) 2005-01-29

Similar Documents

Publication Publication Date Title
FR2847696A1 (fr) Procede d&#39;etalonnage main/oeil utilisant un descripteur de forme invariant en projection pour une image bidimensionnelle
EP3138079B1 (fr) Procédé de suivi de forme dans une scène observée par un capteur asynchrone de lumière
EP1316065B8 (fr) Procede de segmentation d&#39;une image video par objets elementaires
Ng Digital light field photography
US7616841B2 (en) End-to-end design of electro-optic imaging systems
JP5866383B2 (ja) 画像における焦点誤差推定
US7692709B2 (en) End-to-end design of electro-optic imaging systems with adjustable optical cutoff frequency
TW201702690A (zh) 延伸景深生物識別系統
FR3073312A1 (fr) Procede d&#39;estimation de pose d&#39;une camera dans le referentiel d&#39;une scene tridimensionnelle, dispositif, systeme de realite augmentee et programme d&#39;ordinateur associe
WO2014079897A1 (fr) Procede de generation d&#39;un modele de visage en trois dimensions
EP2909671B1 (fr) Procede de conception d&#39;un imageur monovoie passif capable d&#39;estimer la profondeur de champ
EP1746486A1 (fr) Procédé de détection de déplacement d&#39;une entité pourvue d&#39;un capteur d&#39;images et dispositif pour le mettre en oeuvre
Cossairt Tradeoffs and limits in computational imaging
EP3145405A1 (fr) Procédé de détermination d&#39;au moins un paramètre comportemental
FR2729236A1 (fr) Guidage de robot par eclairage actif
FR3033913A1 (fr) Procede et systeme de reconnaissance d&#39;objets par analyse de signaux d&#39;image numerique d&#39;une scene
Hasinoff Variable-aperture photography
FR3065097B1 (fr) Procede automatise de reconnaissance d&#39;un objet
Pan et al. Deep learning for rectification of radial distortion image
EP3918576A1 (fr) Procédé dynamique d&#39;imagerie tridimensionnelle
Van der Walt Super-resolution imaging
FR3092423A1 (fr) Cartographie de saillance d&#39;images pendant une classification d&#39;images par intelligence artificielle
FR3018937A1 (fr) Procede de modelisation amelioree d&#39;un visage a partir d&#39;une image
Dowski Jr et al. Design and optimization of computational imaging systems
Bhosale Hybrid approach for light improvement and image quality enhancement with GAN and CNN