FR2606244A1 - Appareil et procede de traitement et d'enregistrement d'images de montures de lunettes - Google Patents

Appareil et procede de traitement et d'enregistrement d'images de montures de lunettes Download PDF

Info

Publication number
FR2606244A1
FR2606244A1 FR8715090A FR8715090A FR2606244A1 FR 2606244 A1 FR2606244 A1 FR 2606244A1 FR 8715090 A FR8715090 A FR 8715090A FR 8715090 A FR8715090 A FR 8715090A FR 2606244 A1 FR2606244 A1 FR 2606244A1
Authority
FR
France
Prior art keywords
image
frame
data
spectacle
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8715090A
Other languages
English (en)
Other versions
FR2606244B1 (fr
Inventor
Masafumi Tamura
Ken-Ichi Ichikawa
Satoshi Kageyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Tokyo Kogaku Kikai KK
Tokyo Optical Co Ltd
Original Assignee
Toshiba Corp
Tokyo Kogaku Kikai KK
Tokyo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP25702386A external-priority patent/JPS63113676A/ja
Priority claimed from JP25702786A external-priority patent/JPS63113677A/ja
Priority claimed from JP61257024A external-priority patent/JP2523538B2/ja
Priority claimed from JP25702686A external-priority patent/JPS63113685A/ja
Priority claimed from JP61257025A external-priority patent/JPS63113671A/ja
Application filed by Toshiba Corp, Tokyo Kogaku Kikai KK, Tokyo Optical Co Ltd filed Critical Toshiba Corp
Publication of FR2606244A1 publication Critical patent/FR2606244A1/fr
Application granted granted Critical
Publication of FR2606244B1 publication Critical patent/FR2606244B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Eyeglasses (AREA)

Abstract

L'IMAGE D'UNE MONTURE DE LUNETTES FILMEE PAR UNE CAMERA DE TELEVISION 1 EST AFFICHEE SUR UN MONITEUR DE TELEVISION 5, ET DES DONNEES DE CONFIGURATION REPRESENTANT LA MONTURE SONT ENREGISTREES EN MEME TEMPS QUE SES DONNEES D'IMAGE DANS UNE BASE DE DONNEES 9 PAR POSITIONNEMENT D'UNE REGION D'IMAGE DEVANT ETRE DECOUPEE A L'AIDE D'UN CURSEUR. A CE MOMENT, UN PROCEDE PERMETTANT D'ELIMINER LA REGION DE RENFORCEMENT QUI ENTOURE L'IMAGE DE LA MONTURE ET UN PROCEDE DE NUMERISATION PERMETTANT D'OBTENIR DES DONNEES DE CONFIGURATION SONT EFFECTUES PAR UN PROCESSEUR 7. UNE FOIS LA BASE DE DONNEES 9 CREEE, IL EST POSSIBLE DE SYNTHETISER DANS LE PROCESSEUR 7 L'IMAGE D'UN VISAGE HUMAIN ET L'IMAGE DE LA MONTURE PAR UN TRAITEMENT DU BORD DE L'IMAGE ET UN TRAITEMENT DE MELANGE DES COULEURS.

Description

La présente invention concerne un procédé et un dispositif permettant de
traiter et d'enregistrer des images de montures de Lunettes afin de créer une base de données de montures de Lunettes en découpant avec une précision élevée L'image de La seule monture de lunettes, de manière à synthétiser l'image d'un visage humain et
une image de monture.
Dans un procédé récemment mis au point, on enregistre
diverses images de montures de lunettes et on les synthétise sélec-
tivement en même temps que l'image du visage d'une personne qui désire choisir une monture de lunettes, l'image du visage étant introduite au moyen d'une caméra de télévision. L'utilisateur sélectionne une monture de lunettes tout en examinant une image synthétique. Pour choisir de cette manière une monture de lunettes, il faut enregistrer, sous la forme d'une base de données, les images de diverses montures de lunettes. Ainsi, on n'extrait que la donnée relative à une partie monture dans une image de monture de lunettes introduite, et on découpe la partie monture dans l'image
de la monture de lunettes en fonction de la donnée.
Classiquement, on introduit par l'intermédiaire d'une caméra de télévision ou d'un moyen analogue l'image d'une monture
de lunettes devant être enregistrée, on découpe la partie néces-
saire, par exemple une région rectangulaire prédéterminée dans laquelle l'image de la monture de lunettes est placée, à l'aide d'un curseur tout en affichant sur un moniteur de télévision l'image de la monture de lunettes, et on enregistre la donnée d'image correspondant à cette partie. Dans ce cas, puisqu'un signal d'image d'entrée possède diverses caractéristiques, le signal d'image de l'arrière-fond n'est pas toujours constant ou bien le
signal d'image de la monture de lunettes n'est pas toujours cons-
tant. Même si le signal d'image de l'arrière-fond est constant, un renforcement des bords qui est propre au signal de télévision,
c'est-à-dire un procédé de renforcement, est effectué sur la fron-
tière entre l'arrière-fond et la monture de lunettes. Pour cette raison, il est difficile de découper avec une précision élevée une partie d'image nécessaire dans L'image d'entrée, et le bord d'une
partie d'image découpée peut parfois sembler manquer de naturel.
En outre, classiquement, pour créer une base de donnée relative à des images de montures de lunettes, on découpe et on enregistre toutes les données d'image se trouvant dans une région qui contient la monture de lunettes. Toutefois, dans l'image de la monture de lunettes, la quantité de données d'images de la monture elle-même est très petite, et l'essentiel de la partie restante est
constituée par des données relatives à l'image de l'arrière -fond.
Pour cette raison, il faut efficacement découper les données rela-
tives à la monture pour réduire la quantité des données se rappor-
tant à la partie qui contient la monture de lunettes, afin de pouvoir enregistrer sur un support d'enregistrement un grand nombre
de données de montures de lunettes.
De plus, lorsqu'il faut synthétiser l'image d'une monture de lunettes en même temps que l'image d'un visage humain,
la frontière de l'image synthétique tend à paraitre non naturelle.
En effet, le signal d'image est généralement représenté par un signal NTSC (National Television System Committee). Ainsi, s'il existe une importante différence entre les couleurs ou les luminances des deux images, il se produit une dentelure à leur frontière. De plus, lorsqu'on utilise des verres teintés avec une monture de lunettes, il est difficile en pratique de confirmer si la monture de lunettes
est adaptée au visage de l'utilisateur.
Il existe donc une demande pour un procédé et un disposi-
tif de traitement et d'enregistrement d'images de montures de lunettes permettant de découper la seule partie d'image nécessaire et de synthétiser une image découpée et une autre image sans qu'il
apparaisse un manque de naturel.
C'est un but de l'invention de fournir un procédé et un dispositif permettant de traiter et d'enregistrer des images de montures de lunettes afin de créer une base de donnée relative à des montures de lunettes en découpant avec une précision élevée les données d'image d'une monture de lunettes simplement, de manière à
synthétiser l'image d'un visage humain et une image de monture.
Selon un aspect de l'invention, il est proposé un procédé de traitement et d'enregistrement d'images de montures de lunettes, comprenant les opérations suivantes: former une image d'une monture de lunettes au moyen d'une caméra de télévision; enregistrer dans une mémoire d'image les données d'image de La monture de lunettes obtenues par l'opération de formation d'image; afficher les données d'image de la monture de lunettes
enregistrées dans la mémoire d'image sur un moniteur de télévi-
sion; positionner une région découpée de l'image en affichant un
curseur sur l'image de la monture de lunettes affichée sur le moni-
teur de télévision;
découper l'image de la seule monture dans la région décou-
pée de l'image qui a été positionnée par le curseur; obtenir des données de configuration de la monture afin de mettre sous forme numérique l'image découpée de la seule monture en utilisant une valeur de seuil prépositionnée; et enregistrer les données de configuration et les données d'image de la monture de lunettes en obtenant les données d'image
de la monture à l'aide des données de configuration de la monture.
Selon un autre aspect de l'invention, il est proposé un dispositif de traitement et d'enregistrementd'images de montures de lunettes, comprenant: un moyen permettant de former une image d'une monture de lunettes à l'aide d'une caméra de télévision; un moyen permettant d'enregistrer dans une mémoire d'image
les données d'image de la monture de lunettes obtenues par l'opéra-
tion de formation d'image;
un moyen permettant d'afficher sur un moniteur de télévi-
sion les données d'image de la monture de lunettes qui sont enre-
gistrées dans la mémoire d'image; un moyen permettant de positionner une région découpée de l'image en affichant un curseur sur l'image de la monture de lunettes affichée sur le moniteur de télévision; un moyen permettant de découper l'image de la seule monture dans la région découpée de l'image qui a été positionnée par le curseur; un moyen permettant d'obtenir des données de configuration
pour la monture afin de mettre sous forme numérique l'image décou-
pée de la seule monture au moyen d'une valeur de seuil préposition-
née; et
un moyen permettant d'enregistrer les données de configu-
ration et les données d'image de la monture de lunettes en obtenant
les données d'image de la monture à l'aide des données de configu-
ration de la monture.
La description suivante, conçue à titre d'illustration de
l'invention, vise à donner une meilleure compréhension de ses caractéristiques et avantages; elle s'appuie sur les dessins annexés, parmi lesquels:
la figure 1 est un schéma de principe du montage d'un dis-
positif de traitement et d'enregistrement d'images de montures de lunettes selon l'invention; la figure 2 est une vue d'une région découpée d'une image de monture de lunettes; la figure 3 est une vue d'un découpage par moitié de l'image de la monture de lunettes; la figure 4 est une vue d'un signal correspondant à une région de renforcement dans l'image de la monture de lunettes; la figure 5 est une vue de la partie bord obtenue par les composantes de signal de la région de renforcement dans l'image de la monture de lunettes;
la figure 6 est un schéma de principe du montage d'un cir-
cuit qui réalise le traitement de renforcement; la figure 7 est un organigramme montrant la marche du traitement de renforcement; la figure 8 est un schéma de principe du montage d'un
processeur qui exécute le découpage, l'enregistrement et la repro-
duction d'une image de monture;
les figures 9A et 9B sont des organigrammes montrant res-
pectivement le traitement de découpage et d'enregistrement d'une image de monture et son traitement de reproduction; les figures 10A à 10C sont des vues simplifiées montrant le traitement numérique;
la figure 11 est un organigramme montrant le fonctionne-
ment du traitement numérique effectué par modification d'une valeur de seuil; les figures 12A et 12B sont des vues simplifiées montrant respectivement des données de configuration et des données d'image d'une monture, qui sont enregistrées dans une base de données pour montures de lunettes; les figures 13A à 13G sont des vues simplifiées relatives à l'inscription de données de montures de lunettes; la figure 14 est une vue de face montrant la disposition d'un clavier permettant de choisir une monture de lunettes; la figure 15 est une vue montrant le traitement de prise de moyenne effectué sur la frontière d'une image synthétique; la figure 16 est un schéma de principe montrant le montage d'un circuit qui exécute le traitement de prise de moyenne sur la frontière de l'image synthétique; la figure 17 est un organigramme montrant le traitement de prise de moyenne effectué sur la frontière de l'image synthétique;
les figures 18A et 18B sont des vues montrant respective-
ment des données d'image de monture et les données de configuration correspondantes devant être enregistrées dans une base de données pour montures de lunettes; la figure 19 est un schéma de principe du montage d'un circuit qui exécute un traitement de mélange de couleurs entre images devant être synthétisées; la figure 20 est un organigramme montrant la marche du
traitement de mélange de couleurs entre images devant être synthé-
tisées;
les figures 21A et 21B sont des vues montrant une opéra-
tion de synthèse de l'image d'un visage humain et de l'image d'une monture de lunettes;
la figure 22 est une vue relative à un procédé de colora-
tion de verres de lunettes; les figures 23A à 23C sont des vues relatives à un cas dans lequel plusieurs montures de lunettes ont été sélectionnées; et les figures 24A à 24C sont des vues relatives à un cas dans lequel une unique monture de lunettes a été sélectionnée et o
on fait varier l'orientation du visage.
Sur la figure 1, il est présenté un schéma de principe du
montage d'un dispositif permettant le traitement et l'enregistre-
ment d'images de montures de lunettes selon l'invention. Une monture de lunettes devant être enregistrée est filmée à l'aide d'une caméra de télévision (caméra TV) 1, est mise sous forme d'un signal numérique par un convertisseur analogue-numérique (appelé aussi convertisseur A/N) 2, puis est enregistrée dans une mémoire d'image 3. Avec ce dispositif de prise de vue, on peut obtenir un signal d'entrée pour l'image d'une monture de lunettes sous la forme de signaux R (rouge), G (vert), et B (bleu), constitués chacun de 8 bits. Ainsi, ces signaux R, G et B sont respectivement emmagasinés dans la mémoire d'image 3. On note que le signal de l'image de la monture de lunettes peut être divisé en composantes
de signal NTSC.
L'image de la monture de lunettes enregistrée dans la mémoire d'image 3 est mise sous forme de signal analogique par un convertisseur numériqueanalogique (appelé également convertisseur
N/A) 4, puis est délivré à un moniteur de télévision (appeLé moni-
teur TV) 5 afin d'être affiché sous forme d'une image en couleur.
On ajuste la focale ou on effectue un réglage quelconque pour la région de prise de vues à l'aide de la caméra de télévision &606&qq 1 tout en observant l'image de la monture de lunettes affichée sur
le moniteur de télévision 5. Un générateur de curseur 6, qui fonc-
tionne sous commande d'un microcalculateur 8, affiche par exemple un curseur rectangulaire 10a sur le moniteur de télévision 5, comme représenté sur la figure 2. En commandant le curseur 10a affiché sur le moniteur de télévision 5, on positionne une région découpée de l'image. On note que, sur la figure 2, le curseur linéaire 10b a pour fonction de confirmer l'horizontalité de l'image de la monture
de lunettes.
A l'aide de ces réglages, on peut obtenir une image de la monture de lunettes qui est à la taille voulue, et on découpe une région rectangulaire prédéterminée comportant l'image de la monture de lunettes. L'image de la monture de lunettes découpée est mise sous forme numérique par un processeur 7, et une partie monture est détectée. Le résultat de la détection est enregistré comme données de configuration de la monture de lunettes dans la base de données 9 relatif aux montures de lunettes. Les données d'image de la partie monture obtenues à l'aide des données de configuration sont
également enregistrées dans la base de données 9.
On suppose qu'il faut effectuer un traitement de l'image afin de prendre la moitié de la monture de lunettes. Dans ce cas, le processeur 7 lit les données d'image de la région rectangulaire dans la mémoire d'image 3 et effectue un traitement d'image. Ainsi, en découpant l'image de la monture de lunettes qui correspond à la moitié de la monture de lunettes, on peut réduire de moitié le
temps de traitement de l'image.
Les données d'image relatives à l'arrière-fond sont décou-
pées sur la base des conditions suivantes.
1) Lorsqu'une monture de lunettes doit être photographiée, on positionne la monture de lunettes devant un écran particulier afin d'obtenir une donnée d'image sensiblement uniforme pour l'arrière-fond.
2) Une monture de lunettes porte des verres. Par consé-
quent, lorsque seule une moitié de la monture de lunettes est découpée comme représenté sur la figure 3, la partie centrale d'une région rectangulaire peut être spécifiée comme étant une partie dans laquelle un verre est ajusté, c'est-à-dire comme étant un arrière-fond par rapport à la monture. Si l'on indique que la partie centrale de la région rectangulaire est l'arrière-fond, comme ci-dessus indiqué, il est possible d'éliminer les données d'image de l'arrière-fond indépendamment de la forme et de la taille de la monture de lunettes ou indépendamment des écarts de
position, dans une certaine mesure.
On note que le processeur 7 effectue diverses opérations de traitement de l'image pour créer la base de données 9. On va décrire ci-dessous, en relation avec des schémas de principe et des
organigrammes, des séquences de ce traitement.
(Suppression de la région de renforcement).
L'image d'une monture de lunettes qui a été captée et reçue par la caméra de télévision est soumise à un traitement de renforcement dans le but de rendre plus nette la frontière entre l'arrière -fond et la monture. Par exemple, lorsqu'une monture de lunettes brillantes est prise sur un fond sombre, un signal de luminance qui présente une luminance inférieure à celle de l'arrière-fond est produit au niveau de la frontière, comme représenté sur la figure 4. Lorsque l'on affiche simplement la monture de lunettes sur son
arrière -fond, un signal correspondant à cette région de renforce-
ment est commode, puisque l'image apparaît plus nettement grâce au renforcement des bords. Toutefois, lorsque l'on découpe un signal d'image comportant cet arrière-fond pour obtenir une monture de lunettes, le signal se rapportant à cette région de renforcement reste associé au signal relatif à la monture de lunettes. Ainsi, comme indiqué par les lignes en trait interrompu de la figure 5, un pourtour qui correspond à l'image de la région de renforcement
apparaît autour de l'image véritable de la monture de lunettes.
Pour cette raison, il faut éliminer la région de renforcement.
La figure 6 présente le schéma de principe d'un circuit permettant d'éliminer la région de renforcement dans le cas o l'image nécessaire doit être découpée dans une image d'entrée, et
la figure 7 est un organigramme montrant la marche du traitement.
A l'étapa A1 de la figure 7, les seules données d'image d'arrière -fond sont détectées par rapport aux données d'image
d'entrée par un détecteur d'arrière fond 11. A l'étape A2, un- sous-
tracteur d'image 12 soustrait des données d'image d'entrée les données d'image d'arrière fond, de manière à découper dans les données d'image la seule partie monture de lunettes. Toutefois, l'image de la monture obtenue par soustraction comporte un signal de région de renforcement. Ainsi, il faut enlever la région de renforcement. A l'étape A3, un circuit 13 de traitement de valeur absolue applique un traitement de valeur absolue aux données d'image obtenues à l'étape A2. Par ce traitement de valeur absolue, le signaL de la région de renforcement est produit sous forme d'une composante de signal présentant une luminance donnée, comme
indiqué par la ligne en trait interrompu de la figure 4.
A l'étape A4, le détecteur 14 de région de renforcement détecte la région de renforcement en relation avec la polarité des données d'image soustraites. Plus spécialement, selon la relation existant entre la luminance du fond et celle de la monture, les données d'image représentant la monture par rapport au fond présentent une certaine polarité eu égard au fond. Ainsi, la partie qui présente une polarité opposée à celle des données d'image est
détectée comme étant la région de renforcement.
A l'étape A5, en relation avec la région de renforcement obtenue à l'étape A4, une donnée de fond "0" pour la région de
renforcement est sélectionnée par un circuit de sélection 15.
Ainsi, le signal de la région de renforcement est remplacé par une donnée identique à celle du fond. Sur la base des données d'image soustraites qui ont été soumises au traitement précédent, des données de configuration possédant un "0" pour l'arrière-fond qui contient la région de renforcement et un "1" pour la monture de
lunettes sont sélectionnées.
En relation avec les données de configuration de monture obtenues à l'étape A5, des données d'image relatives à la seule monture de lunettes sont découpées par le circuit 16 de traitement de découpage (étape A6) et sont emmagasinées dans une mémoire
tampon d'image 17 (étape A7).-
En effectuant le traitement ci-dessus indiqué, on peut
éliminer le signal de la région de renforcement.
(Découpage, enregistrement et reproduction de l'image d'une mon-
ture de lunettes).
Un procédé a été mis au point dans lequel l'image d'une monture de lunettes est sélectivement synthétisée en même temps que l'image du visage d'une personne désirant choisir une monture de lunettes, lequel visage a été filmé par une caméra de télévision, la personne sélectionnant une monture de lunettes en même temps qu'elle regarde une image synthétique sur l'écran du moniteur. Pour mettre en oeuvre le procédé ci-dessus indiqué, il faut que diverses images de montures de lunettes aient été enregistrées dans une base de données. En particulier, lorsqu'il faut enregistrer une grande
quantité d'images de montures, il est nécessaire de découper effi-
cacement l'image de la monture afin de réduire la quantité de
données se rapportant à une monture donnée.
La figure 8 est le schéma de principe du montage d'un circuit permettant de découper, d'enregistrer et de reproduire des données d'images de montures de lunettes, et les figures 9A et 9B sont les organigrammes présentant les opérations qui correspondent à ces étapes du traitement. A l'étape B1 de la figure 9A, les données de l'image d'une monture (signaux RGBy c'est-à-dire signaux en trois couleurs, rouge, vert et bleu) sont emmagasinés dans une RAM 21. Les données d'image (rgb) relatives à la partie centrale de la région rectangulaire sont découpées pour former des données d'image d'arrière fond distinctes des données d'image de monture (signaux RGB) emmagasinées dans la RAM 21, comme représenté
sur la figure 3, et sont emmagasinées dans une RAM 22 (étape B2).
A l'étape B3, les données d'image de monture découpées (signaux RGB) de la région rectangulaire et les données d'image (signaux rgb) relatives au seul arrière-fond sont séquentiellement balayées et lues, et le circuit de calcul 23 effectue un calcul sur les signaux sur la base de l'équation suivante: H IR - r + G-g + IB-b b...(1) o H est une valeur de fonction de distinction pour une monture de Lunettes. Si les données d'image de monture lues dans la mémoire d'image 3 se rapportent à la partie monture, la valeur H existant pour au moins une des trois paires (R, r), (G, g) et (B, b) diffère nettement de celles des autres paires. Ainsi, la valeur H possède une certaine valeur. Au contraire, si les données d'image lues dans la mémoire d'image 3 se rapportent à la partie de l'arrière fond, les valeurs H des paires respectives (R, r), (G, g) et (B, b) sont sensiblement égales entre elles. Ainsi, la valeur H
est nulle ou est proche de 0.
On soumet cette valeur H à un processus de numérisation dans un circuit 24 de mise sous forme numérique, ou numérisation, 24 à l'aide d'une valeur de seuil fixée dans le circuit de changement de seuil 25 (étape B4) . En résultat, la valeur "1" est sélectionnée
pour la monture, la valeur "O" est sélectionnée pour l'arrière-
fond, et ces données de configuration de la monture de lunettes sont emmagasinées dans la mémoire 26. Le circuit de synthèse 27 découpe les données de l'image de la monture en utilisant les données de configuration obtenues pour la monture (étape B5). Les données de configuration et les données d'image de la monture sont
enregistrées dans la base de donnée 9 (étape B6).
Dans ce cas, un étiquetage est effectué relativement aux
données de configuration de façon que la valeur "2" soit sélection-
née pour un verre de lunette correspondant à la région intérieure
de la monture représentée par "1".
Plus spécialement, comme représenté sur la figure 3, la position centrale de la région rectangulaire peut être spécifiée
comme une partie verre de lunettes placée à L'intérieur de la mon-
ture de lunettes. Ainsi, on effectue l'étiquetage de façon que la
donnée de configuration "2" soit sélectionnée comme donnée d'élé-
ment d'image pour la position centrale. Ensuite, un balayage commence à partir de la position de la coordonnée centrale et se poursuit vers la gauche ou vers la droite. Si la donnée relative à
260 6 2 4 4
un point considéré est "O", on choisit la valeur "2" pour cette donnée d'élément d'image. Ce traitement se répète jusqu'à ce que la donnée de configuration "1", qui représente la monture, ait été détectée. Une fois la monture détectée, on revient à la position de la coordonnée centrale pour le point considéré et on effectue, de
la même façon, un balayage dans le sens opposé. Ainsi, le traite-
ment d'une première ligne de balayage est réalisé, et on exécute un traitement identique en changeant séquentiellement la ligne de balayage. Toutefois, selon le type de la monture de lunettes, il se peut que la monture soit mince, ou bien d'une couleur qui ressemble
à la couleur de l'arrière-fond. Dans ce cas, la partie correspon-
dant à la monture n'est quelques fois pas détectée comme traitant une monture représentée par la donnée de configuration "1"
lorsqu'on applique le processus de numérisation ci-dessus indiqué.
Ainsi, il peut apparaître un manque d'éléments d'image dans les
données "1" représentant la monture parmi les données de configura-
tion. Lorsqu'une telle absence se présente dans les données de con-
figuration de la monture et qu'un étiquetage est effectué par un balayage allant de la position de la coordonnée centrale à la partie périphérique comme ci-dessus indiqué, la monture représentée par la donnée "1" n'est pas détectée. Ainsi, le balayage atteint le bord de la région rectangulaire dans laquelle l'image de la monture de lunettes a été isolée, et un étiquetage non satisfaisant est
effectué.
Pour cette raison, l'absence de la monture est détectée sur la base de ce résultat d'étiquetage et, dans le même temps, le nombre des éléments d'image manquant est compté. Si le nombre des
éléments d'imagemanquantsest plus grand qu'une valeur prédétermi-
née, la valeur de seuil est alors modifiée et un traitement de valeur de seuil est de nouveau effectué relativement à la valeur H.
On modifie la valeur de seuil en la réduisant séquentiellement.
Ainsi, la monture peut être traitée en relation avec les données de configuration. Les données d'image d'une monture de lunettes ne sont pas
toujours uniformes sur toute la partie monture, et sont, en géné-
ral, souvent non uniformes. Lorsque ces données d'image de la mon-
ture de lunettes sont mises sous forme numérique en relation avec une valeur de seuil prédéterminée, la monture de lunettes est détectée comme étant une monture (données de configuration "1") ou comme arrière-fond (données de configuration "0"). Ainsi, comme représenté sur la figure 10A, lorsque la valeur de seuil est fixée
à "50" et qu'un processus de numérisation est effectué, les élé-
ments d'image de niveau "60" qui forment la monture peuvent être détectés comme correspondant à une donnée de configuration "1", mais les éléments d'image de niveaux "40" et "20" qui forment la même monture sont détectés comme étant des données de configuration "0". En résultat, si un processus de reconnaissance de la monture est effectué par le procédé d'étiquetage, il est détecté une absence d'élément d'image dans la monture et, dans le même temps,
le nombre des éléments d'image manquants est obtenu.
Sur la base d'un tel résultat de reconnaissance, on fait passer la valeur de seuil de "50" à "30", et on répète l'opération de numérisation pour la valeur H en utilisant la nouvelle valeur de seuil. En résultat, les éléments d'image ayant les niveaux "60" et "40", qui forment la monture, comme représenté sur la figure lOB, sont détectés comme étant des données de configuration "1", c'est-à-dire comme étant la monture. Toutefois, même avec cette nouvelle valeur de seuil, les éléments d'image de niveau "20" qui constituent cette même monture sont détectés comme étant des données de configuration "0". Ainsi, on obtient avec le traitement
de reconnaissance des données de configuration une partie de mon-
ture pour lesquelles des éléments d'image manquent, ainsi que le nombre des éléments d'image manquants. Sur la base du résultat de reconnaissance, on répète le traitement ci-dessus en ramenant la
valeur de seuil à "10". Avec le processus de numérisation qui uti-
lise la valeur de seuil "10", les éléments d'image de niveaux "60", "40" et "20" qui correspondent à la monture, comme représenté sur
la figure 10C, sont détectés comme étant des données de configura-
tion "1".
La figure 11 est un organigramme se rapportant à la séquence d'opérations cuprocessus de numérisation tel que ci-dessus
décrit.
A l'étape D1 de la figure 11, on effectue le processus de numérisation pour l'image de la monture de façon que l'arrière fond soit détecté commecorrespondant à La donnée de configuration "0", la monture soit détectée sous la forme des données de configuration
"1", et le verre de lunettes soit détecté comme données de configu-
ration "2". A l'étape D2, on effectue une vérification relativement à l'absence d'éléments d'image dans l'image de la monture et on
cherche le nombre d'éléments d'image manquants.
A l'étape D3, on compare le nombre d'éléments d'image man-
quants dans l'image de la monture avec un nombre prépositionné. Si le nombre d'éléments d'image manquants dans la monture est plus grand que le nombre prépositionné, on change la valeur de seuil (étape D4), et on effectue le traitement des étapes D1 à D3. Sinon,
le traitement est considéré comme terminé.
Avec le traitement ci-dessus présenté, on peut détecter la
monture sans produire un manque d'éléments d'image.
Dans le même temps, lorsque la valeur "1" qui représente la monture a été sélectionnée pour les données de configuration devant être enregistrées dans la base de temps 9, les données d'image sont lues. En résultat, lors du balayage des données de
configuration, seules les données d'image de la monture sont ame-
nées à correspondre avec les données de configuration "1" et sont enregistrées en même temps que les données de configuration dans la base de données 9. En réalité, les données de configuration qui désignent la monture sont enregistrées comme représenté sur la figure 12A et seules les données d'image de la monture représentées
par les données de configuration "1" sont séquentiellement enregis-
trées, comme représenté sur la figure 12B. Ainsi, en utilisant les données de configuration, on peut largement réduire la quantité de
données d'image devant être enregistrée.
Les données relatives aux montures de lunettes ainsi enre-
gistrées sont reproduites et reconstruites pour former l'image originale, de la manière suivante. On fournit au processeur 7 les données lues dans la base de donnée 9 et on les sépare en données de configuration et en données d'image formant les signaux RGB. Si les données de configuration séparées sont "O", des données d'image fixes "O" sont choisies. Si les données de configuration sont "1", les données d'image séparées constituées par les signaux RGB sont
séquentiellement lues.
Avec ce traitement, l'image d'une monture de lunettes est reconstruite à partir de l'image de la monture représentée par les données de configuration "1" et de l'image d'un arrière-fond, autre
que la monture, représentée par des données de configuration "O".
L'image de monture résultante est transférée à la mémoire d'image 3
et est affichée sur le moniteur de télévision 5.
Si les données correspondant à une moitié seulement de monture de lunettes ont été enregistrées, on retourne l'image reproduite et reconstruite de la demi-monture de lunettes afin de former l'image de l'autre moitié. On forme l'image d'une monture de lunettes en synthétisant ces deux images et on l'emmagasine dans la
mémoire d'image 3.
La figure 9B est un organigramme montrant la séquence d'opération intervenant dans le traitement de reproduction d'une
telle image de monture de lunettes.
Sur la figure 9B, les données de configuration de monture et les données d'image de monture enregistrées dans la base de données 9 sont séparées au moyen d'un circuit de séparation 28 (étape C1). Ensuite, les données de configuration de monture sont emmagasinées dans la mémoire 26, et les données d'image de monture sont emmagasinées dans la mémoire 29. A l'étape C2, l'image de la monture est reconstruite en fonction des données de configuration
emmagasinées dans la mémoire 26. Ainsi, si la donnée de configura-
tion est "O", le circuit de sélection 30 sélectionne une donnée d'image "O". Si la donnée de configuration est "1", les données d'image de monture emmagasinées dans la mémoire 29 sont lues séquentieLlement. Si la donnée de configuration est "2", une donnée
d'image de couleur, qui est introduite depuis l'extérieur, en pro-
venance par exemple du microcalculateur 8, est sélectionnée. A
l'étape C3, ces données d'image sont emmagasinées dans la RAM 21.
Le découpage, l'enregistrement et la reproduction de l'image d'une monture sont effectués de la manière que ci-dessus décrite. Ci-après, on va décrire le traitement d'inscription des données d'image d'une monture de lunettes, qui est effectué par
le système selon l'invention.
Le système possède un "menu" de travail tel que représenté sur la figure 13A, et la fonction de traitement est sélectionnée
par le menu.
Comme le montre la figure 13B, un menu d'utilisation con-
tient: (1. initialisation de l'unité de disque souple), (2. affi-
chage des numéros d'inscription), et (3. affichage de la monture).
Dans le mode (1. initialisation de l'unité de disque souple), une unité de disque souple, ou disque souple, servant à enregistrer les données relatives à des montures de lunettes est initialisée. Dans le mode (2. affichage des numéros d'inscription), une liste de numéros de montures assignés à des montures de lunettes qui ont été enregistrées dans le disque souple est affichée comme représenté sur la figure 13C. Avec cette liste de numéros de montures, on peut confirmer les numéros de montures déjà inscrits, et on peut trouver des numéros de montures susceptibles d'être inscrits. On note que les numéros de montures inscrits sont triés par exemple suivant l'ordre de leurs numéros et sont affichés. Dans le mode (affichage de la monture), en indiquant un numéro de monture, on fait afficher l'image d'une monture de lunettes associée à ce numéro, comme représenté sur la figure 13D,
ce qui permet de confirmer une monture.
Il existe des fonctions utilitaires de base qui sont
prévues pour le présent dispositif.
L'enregistrement de données relatives à une monture de
Lunettes, comme ci-dessus décrit, commence par un menu "inscrip-
tion de La monture". Pour sélectionner le menu "inscription de la monture", on affiche un curseur lob, visualisé sous la forme d'une Ligne horizontale comme indiqué sur la figure 2, sur Le moniteur de télévision 5, de manière à maintenir l'horizontalité. Une fois L'horizontalité assurée, on affiche sur le moniteur de télévision 5 un curseur rectangulaire 10a servant à indiquer une région de
traitement d'image.
On note que l'on peut effectuer un positionnement permet-
tant de ne découper que la moitié d'une monture de lunettes à
l'aide d'un traitement d'image. Toutefois, dans ce mode de réalisa-
tion, on effectue Le positionnement manuellement en observant
l'image affichée sur un moniteur de télévision.
Lorsque l'image de la moitié d'une monture de lunettes a été obtenue dans la région rectangulaire ci-dessus décrite, on actionne le processeur 7 de manière à obtenir les données relatives à la monture de lunettes et on positionne et enregistre un numéro
d'inscription correspondant à la monture.
Un menu "changement du numéro de montures" est préparé pour modifier le numéro de monture d'une monture de lunettes qui a déjà été positionnée et introduite dans le dispositif. Ce menu s'affiche de la manière présentée sur la figure 13E. Selon ce menu, un numéro de monture à changer et un nouveau numéro de monture à
positionner sont introduits, puis une image de monture (non repré-
sentée) correspondant au numéro de monture est affichée. Après que
le numéro de monture a été confirmé par l'opérateur, il est effec-
tué un changement du numéro de monture.
Un menu "abandon de monture" est prévu pour abandonner des données de monture de lunettes inscrites. Selon ce menu, le numéro de monture d'une monture de lunettes devant être abandonnée est introduit de la manière présentée sur la figure 13F, et l'image de la monture qui est indiquée par le numéro est affichée. Après que le numéro de monture a été confirmé par l'opérateur, le numéro de
monture est abandonné.
Comme représenté sur la figure 13G, un menu d'édition pour
les montures comporte (1. sauvegarde), (2. duplication), (3. dupli-
cation en continu), et (4. duplication avec changement du numéro de monture).
Dans Le mode (1. sauvegarde), toutes les données des mon-
tures enregistrées sur le disque souple sont transférées sur un autre disque souple. Dans le mode (2. duplication), on désigne par un numéro de monture les données relatives à une monture de lunettes enregistrées sur le disque souple, et on transfère les données de monture désignées par ce numéro de monture sur un autre disque souple. Dans le mode (3. duplication en continu), on fournit
une spécification séquentielle pour les données de plusieurs mon-
tures de lunettes enregistrées sur le disque souple, et on trans-
fère séquentiellement sur un autre disque souple ces données de montures de lunettes. Dans le mode (4. duplication avec changement
du numéro de monture), on modifie le numéro de monture d'une mon-
ture de lunettes pouvant être transféré sur un autre disque souple,
* puis on réalise l'opération de transfert.
Avec les fonctions d'édition de montures ci-dessus présen-
tées, on peut effectuer des opérations de classement diverses sur
les données inscrites des montures de lunettes.
La figure 14 montre comment se présente un clavier destiné
à la sélection d'un menu.
(Traitement des bords d'une image synthétisée).
On suppose que l'image d'une monture de lunettes a été sélectivement synthétisée en même temps que l'image du visage de la personne qui désire choisir une monture de lunettes, lequel visage
est filmé par une caméra de télévision. Dans ce cas, si les cou-
leurs ou les luminances des images diffèrent fortement de l'une
à l'autre en raison d'une différence dans les conditions d'éclaire-
ment pendant le filmage, il se produit des dentelures sur la fron-
tière de l'image synthétisée. Une des raisons pour cela est que les données d'image sont traitées comme un signal NTSC. Ainsi, selon les caractéristiques du signal NTSC, la fréquence des signaux R-Y et B-Y est amenée au quart de celle du signal de luminance Y. Ainsi, une seule couleur est normalement emmagasinée dans la mémoire d'image 3 pour quatre éléments d'image, c'est-à-dire que les données d'image obtenues en prenant la moyenne des composantes de couleur de quatre éléments d'image y sont emmagasinées. Lors de l'affichage de ces données d'image, les données de couleur sont données en termes d'unités de quatre éléments d'image s'étendant suivant la direction de balayage, comme représenté sur la figure 15. On note que, comme pour la composante de luminance Y, la donnée de couleur est fournie en une unité correspondant à un seul élément d'image. Ainsi, dans la région 33A possédant quatre éléments d'image pour former une unité telle que présentée sur la figure 15, trois des quatre éléments d'image sont des "O", qui représentent un fond. Ainsi, la donnée de couleur du fond est fournie dans la région 33A. Dans la région 33B, puisque quatre éléments d'image sont tous des "1", ce qui représente une monture, les données de couleur de la monture sont ainsi fournies. Dans la région 33C, au contraire de la région 33A, trois des quatre éléments d'image sont des "1". Ainsi, des données de la monture sont fournies dans la région 33C. Lors de la visualisation de semblables données d'image,
la frontière se présente comme la ligne épaisse de la figure 15.
Pour cette raison, la frontière de l'image synthétisée s'accompagne d'une dentelure qui est produite en unités de quatre éléments d'image. Ainsi, il faut prévoire un traitement d'image visant à
éliminer cette dentelure.
La figure 16 est un schéma de principe du montage d'un
circuit permettant de synthétiser les images de montures séquen-
tiellement lues dans la base de données 9 et l'image d'un visage humain, et la figure 17 est un organigramme indiquant la marche du
traitement permettant d'obtenir la moyenne d'une image de synthèse.
Un circuit de synthèse 31 synthétise des images de mon-
tures séquentiellement lues dans la base de données 9 et l'image
d'entrée d'un visage humain venant de la mémoire d'image 3.
A l'étape El, les données de configuration d'une monture
de lunettes sont fournies à un circuit de prise de moyenne 32.
Ensuite, il est vérifié (étape E2) si les deux séries de données de configuration "0" et "1" existent dans une région associée à une
unité de quatre éléments d'image.
Si les deux séries de données de configuration "0" et "1"
existent dans la région, il est pris la moyenne des données de cou-
leur associées aux quatre éléments d'image (étape E3). Ainsi, comme décrit ci-dessus, si les données de configuration sont "O", les données d'image d'un visage humain emmagasinées dans La mémoire d'image 3 sont lues comme correspondant à des données d'image de fond X et, si les données de configuration sont "1", des données d'image Y de la monture sont lues dans la base de données 9. Dans ce cas, au contraire d'un dispositif classique, on utilise pour
l'image de synthèse non pas les données relatives à l'une des cou-
leurs, mais les données de couleur Z obtenues à l'aide de l'équa-
tion suivante: Z = (n/4)X + (1 - n/4)Y...(2)
o n est le nombre d'éléments d'image ayant les données de configu-
ration "0" dans une région associée à quatre éléments d'image.
A l'étape E2, si les quatre éLéments d'image des données
de configuration sont tous des "0", des données d'image d'arrière-
fond sont emmagasinées dans la mémoire d'image 3, et, si les quatre éléments d'image des données de configuration sont tous des "1",
des données d'image de monture y sont emmagasinées.
Avec le traitement présenté ci-dessus, il est possible de
supprimer la dentelure existant sur la frontière de l'image synthé-
tisée.
(Traitement de mélange des couleurs pour la synthèse d'une image).
Classiquement, on choisit une monture de lunettes en por-
tant réellement La monture voulue parmi plusieurs montures de lunettes. Toutefois, puisque les verres de lunettes ne sont pas montés sur la monture, il est difficile à une personne qui a besoin
de lunettes d'être sûre que la monture sera accordée à son visage.
Lorsqu'il faut choisir des verres teintés, il est difficile, pour
des raisons d'économie, de découper les différents verres néces-
saires pendant le choix de la monture. Ainsi, il faut pouvoir dis-
poser d'un procédé permettant de choisir facilement une monture de
lunettes qui est adaptée au visage de L'utilisateur.
Par exemple, dans des données d'image correspondant à la moitié d'une monture de lunettes découpée symétriquement dans la
monture, comme représenté sur la figure 18A, les données de confi-
guration pour lesquelles l'étiquetage a été exécuté de manière
qu'un "1" soit sélectionné pour la monture, un "2" soit sélec-
tionné pour le verre de lunettes, et un "0" soit sélectionné pour l'arrière-fond sont fournies, et les données d'image de la monture sont enregistrées dans la base de données sous la forme présentée
sur la figure 18B.
Ces données de monture de lunettes sont sélectivement lues dans la base de donnée 9 en fonction du numéro de monture fourni par le microcalculateur 8, et la moitié restante de l'image de la monture de lunettes est reproduite par application de la symétrie,
si bien que l'image d'une monture de lunettes complète est obtenue.
La figure 19 est un schéma de principe du montage d'un
circuit de traitement permettant de synthétiser l'image d'une mon-
ture de lunettes et l'image d'un visage humain et de mélanger les
couleurs correspondantes, tandis que la figure 20 est un organi-
gramme présentant la marche du traitement.
A l'étape F1, la donnée de configuration PDATA est lue dans la base de données 9, et il est examiné si PDATA est ou non "0" (étape F2). Si PDATA est "0" à l'étape F2, la donnée d'image d'entrée correspondant à un visage humain, pris dans la mémoire d'image 3, est choisie (étape F3) et est fournie à un circuit de
sélection 33.
Si PDATA n'est pas "0" à l'étape F2, il est examiné si PDATA vaut ou non "1"' (étape F4). Si, à l'étape F4, PDATA est "1", une donnée d'image de monture lue dans la base de donnée 9 est
choisie (étape F5) et est fournie au circuit de sélection 33.
Si PDATA n'est pas "1" à l'étape F4, une donnée de couleur de verre de lunettes fixée par le microcalculateur 8 et la donnée
d'image d'un visage humain sont sélectionnées et fournies au cir-
cuit de sélection 33. Dans ce cas, un circuit 34 de prise de moyenne mélange la donnée de couleur de verre de lunettes et La donnée d'image du visage humain en fonction de données de densité
de couleur fixées par le microcaLculateur 8 (étape F6).
D'après ce traitement de mélange, si Le coefficient de transmission du verre de lunettes coloré est 35 %, le mélange est effectué à raison de 65 % pour la donnée d'image du visage et 35 % pour la donnée de couleur. Avec ce traitement de mélange, la donnée
d'image du visage au niveau du verre de lunettes se colore en fonc-
tion d'une luminance correspondant au coefficient de transmission.
Ainsi, il est obtenu, et affiché sur le moniteur de télévision, une image de synthèse composée des données du visage, de la monture et
des verres de lunettes.
Par exemple, lorsque la position de synthèse d'une monture est déterminée par le curseur 35a sur l'image d'un visage humain filmé à l'aide de la caméra de télévision 1 et que la couleur du verre est prévue de la manière indiquée sur la figure 21A, l'image de la monture choisie et les verres colorés sont synthétisés en
même temps que l'image du visage humain et sont affichés.
Ainsi, l'utilisateur peut facilement déterminer si la mon-
ture de lunettes choisie et la couleur des verres sont adaptées à
son visage d'après l'image de synthèse.
Selon le dispositif de l'invention, il est possible de fixer arbitrairement, en fonction d'une couleur prédéterminée, la couleur du verre de lunettes, sa densité ou son coefficient de transmission, et la région devant être colorée. Ainsi, on choisit
plusieurs couleurs pour le verre et on donne aux couleurs respec-
tives un coefficient de transmission prédéterminé. On notera que, pour représenter un verre incolore, on utilise la donnée de
couleur "O".
Une région de couleur du verre de lunettes est fixée de façon que, par exemple, la moitié supérieure du verre soit colorée et sa moitié inférieure devienne progressivement incolore. Par
exemple, en choisissant les données de configuration du verre au-
dessous de la frontière de "2" à "3", on mélange avec les données de couleurs indiquées sur La figure 22 les données d'image du visage présentes au niveau du verre qui sont représentées par La
donnée de configuration "3".
Selon le dispositif de L'invention, il est possible d'emmagasiner plusieurs images de montures dans La mémoire d'image 3 et de Les comparer entre elles. Plus spécialement, lorsque l'on sélectionne plusieurs montures de Lunettes comme représenté sur les figures 23A à 23C, il est possible de comparer entre elles les
images de visages synthétisées en même temps que les images de mon-
tures. Si l'on sélectionne une seule monture, comme représenté sur les figures 24A à 24C, la personne qui veut choisir une monture de lunettes se les pose sur le nez, puis des images de face, de droite et de gauche de son visage ayant été filmées, il est alors plus
facile de confirmer le choix de la monture.
Bien entendu, l'homme de l'art sera en mesure d'imaginer,
à partir du procédé et du dispositif dont la description vient
d'être donnée à titre simplement illustratif et nullement limita-
tif, diverses variantes et modifications ne sortant pas du cadre de l'invention.

Claims (13)

REVENDICATIONS
1. Dispositif de traitement et d'enregistrement d'images de montures de lunettes, possédant: une caméra de télévision (1) servant à former une image d'une monture de lunettes; une mémoire d'image (3) servant à emmagasiner les données d'image de la monture de Lunettes obtenues Lors de la formation d'image; et un moniteur de télévision (5) servant à afficher les données d'image de monture
de Lunettes emmagasinées dans ladite mémoire d'image (3), caracté-
risé en ce qu'il comprend: un moyen (6) permettant de positionner une région de
découpage d'image par affichage d'un curseur sur l'image de la mon-
ture de lunettes affichée sur Ledit moniteur de télévision (5); un moyen (7) permettant de découper l'image de la seule monture dans la région de découpage d'image positionnée par ledit curseur;
un moyen (7) permettant d'obtenir des données de configu-
ration sur la monture afin de mettre sous forme numérique l'image
découpée de la seule monture en utilisant une valeur de seuil pré-
positionnée; et
un moyen (9) permettant d'enregistrer les données de con-
figuration et les données d'image de la monture de lunettes par l'obtention des données d'image de la monture à l'aide des données
de configuration de la monture.
2. Dispositif selon la revendication 1, caractérisé en ce que le signal correspondant à une région de renforcement existant autour de la monture dans l'image de monture de lunettes prise par
ladite caméra de télévision (1) est retirée par un moyen (7) per-
mettant de détecter une partie qui possède une polarité opposée à
celle de la monture, relativement au niveau d'un arrière-fond.
3. Dispositif selon la revendication 1, caractérisé en ce que les données d'image de l'arrière-fond sont obtenues par un moyen (7) permettant de découper des données au niveau d'une partie centrale d'une région rectangulaire positionnée dans l'image de la
monture de lunettes.
4. Dispositif selon La revendication 1, caractérisé en ce que les données de configuration de la monture de Lunettes sont obtenues par un moyen (7) permettant d'effectuer une mise sous
forme numérique à l'aide d'une valeur de seuil prédéterminée.
5. Dispositif selon la revendication 1, caractérisé en ce que La valeur de seuil utilisée dans Le processus de mise sous
forme numérique est modifiée par un moyen (7) permettant de détec-
ter le nombre d'éléments d'image manquants dans les données d'image de la monture pendant l'obtention des données de configuration de
la monture de lunettes.
6. Dispositif selon la revendication 1, caractérisé en ce qu'une valeur H ayant pour fonction de permettre de distinguer la monture, qui sert d'indice pour la monture dans le processus de mise sous forme numérique, est obtenue par un moyen (7) sous la forme de: H R - r + G - g + | B - bl o les signaux d'image de la monture sont R, G et B et les signaux
d'image de l'arrière-fond sont r, g et b.
7. Dispositif selon la revendication 1, caractérisé en ce que les données d'image de la seule monture sont enregistrées et reproduites par un moyen (7) de prise de vues utilisant les données
de configuration de la monture.
8. Dispositif selon la revendication 1, caractérisé en ce que des données de couleur Z relatives à une région possédant quatre éléments d'image formant une unité sont obtenues par un moyen (7) de façon que: Z = (n/4)X + (1 - n/4)Y o le nombre d'éléments d'image des données de configuration correspondant à l'arrière-fond est n, les données d'image de l'arrièrefond sont X, et les données d'image de la monture sont Y.
9. Dispositif selon La revendication 1, caractérisé en ce que la sélection de la monture de lunettes s'effectue à l'aide d'un moyen supplémentaire (7) permettant de synthétiser des données d'image d'une monture enregistrée et des données d'image d'un
visage humain filmé par ladite caméra de télévision.
10. Dispositif selon la revendication 9, caractérisé en ce que la dentelure apparaissant à la frontière de l'image synthétisée est éliminée par un moyen (7) permettant d'effectuer une opération
de mélange qui utilise les données de couleur d'une région possé-
dant quatre éléments d'image comme unité.
11. Dispositif selon la revendication 9, caractérisé en ce que la couleur du verre de lunettes portée par la monture pendant
la synthèse des images est fixée par un microcalculateur (8).
12. Dispositif selon la revendication 9, caractérisé en ce que le rapport de mélange entre les données de couleur d'un verre de lunettes coloré et les données d'image du visage dans l'image de synthèse est déterminé par un microcalculateur (8) qui fixe le
coefficient de transmission du verre de lunettes.
13. Procédé de traitement et d'enregistrement d'images de
montures de lunettes, caractérisé en ce qu'il comprend les opéra-
tion suivantes: former une image d'une monture de lunettes au moyen d'une caméra de télévision; enregistrer dans une mémoire d'image les données d'image de la monture de lunettes obtenues par l'opération de formation d'image; afficher les données d'image de la monture de lunettes
enregistrées dans la mémoire d'image sur un moniteur de télévi-
sion; positionner une région découpée de l'image en affichant un
curseur sur l'image de la monture de lunettes affichée sur le moni-
teur de télévision;
découper l'image de la seule monture dans la région décou-
pée de l'image qui a été positionnée par le curseur; obtenir des données de configuration de la monture afin de mettre sous forme numérique l'image découpée de La seule monture en utilisant une valeur de seuil prépositionnée; et enregistrer Les données de configuration et les données d'image de la monture de Lunettes en obtenant les données d'image
de la monture à l'aide des données de configuration de la monture.
FR8715090A 1986-10-30 1987-10-30 Appareil et procede de traitement et d'enregistrement d'images de montures de lunettes Expired - Fee Related FR2606244B1 (fr)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP25702386A JPS63113676A (ja) 1986-10-30 1986-10-30 画像信号処理方式
JP25702786A JPS63113677A (ja) 1986-10-30 1986-10-30 眼鏡フレ−ム画像処理装置
JP61257024A JP2523538B2 (ja) 1986-10-30 1986-10-30 眼鏡フレ−ム記録装置
JP25702686A JPS63113685A (ja) 1986-10-30 1986-10-30 画像合成装置
JP61257025A JPS63113671A (ja) 1986-10-30 1986-10-30 眼鏡画像合成装置

Publications (2)

Publication Number Publication Date
FR2606244A1 true FR2606244A1 (fr) 1988-05-06
FR2606244B1 FR2606244B1 (fr) 1996-06-07

Family

ID=27530311

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8715090A Expired - Fee Related FR2606244B1 (fr) 1986-10-30 1987-10-30 Appareil et procede de traitement et d'enregistrement d'images de montures de lunettes

Country Status (4)

Country Link
US (1) US4852184A (fr)
KR (1) KR910000591B1 (fr)
DE (1) DE3736932A1 (fr)
FR (1) FR2606244B1 (fr)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991007727A1 (fr) * 1989-11-08 1991-05-30 Miguel Angel Garcia Barrio Systeme de photographies numeriques combinees
ES2048658A2 (es) * 1992-07-09 1994-03-16 Barrio Garcia Sistema de obtencion-distribucion de fotografias digitales combinadas en recintos con gran afluencia humana.
EP0603790A2 (fr) * 1992-12-21 1994-06-29 Casio Computer Co., Ltd. Appareil de traitement de données pour obtenir des données d'image
FR2711822A1 (fr) * 1993-10-21 1995-05-05 Paris Miki Inc Procédé pour le choix d'une couleur de verres de lunettes .
ES2077524A2 (es) * 1993-12-02 1995-11-16 Garcia Manuel Garcia Sistema personalizado de video-juegos.
FR2740880A1 (fr) * 1995-11-03 1997-05-09 Jerome Jacky Appareil d'aide a la vente technique pour opticiens

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3817850A1 (de) * 1988-05-26 1989-12-07 Loh Kg Optikmaschf Verfahren fuer die gewichtsminimierung von brillenglaesern
JP2771858B2 (ja) * 1989-08-23 1998-07-02 富士通株式会社 多画面合成装置
AU656781B2 (en) * 1991-05-30 1995-02-16 Richard John Baker Personalized instructional aid
KR0130552B1 (ko) * 1991-05-30 1998-04-10 리챠드 존 베이커 개인용 교습보조장치
DE4206355C2 (de) * 1992-02-29 1998-03-19 Walter Bergner Verfahren und Vorrichtung zum Festlegen individueller Brillenfassungen
DE4224922A1 (de) * 1992-07-28 1994-02-03 Carlo Kuester Vorrichtung und Verfahren zur Verarbeitung personenspezifischer Parameter
US5717454A (en) * 1993-07-14 1998-02-10 Lifetouch Portrait Studios, Inc. Method and apparatus for creating posing masks on video screen
DE4418143A1 (de) * 1994-05-25 1995-11-30 Siemens Ag Verfahren und System zum Auswechseln oder Einblenden von Bildinhalten in Fernsehbilder
FR2742238B1 (fr) * 1995-12-07 1998-02-13 Essilor Int Appareil pour le centrage d'un verre de lunettes et la pose d'un bloc de prehension sur celui-ci
BR9600543A (pt) * 1996-02-06 1997-12-30 Samir Jacob Bechara Sistema computadorizado para escolha e adaptação de óculos
FR2755271B1 (fr) * 1996-10-25 1998-12-18 Monot Benoist Procede et systeme optique et electronique de traitement d'images
US5983201A (en) * 1997-03-28 1999-11-09 Fay; Pierre N. System and method enabling shopping from home for fitted eyeglass frames
CN100380176C (zh) * 1997-05-16 2008-04-09 Hoya株式会社 眼镜定制系统和合成图像的方法
US6937659B1 (en) * 1997-11-14 2005-08-30 Ac Capital Management, Inc. Apparatus and method for compressing video information
CA2273162C (fr) * 1998-02-03 2002-07-02 Tsuyoshi Saigo Systeme permettant la simulation de l'action de porter des lunettes
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
US6583792B1 (en) * 1999-11-09 2003-06-24 Newag Digital, Llc System and method for accurately displaying superimposed images
EP1248144B1 (fr) * 1999-12-17 2008-02-20 Tsuyoshi Saigo Procede de photographie d'objet brillant, procede de photographie de lunettes et procede de preparation de catalogue electronique pour lunettes
EP1136869A1 (fr) 2000-03-17 2001-09-26 Kabushiki Kaisha TOPCON Système de sélection de montures de lunettes
EP1299787A4 (fr) * 2000-05-18 2005-02-02 Visionix Ltd Systeme d'adaptation de lunettes et procedes d'adaptation correspondants
US6535223B1 (en) * 2000-05-31 2003-03-18 Schmidt Laboratories, Inc. Method and system for determining pupiltary distant and element height
IL137635A0 (en) * 2000-08-01 2001-10-31 Visionix Ltd Apparatus for interactive optometry
US6792401B1 (en) 2000-10-31 2004-09-14 Diamond Visionics Company Internet-based modeling kiosk and method for fitting and selling prescription eyeglasses
US7016824B2 (en) * 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses
US6801216B2 (en) * 2001-02-23 2004-10-05 Michael Voticky Makeover system
US20040006493A1 (en) * 2002-02-13 2004-01-08 Flaherty Edward L. Eyewear education method and system
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7391900B2 (en) * 2002-10-31 2008-06-24 Korea Institute Of Science And Technology Image processing method for removing glasses from color facial images
US20050190264A1 (en) * 2003-09-12 2005-09-01 Neal Michael R. Method of interactive system for previewing and selecting eyewear
FR2885231A1 (fr) * 2005-04-29 2006-11-03 Lorraine Sole Soc D Optique Sa Procedes et dispositifs permettant de faciliter le choix d'une monture de lunettes
WO2008049173A1 (fr) * 2006-10-26 2008-05-02 Carl Zeiss Vision Australia Holdings Limited Procédé et système pour fournir des lentilles ophtalmiques
WO2013086137A1 (fr) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systèmes et procédés pour obtenir une mesure d'écart pupillaire à l'aide d'un dispositif informatique mobile
US8733936B1 (en) 2012-01-30 2014-05-27 Ditto Technologies, Inc. Fitting glasses frames to a user
US8708494B1 (en) * 2012-01-30 2014-04-29 Ditto Technologies, Inc. Displaying glasses with recorded images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
CN105637512B (zh) 2013-08-22 2018-04-20 贝斯普客公司 用于创造定制产品的方法和系统
JP6450450B2 (ja) 2015-03-10 2019-01-09 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび位置指定方法
EP3355104B2 (fr) 2017-01-27 2022-06-01 Carl Zeiss Vision International GmbH Procédé et dispositif ainsi que programme informatique destinés à déterminer une représentation d'un bord de verre de lunettes
EP3355214A1 (fr) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Procédé, ordinateur et programme informatique destinés à préparer un modèle de bord de monture
US10386657B2 (en) 2017-05-06 2019-08-20 Optikam Tech, Inc. System and method for obtaining lens fabrication measurements that accurately account for natural head position
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1980002612A1 (fr) * 1979-05-18 1980-11-27 Hell R Gmbh Procede et dispositif pour la determination de contours a l'interieur d'une image
US4539585A (en) * 1981-07-10 1985-09-03 Spackova Daniela S Previewer
GB2157122A (en) * 1982-01-15 1985-10-16 Quantel Ltd Image composition system
JPS6180222A (ja) * 1984-09-28 1986-04-23 Asahi Glass Co Ltd メガネ合せ方法及びメガネ合せ装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3509858A1 (de) * 1985-03-19 1986-09-25 Mascon Unternehmensberatungs- und Beteiligungsgesellschaft mbH, 6100 Darmstadt Verfahren und vorrichtung zur optischen praesentation von brillenfassungen
US4845641A (en) * 1986-09-19 1989-07-04 Hoya Corporation Method of forming a synthetic image in simulation system for attachment of spectacles
JPH06180222A (ja) * 1992-12-14 1994-06-28 Olympus Optical Co Ltd 原子間力顕微鏡
US9242251B2 (en) * 2013-01-30 2016-01-26 Wheelabrator Group, Inc. Magnetic separator with dynamic baffle system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1980002612A1 (fr) * 1979-05-18 1980-11-27 Hell R Gmbh Procede et dispositif pour la determination de contours a l'interieur d'une image
US4539585A (en) * 1981-07-10 1985-09-03 Spackova Daniela S Previewer
GB2157122A (en) * 1982-01-15 1985-10-16 Quantel Ltd Image composition system
JPS6180222A (ja) * 1984-09-28 1986-04-23 Asahi Glass Co Ltd メガネ合せ方法及びメガネ合せ装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NTZ ARCHIV, vol. 8, no. 10, octobre 1986, pages 245-256, Berlin, DE; R. BUHR: "Analyse und Klassifikation von Gesichtsbildern" *
PATENT ABSTRACTS OF JAPAN, vol. 10, no. 254 (P-492), 30 août 1980; & JP-A-61 080 222 (ASAHI GLASS CO., LTD) 23-04-1986 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991007727A1 (fr) * 1989-11-08 1991-05-30 Miguel Angel Garcia Barrio Systeme de photographies numeriques combinees
ES2048658A2 (es) * 1992-07-09 1994-03-16 Barrio Garcia Sistema de obtencion-distribucion de fotografias digitales combinadas en recintos con gran afluencia humana.
EP0603790A2 (fr) * 1992-12-21 1994-06-29 Casio Computer Co., Ltd. Appareil de traitement de données pour obtenir des données d'image
EP0603790A3 (fr) * 1992-12-21 1995-01-04 Casio Computer Co Ltd Appareil de traitement de données pour obtenir des données d'image.
US5487140A (en) * 1992-12-21 1996-01-23 Casio Computer Co., Ltd. Data processing apparatus for obtaining pattern-image data
FR2711822A1 (fr) * 1993-10-21 1995-05-05 Paris Miki Inc Procédé pour le choix d'une couleur de verres de lunettes .
ES2077524A2 (es) * 1993-12-02 1995-11-16 Garcia Manuel Garcia Sistema personalizado de video-juegos.
FR2740880A1 (fr) * 1995-11-03 1997-05-09 Jerome Jacky Appareil d'aide a la vente technique pour opticiens

Also Published As

Publication number Publication date
KR880005529A (ko) 1988-06-29
US4852184A (en) 1989-07-25
FR2606244B1 (fr) 1996-06-07
DE3736932A1 (de) 1988-05-11
KR910000591B1 (ko) 1991-01-26

Similar Documents

Publication Publication Date Title
FR2606244A1 (fr) Appareil et procede de traitement et d'enregistrement d'images de montures de lunettes
EP1410331B1 (fr) Procede et systeme pour modifier une image numerique en prenant en compte son bruit
CN101311962B (zh) 图像编辑装置和控制图像编辑装置的方法
CA2600185C (fr) Procede pour commander une action, notamment une modification de nettete, a partir d'une image numerique en couleurs
EP0256051B1 (fr) Dispositif de traitement d'image pour le controle de la fonction de transfert d'un systeme optique
EP2162794A1 (fr) Procede et equipements de production et de visualisation d'images stereoscopiques avec filtres colores
FR2827461A1 (fr) Selection intelligente d'une particularite et commande de l'avancee sur gros plan et du recul sur panoramique par panoramique
JPH11284874A (ja) 自動赤目検出および軽減システム
WO2018058873A1 (fr) Procédé et dispositif de photographie
FR2687813A1 (fr) Procede et appareil pour produire une transition entre des sequences d'information numerique.
EP1382017A2 (fr) Evaluation de la composition d'une image
JP2000509225A (ja) コンポジット画像の形成装置および形成方法
CN101753814A (zh) 摄像装置、照明处理装置以及照明处理方法
Klein et al. Simulating low-cost cameras for augmented reality compositing
JP2010226694A (ja) 画像処理装置及び画像処理方法
EP0114559B1 (fr) Procédé de correction permanente de couleur applicable à la prise de vues vidéo et système mettant en oeuvre ce procédé
EP0993181B1 (fr) Amélioration du chromatisme d'une image incrustée sur une image vidéo
Tanaka et al. Parameter estimation of PuRet algorithm for managing appearance of material objects on display devices
JP2688811B2 (ja) 白黒画像に着色する方法
US11762532B2 (en) Image processing device, control method therefor, imaging device, and recording medium
KR20110070662A (ko) 렌즈 광학 특성의 가상 구현을 위한 영상 처리 장치 및 방법
JPH10112799A (ja) フレア補正方法
JP2016103841A (ja) 撮像装置および撮像方法
JPH11353353A (ja) 眼鏡の選択サポートシステム
JPH01149584A (ja) 眼鏡フレーム画像入力装置

Legal Events

Date Code Title Description
ST Notification of lapse