FR2821947A1 - Procede et dispositif de validation de parametres definissant une image - Google Patents

Procede et dispositif de validation de parametres definissant une image Download PDF

Info

Publication number
FR2821947A1
FR2821947A1 FR0103316A FR0103316A FR2821947A1 FR 2821947 A1 FR2821947 A1 FR 2821947A1 FR 0103316 A FR0103316 A FR 0103316A FR 0103316 A FR0103316 A FR 0103316A FR 2821947 A1 FR2821947 A1 FR 2821947A1
Authority
FR
France
Prior art keywords
parameters
image
polygon
parameter
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0103316A
Other languages
English (en)
Other versions
FR2821947B1 (fr
Inventor
Lilian Labelle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to FR0103316A priority Critical patent/FR2821947B1/fr
Priority to US10/094,657 priority patent/US7079711B2/en
Publication of FR2821947A1 publication Critical patent/FR2821947A1/fr
Application granted granted Critical
Publication of FR2821947B1 publication Critical patent/FR2821947B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99935Query augmenting and refining, e.g. inexact access
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/961Operator interface with visual structure or function dictated by intended use
    • Y10S715/965Operator interface with visual structure or function dictated by intended use for process control and configuration
    • Y10S715/966Computer process, e.g. operation of computer
    • Y10S715/968Computer process, e.g. operation of computer interface for database querying and retrieval

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

La présente invention décrit un procédé de validation de paramètres définissant une image, chaque paramètre étant représenté par un des sommets d'un polygone et pouvant être associé à une ou plusieurs fonctionnalités. Un point (200) étant mobile dans le polygone (100), permet de valider les paramètres et les fonctionnalités associées selon la position de ce point par rapport aux sommets du polygone.La présente invention décrit également un procédé de recherche comportant au moins une étape de validation de paramètres comme décrit ci-dessus.

Description

<Desc/Clms Page number 1>
La présente invention concerne un procédé de validation de paramètres définissant une image.
L'invention concerne également un procédé de recherche d'images parmi une pluralité d'images stockées comportant une étape de validation de paramètres de recherche comme susmentionné.
Corrélativement, la présente invention concerne un dispositif apte à mettre en oeuvre de tels procédés de validation de paramètres et de recherche d'images.
L'accroissement des échanges d'informations multimédia a suscité des besoins de recherche et/ou d'ordonnancement des images numériques. Parmi les technologies récemment développées sur l'utilisation des images numériques, une des plus importantes est certainement l'indexation d'informations visuelles. En effet, afin de pouvoir manipuler de telles informations, il est, entre autres, indispensable de se doter d'outils qui permettront d'organiser ces images, de manière à pouvoir y accéder rapidement, mais également de pouvoir en retrouver un certain nombre d'entre elles, au contenu similaire, parmi une multitude d'images qui peuvent être stockées de façon locale ou distribuée.
Dans un système traditionnel de recherche d'images numériques tels qu'on les trouve actuellement sur Internet, les utilisateurs recherchent des images à partir de mots clés. Dans un tel système, le créateur de la base de données associe à chacune de ces informations visuelles, un ensemble de
<Desc/Clms Page number 2>
mots clés qui décrivent, en général, son contenu visuel. Pour cela, il doit interpréter le contenu de l'image et retranscrire la perception qu'il a de ce contenu en terme de mots qu'ils associent à l'image ainsi décrite. Cependant, ces descripteurs textuels sont souvent inadéquats pour décrire une image, tout simplement parce que la même image peut être décrite de différentes façons par différents créateurs. On peut remarquer, également, qu'il est plus aisé, pour un utilisateur, de rechercher une image en fonction de son contenu en spécifiant une image d'exemple plutôt qu'à partir de mots clés à partir desquels il est souvent difficile, voir impossible de décrire ce qu'une image contient. On voit donc que les systèmes traditionnels de recherche d'images sont limités et qu'il est impératif de définir un système qui permet d'extraire de façon automatique ou semi-automatique une description du contenu visuel de ces images. Ces systèmes sont appelés systèmes d'indexation d'informations visuelles, basé sur le contenu.
Le but d'un système de recherche d'images numériques basé sur le contenu est d'extraire, parmi un ensemble d'images mémorisées dans une base de données, un sous-ensemble d'images qui répondent, au mieux à une requête d'un utilisateur. Cet utilisateur pouvant être un être humain ou tout autre moyen capable de spécifier une requête compréhensible d'une machine.
Indispensable à de tels systèmes, les interfaces homme/machine sont primordiales car elles permettent de transcrire une requête d'un utilisateur sous forme d'un langage compréhensible de la machine et de présenter le résultat de la requête d'une façon conviviale. Les interfaces graphiques d'un système d'indexation/recherche d'images se décompose en deux parties. La première consiste à donner des moyens à un utilisateur de formuler une requête, c'est à dire de choisir, par exemple, les paramètres définissant une image numérique, sur lesquels la recherche va porter. Ces paramètres pouvant être obtenus de façon automatique à partir d'une image ou sous forme d'annotations textuelles que l'utilisateur associe à chaque image mémorisée. La seconde partie est une fenêtre qui permet de visualiser un ensemble d'images classées selon leur degré de similarité avec la requête. En général,
<Desc/Clms Page number 3>
l'image en haut et à gauche est la plus similaire tandis que celle en bas et à droite est la moins similaire.
L'indexation d'images, basé sur le contenu, est un domaine de recherche récent. En effet, ce n'est que depuis le début des années 80 que le besoin s'est fait ressentir de pouvoir retrouver des informations audiovisuelles selon leur contenu sémantique et non plus seulement selon leurs caractéristiques non sémantiques telles que le nom, la taille, le format du fichier qui les contient ou un ensemble de mots clés qui leur est associé.
Les premiers systèmes d'indexation d'images commencent à voir le jour et certaines sociétés attendent la mise en place du standard MPEG-7 pour finaliser leurs prototypes et donner naissance à des produits commerciaux. On peut citer par exemple le système QBIC ( Query By Image Content ) de IBM décrit dans le brevet US 5 579 471 et qui consiste à caractériser le contenu d'une image à partir de la distribution des couleurs et/ou de la texture de cette image. Ainsi, à chaque image mémorisée dans la base de données interrogée, est associé un index composé de une composante représentant la couleur, et/ou une composante représentant la texture de l'image. Lors de la phase de recherche, l'utilisateur a la possibilité de définir une requête au travers d'une interface graphique composée essentiellement de deux parties. La première consiste à choisir une image d'exemple ou de créer une image d'exemple synthétique en utilisant une palette de couleurs et des modèles de texture. Ensuite, dans le cas où l'utilisateur aurait choisi de baser la recherche à la fois sur la couleur et la texture, il affecte une valeur numérique à chacun de ces paramètres. Cette valeur caractérise l'importance relative des deux paramètres utilisés pour le calcul de la similarité entre l'image d'exemple et une image mémorisée dans la base de données. Une fois cette requête définie, le procédé de recherche est le suivant. Tout d'abord, le processus identifie si la recherche doit être basée sur un ou plusieurs paramètres. Pour cela, le processus se base sur les valeurs numériques associées à chacun des paramètres de recherche. Dans un deuxième temps, il identifie si la recherche peut être basée sur les paramètres spécifiés par l'utilisateur (couleur et/ou
<Desc/Clms Page number 4>
texture) en analysant le contenu de l'index associé à l'image de la base de donnée en cours de traitement. En fonction du résultat de cette analyse, une mesure de similarité est associée à cette image courante. Elle pourra être basée sur le ou les paramètres spécifiés lors de la requête ou n'être basée que sur un jeu restreint de ces paramètres. Enfin, une fois que chaque image de la base de données a été traitée, les images sont triées selon leur degré de similarité avec l'image d'exemple. La requête ainsi donnée par l'utilisateur, nécessite de la part de l'utilisateur, une connaissance non négligeable sur le contenu visuel de l'image et sur la façon de caractériser les paramètres de recherche. De plus, ce système ne permet pas d'associer un paramètre à une fonctionnalité qui pourrait être autorisée lors de la validation du paramètre par l'utilisateur.
Les systèmes actuels offre des possibilités à l'utilisateur de définir une requête sur des paramètres de recherche d'images. Le plus souvent, cet utilisateur nécessite une connaissance suffisante du domaine de l'image numérique pour pouvoir définir une requête. De plus, les systèmes de l'état de l'art, ne permettent pas d'associer une fonctionnalité qui pourrait être autorisée lors de la sélection ou de la validation d'un paramètre par l'utilisateur. En effet, l'utilisateur peut être amené à vouloir définir une requête par un paramètre non visuel, par exemple, audio. Il peut aussi être amené à définir une requête portant à la fois sur des paramètres visuels et non visuels de l'image.
La présente invention vise à remédier aux inconvénients précités.
La présente invention propose un procédé de validation de paramètres définissant une image numérique, permettant de prendre en compte plusieurs types de paramètres, de les associer à des fonctionnalités, ceci de façon simple et conviviale pour un utilisateur qui ne connaît pas nécessairement le domaine technique.
A cet effet, la présente invention vise un procédé de validation de paramètres définissant une image, chaque paramètre étant représenté par un des sommets d'un polygone et pouvant être associé à une ou plusieurs fonctionnalités, un point étant mobile dans le polygone, caractérisé en ce que
<Desc/Clms Page number 5>
les paramètres et/ou les fonctionnalités associées sont validées selon la position du point par rapport aux sommets du polygone.
Ainsi, le déplacement d'un seul point permet de valider plusieurs paramètres et les fonctionnalités associées. L'opération est simple et conviviale.
Selon un mode de réalisation préféré, la distance entre un des sommets du polygone et le point défini le poids à attribuer au paramètre représenté par le dit sommet.
La pondération d'un paramètre par rapport à un autre devient plus explicite puisqu'elle est faite visuellement par une différence de distance avec les sommets du polygone. Il est en effet plus intuitif de déplacer un point que de rentrer des valeurs de pondérations.
Selon un mode particulier de l'invention, le polygone est un triangle.
Ceci permet donc de définir trois paramètres et de les pondérer les uns par rapport aux autres.
Selon un autre mode de réalisation préféré, une des fonctionnalités associée à un paramètre est l'utilisation d'un dispositif.
En choisissant un paramètre, on offre la possibilité à l'utilisateur d'utiliser un dispositif.
Selon un mode particulier de l'invention, le dispositif est un microphone.
L'utilisateur pourra ainsi utiliser le microphone si un des paramètres qu'il a choisis est associé à ce dispositif. L'utilisation de ce microphone ne lui était pas proposé avant qu'il n'ait choisi ce paramètre.
Selon un autre mode particulier de l'invention, le polygone et un nom du dispositif sont affichés sur le même écran. La disponibilité du dispositif est décidé selon la position du point et l'intensité de l'affichage du nom du dispositif varie selon que le dispositif est disponible ou non.
Ainsi, la visualisation des paramètres choisis est immédiate et explicite.
<Desc/Clms Page number 6>
Selon un autre aspect du mode de réalisation de l'invention, les paramètres représentés par les trois sommets du triangle sont des paramètres de couleur, texture et audio.
Ceci permet donc de définir une image par deux caractéristiques visuelle et une caractéristique audio et de choisir parmi ces trois paramètres selon l'application désirée de l'image.
Selon un autre mode particulier de réalisation, le point est situé à une position prédéterminée à l'intérieur du polygone au stade initial. Cette position prédéterminée est à proximité d'un des sommets du polygone.
Selon un aspect du mode de réalisation, un moyen permettant de déplacer le point dans le polygone et un moyen permettant de valider la position du point dans le polygone pour valider les paramètres et/ou les fonctionnalités associées, sont affichés sur le même écran que le polygone.
Ainsi, l'utilisateur n'a besoin que d'une interface dans laquelle se
Figure img00060001

regroupe à la fois les informations sur les paramètres et les moyens de les valider.
Selon un mode de réalisation, les paramètres sont affichés à proximité de leur sommet respectif du polygone et l'intensité de l'affichage de ces paramètres varie selon la position du point.
Ceci permet à l'utilisateur de reconnaître facilement les paramètres qu'il est en train de choisir.
Selon un mode particulier de réalisation, au moins un des sommets du polygone représente une pluralité de paramètres, cette pluralité de paramètres pouvant être validée. La pluralité de paramètres se rapporte à une caractéristique commune de l'image.
Cela peut en effet permettre de choisir un ensemble de paramètres qui ensemble définissent une caractéristique de l'image. Le fait de les regrouper permet à l'utilisateur de ne pas perdre de temps à sélectionner chaque paramètre pour définir cette caractéristique. De la même manière que précédemment, la pluralité de paramètres est affichée avec la caractéristique de l'image à proximité du sommet du polygone.
<Desc/Clms Page number 7>
Corrélativement, la présente invention concerne un dispositif de validation de paramètres définissant une image, chaque paramètre étant représenté par un des sommets d'un polygone et pouvant être associé à une ou plusieurs fonctionnalités, un point étant mobile dans le polygone.
Conformément à l'invention, ce dispositif de validation de paramètres comporte des moyens de positionnement du point par rapport aux sommets du polygone pour valider les paramètres et les fonctionnalités associées.
Ce dispositif de validation présente des avantages et des caractéristiques semblables à celles décrites précédemment pour le procédé de validation qu'il met en oeuvre.
Selon une caractéristique pratique de l'invention, les moyens de positionnement du point sont constitués d'un pointeur et d'un moyen d'entrée, le dit pointeur étant le point se déplaçant dans le polygone par action sur le moyen d'entrée.
Selon un deuxième aspect, la présente invention concerne un procédé de recherche d'images parmi une pluralité d'images stockées dans une base de données, chacune des images stockées étant associée à une donnée dite index de l'image stockée, représentative d'au moins un paramètre de l'image. Ce procédé de recherche est caractérisé par le fait qu'il comporte au moins une étape de validation de paramètres de recherche selon le procédé de validation de paramètres conforme à l'invention et décrit ci-dessus.
Ainsi, l'utilisateur pourra définir une requête de recherche d'images sur plusieurs paramètres, de façon simple et intuitive.
Figure img00070001
Corrélativement, l'invention concerne un dispositif de recherche d'images parmi une pluralité d'images stockées dans une base de données, chacune des images stockées étant associée à une donnée dite index de l'image stockée, représentative d'au moins un paramètre de l'image Ce dispositif de recherche comporte des moyens adaptés à mettre en oeuvre un procédé de recherche d'images conforme à l'invention et décrit ci dessus.
Le dispositif comporte également un dispositif de validation de paramètres conforme à l'invention.
<Desc/Clms Page number 8>
La présente invention vise également un appareil photographique numérique comportant des moyens adaptés à mettre en oeuvre le procédé de validation de paramètres et/ou un procédé de recherche d'images, tels que définis ci-dessus.
La présente invention vise un appareil photographique numérique comportant un dispositif de recherche d'images conforme à l'invention.
D'autres particularités et avantages de l'invention apparaîtront encore dans la description ci-après.
Aux dessins annexés, donnés à titre d'exemples non limitatifs : - la figure 1 est un schéma bloc illustrant un appareil photographique adapté à mettre en oeuvre l'invention.
- la figure 2 est un schéma bloc illustrant l'architecture générale d'un dispositif de recherche d'images conforme à l'invention ; - la figure 3 est un algorithme illustrant le procédé d'indexation utilisé dans l'invention ; - la figure 4 est un algorithme illustrant le procédé de recherche d'images conforme à l'invention ; - la figure 5 est un exemple d'une représentation de l'interface graphique du dispositif de validation de paramètres conforme à l'invention ; - les figures 6a, 6b, 6c et 6d représentent quelques exemples de la position du point dans l'interface graphique du dispositif de validation de paramètres conforme à l'invention ; - la figure 7 est un algorithme illustrant le procédé de validation de paramètre conforme à l'invention ; - la figure 8 représente un autre exemple de réalisation de l'interface graphique du dispositif de validation de paramètres conforme à l'invention ;
On va décrire tout d'abord, en référence à la figure 1, un mode de réalisation adapté à mettre en oeuvre un procédé de validation de paramètres et/ou de recherche d'images conformes à la présente invention. On va, ainsi,
<Desc/Clms Page number 9>
décrire un dispositif de capture d'images et/ou de vidéos, tel qu'un appareil photographique numérique. Le dispositif d'acquisition de signaux numériques ou de capture d'images 1 comporte une mémoire de données numériques 21 et une mémoire de signaux numériques 19 qui peuvent être regroupées en une seule mémoire. Les mémoires 19 et 21 comportent des moyens qui permettent de transmettre de façon synchronisée les signaux numériques et les informations qui leurs sont associées. Le dispositif 1 comporte un dispositif 22 qui permet d'entrer les différents modes de l'appareil photographique, les paramètres de codage/décodage de signaux numériques et les paramètres de recherche, d'un circuit de recherche 23 qui classe l'ensemble des signaux choisi selon leur similarité avec les paramètres d'une requête effectuée par l'utilisateur du dispositif de capture d'images. Il comporte également, un écran LCD 16 (de l'anglais"Liquid Crystal Display") qui permet de visualiser une ou plusieurs images, et d'afficher l'interface graphique qui permettra à l'utilisateur de définir sa requête. Celle ci sera décrite à l'aide des figures 5 et 6. De plus, le dispositif est constitué d'une chaîne d'acquisition d'images qui comporte une unité optique 11 reliée à un capteur CCD 12, lui-même relié à un convertisseur analogique numérique 13, d'un circuit d'indexation 20. Il est également constitué d'un circuit de codage/décodage d'images 17, d'un circuit de codage/décodage de signaux audio 18, d'un microphone 15 couplé à un dispositif d'enregistrement de signaux audio non représenté sur la figure 1 et d'un contrôleur 14 qui veille au bon fonctionnement de l'ensemble du dispositif.
Le processus d'acquisition d'une nouvelle image selon le dispositif 1 de la figure 1 est le suivant. L'utilisateur positionne le dispositif 1 dans le mode acquisition au travers du dispositif d'entrée 22. Le dispositif 1 demande alors à l'utilisateur d'entrer des paramètres de codage en affichant, par exemple, un message sur l'écran 16. L'utilisateur entre alors, à partir du dispositif 22 ces paramètres qui sont mémorisés dans la mémoire 21. Le dispositif 1 est alors prêt à acquérir une nouvelle image à partir de la chaîne d'acquisition du dispositif 1. Lorsqu'une nouvelle image 10 est capturée par cette chaîne d'acquisition, elle est codée selon les paramètres de codage mémorisés dans la mémoire 21, à partir
<Desc/Clms Page number 10>
du circuit de codage 17. Selon le mode préféré de réalisation de l'invention, le circuit de codage est un circuit JPEG. L'image codée est mémorisée dans la mémoire 19. L'image, nouvellement acquise est décodée selon le circuit 17 et visualisée sur l'écran 16. A ce moment-là, l'utilisateur a la possibilité d'associer à cette image un signal audio au travers du microphone 15. Ce signal est ensuite codé, selon le circuit 18 et à l'aide des paramètres de codage mémorisés dans la mémoire 21. Le signal ainsi codé est mémorisé dans la mémoire 19 en association avec la dernière image acquise. Ainsi, la mémoire 19 contiendra des images codées au format JPEG qui pourront être associées à des signaux audio. Selon le mode préféré de réalisation de l'invention, le codeur audio utilisé est le codeur wave sound traditionnellement utilisé dans les appareils photographiques.
La mémoire 19 est par exemple une mémoire amovible telle que mémoire flash ou compact disque (CD).
Dès que l'utilisateur souhaite indexer les images de la mémoire 19, il positionne le dispositif 1 dans le mode indexation au travers du dispositif d'entrée 22. Dès lors, un index est associé à chacune des images mémorisées selon le procédé qui sera décrit par la figure 3. Ces Index sont mémorisés dans la mémoire 21.
Une fois que les images ont été indexées, l'utilisateur a la possibilité de rechercher un ensemble d'images. Pour cela, l'utilisateur positionne le dispositif 1 dans le mode recherche au travers du dispositif 22. L'interface graphique qui sera décrite par la figure 5 est alors visualisée sur l'écran 16, indiquant que le dispositif 1 est prêt à recevoir une requête. L'utilisateur peut alors choisir à l'aide du dispositif de validation de paramètres défini entre autres
Figure img00100001

par l'écran 16 et le dispositif d'entrée 22, les paramètres qui serviront à la recherche. Le procédé de recherche sera décrit par la figure 4.
Selon un mode de réalisation de l'invention, les moyens de mise en oeuvre du dispositif sont incorporés dans : - un microprocesseur,
<Desc/Clms Page number 11>
- une mémoire morte comportant un programme pour coder, indexer et rechercher les données, et une mémoire vive comportant des registres adaptés à enregistrer des variables modifiées au cours de l'exécution desdits programmes.
De manière générale, un moyen de stockage d'information, lisible par un ordinateur ou par un micro-processeur, et éventuellement amovible, est adapté à mémoriser un programme mettant en oeuvre les procédés de validation de paramètres et/ou de recherche d'images conformes à l'invention.
Il est à noter que l'appareil photographique numérique illustré à la figure 1 constitue un mode particulier de réalisation de l'invention.
On va à présent décrire, en référence à la figure 2, un schéma bloc illustrant l'architecture générale d'un dispositif de recherche d'images 2 conforme à l'invention. Le dispositif 2 fait appel à une unité de stockage de données numériques 30 qui peut faire partie du dispositif ou être externe à celui-ci. Cette unité de stockage peut être locale ou distribuée et comporte des images numériques créées par des appareils d'acquisition tels qu'un scanner, un appareil photographique ou un caméscope. Ce moyen de stockage comporte également des signaux audio qui peuvent être associés aux images numériques et qui sont créés par des appareils d'acquisition de signaux audio. Ces images numériques ou ces signaux audio peuvent être stockés dans l'unité de stockage 30 sous forme codée ou compressée. Ils seront alors décodés ou décompressés par un dispositif de décodage non représenté ici, avant d'être traités. Le dispositif 2 comporte également des moyens 40 d'indexation de signaux numériques qui associent un index à chaque signal qui sera traité par l'invention par le procédé de recherche. Cet index est stocké dans la mémoire de données numériques 50. Le procédé d'indexation sera décrit dans la description de la figure 3. Le dispositif 2 comporte en outre un dispositif de validation de paramètres 90 qui permet à l'aide d'une interface graphique, de définir une requête. Lors de cette requête, l'utilisateur peut valider les paramètres qu'il souhaite utiliser pour la recherche. Le dispositif 2 comporte également un module de recherche qui classe l'ensemble des signaux choisi selon leur similarité avec les paramètres de la requête. La
<Desc/Clms Page number 12>
figure 4 décrira ce procédé de recherche. Le dispositif 2 comporte également des moyens 60 d'affichage des signaux ainsi classés. Enfin, le dispositif 2 comporte un contrôleur 70 qui assure le bon fonctionnement de l'ensemble du dispositif.
Le dispositif de la figure 2 peut être Intégré dans un appareil numérique, tel qu'un ordinateur, une imprimante, un télécopieur, un scanner ou un appareil photographique numérique.
Selon un mode de réalisation de l'invention, les moyens de mise en oeuvre du dispositif sont incorporés dans : - un microprocesseur, - une mémoire morte comportant un programme pour coder, indexer et rechercher les données, et - une mémoire vive comportant des registres adaptés à enregistrer des variables modifiées au cours de l'exécution desdits programmes.
En référence maintenant à la figure 3, on va décrire l'algorithme illustrant le procédé d'indexation tel qu'il est utilisé dans l'invention. Le procédé d'indexation permet d'associer un index à chaque image provenant de l'unité de stockage 10 de la figure 1. Cet index peut comporter plusieurs composantes.
Dans le mode de réalisation préféré de l'invention, l'index peut comporter trois ou deux composantes selon que l'image est associée ou non à un signal audio.
Selon le mode préféré de réalisation de l'invention, les deux premières composantes de l'index caractériseront le contenu visuel de l'image et la troisième composante caractérisera le contenu du signal audio associé à l'image. L'étape E1 de la figure 3 est une étape de récupération d'une image codée à partir de la mémoire 19 référencée en figure 1. L'étape E1 est suivie de l'étape E2 qui permet d'obtenir la première composante visuelle de l'index. Selon le mode préféré de réalisation de l'invention, cette composante est l'histogramme
Figure img00120001

de couleurs de B valeurs calculées à partir de l'ensemble des pixels de l'image.
1 1 1 T Cet histogramme CI = ICI c...,cJest mémorisé dans la mémoire 21 de la figure 1. Nous ne détaillerons pas plus le calcul des histogrammes de couleur qui est bien connu de l'homme de l'art. Pour de plus amples explications sur le calcul d'histogramme on pourra se référer à l'article intitulé"Color Indexing", de M. J.
<Desc/Clms Page number 13>
Figure img00130001
Swan et D. H. Ballad, paru dans flint. J. Comput. Vision 7 (1)", en 1991, pages 11 à 32. Toute autre méthode définissant le contenu en couleur d'une image peut bien sûre être utilisée.
L'étape E2 est suivie de l'étape E3 qui permet d'obtenir la deuxième composante visuelle de l'index. Selon le mode préféré de réalisation de l'invention, cette composante est une description de la texture de l'image. Cette description est constituée d'un vecteur de 12 couples de valeurs, soit 24 valeurs réelles, qui sont la valeur moyenne et l'écart type des coefficients de 12 sousbandes obtenues par une décomposition fréquentielle de l'image selon un jeu de
Figure img00130002

1 T fittres de Gabor. Ce vecteur 7 == [, ,..., est mémorisé dans la mémoire 21 filtres de Gabor. Ce vecteur T, = It 2 241 de la figure 1. Nous ne détaillerons pas plus le calcul de ce type de vecteur représentant une description de la texture de l'image. Ce calcul est bien connu de l'homme de l'art. Cependant, pour de plus amples explications, on pourra se référer à l'article intitulé'Texture features fr browsing and retrieval of image data", de B. S. Manjunath et W. Y. Ma, paru dans"IEEE Transactions on Pattern Analysis and Machine Intelligence", vol. 18, No. 8, en Août 1996.
De retour à la figure 3, l'étape E3 est suivie de l'étape E4 qui teste si l'image courante est associée à un signal audio. Si c'est le cas, l'étape E4 est suivie de l'étape E5 qui obtient de ce signal audio la troisième et dernière composante de l'index. Pour cela, on utilise une méthode connue et décrite en détails dans l'article intitulé"Content-based Indexing and retrieval of Audio Data using wavelets", de G. Li et A. A. Khokhar, paru dans"University of Delaware, Department of Electrical and Computer Engineering, Newark, DE 19716", en 1998.
Le signal audio est en effet, tout d'abord décomposé en odelettes, de manière à obtenir une décomposition en S sous-bandes du signal. Ensuite, les coefficients de chaque sous-bande sont analysés de manière à extraire 3 valeurs statistiques : 1) Le taux de passage à zéro du signal 2) L'écart type du signal 3) La moyenne du signal.
<Desc/Clms Page number 14>
Figure img00140001
La troisième composante de l'index associée à l'image sera donc 1, 1 Il l@] T où S désigne composée d'un vecteur de 3xS valeurs réelles, =/,..., J où S désigne le nombre de sous-bandes. Ce vecteur est alors mémorisé dans la mémoire 21 de la figure 1.
Nous ne détaillerons pas plus les méthodes d'indexation car le choix de ces méthodes ne modifie en rien la mise en oeuvre de l'invention.
Nous allons à présent décrire, en référence à la figure 4, un algorithme illustrant le procédé de recherche d'images conforme à l'invention.
Ce procédé consiste à trier les images contenues dans la mémoire 19 de la figure 1, qui ont été indexées selon le procédé décrit par la figure 3.
L'étape E10 fait référence au procédé de validation de paramètre que l'on retrouvera en détails dans la description de la figure 7. Ce procédé consiste en effet à définir des paramètres qui permettront d'orienter la recherche. Ces paramètres sont, dans le mode de réalisation préféré, au nombre de trois et sont nommés Wc pour le paramètre de couleur, WT pour le paramètre de texture et WA pour le paramètre audio. Ces paramètres ont tous une valeur égale ou comprise entre 0 et 1. La somme de ces trois paramètres est égale à 1. L'étape E10 est suivie de l'étape EU qu ! teste si la valeur est égale à 1. Si c'est le cas, cela veut dire que le seul paramètre pris en compte est le paramètre audio. L'étape EU est alors suivie de l'étape E12 qui valide l'utilisation d'un microphone référencé en 15 à la figure 1. Ce microphone permettra ainsi à l'utilisateur d'enregistrer des requêtes vocales et d'effectuer ainsi la recherche sur des images qui ont été auparavant associées à un message vocal. L'étape E12 est suivie de l'étape E13 au cours de laquelle l'utilisateur enregistre vocalement un signal audio au travers du microphone. Ce signal est mémorisé temporairement dans la mémoire 21 de la figure 1 et indexé selon le procédé d'indexation des signaux audio décrit par la figure 3. L'index Q (VO, VO, QA) ainsi obtenu est mémorisé temporairement dans la mémoire 21. Va désigne ici un vecteur dont toutes les composantes sont nulles. L'étape E13 est suivie de l'étape E14 qui considère la première image de la
<Desc/Clms Page number 15>
Figure img00150001

mémoire 19. L'étape E14 est suivie de l'étape E15 qui récupère l'index l'associé à l'image courante à partir de la mémoire de données numériques 21 de la figure 1. L'étape E15 est alors suivie de l'étape E16 qui teste si cet index a une composante audio. Si c'est le cas, l'étape E16 est suivie de l'étape E18 qui associe à l'image courante une valeur de similarité S (I', Q) entre l'index de l'image courante et l'index Q définis lors de l'enregistrement de la requête audio. Cette similarité est calculée à l'étape E30 selon l'équation (1) que l'on retrouvera un peu plus loin dans la description de cette figure. Cette valeur est mémorisée temporairement dans la mémoire 21. Ce calcul ne concerne alors que la composante audio des images à rechercher. On peut noter que
Figure img00150002

S (I', Q) est bornée à 1 du fait que les distances calculées entre chaque composante de l'index sont bornées à 1 et que la somme des coefficients w (+w7+wA=1 Si le test de l'étape E16 est négatif, l'étape E16 est suivie de l'étape E17 qui affecte une valeur nulle à la valeur de similarité. En effet, l'image courante ne comportant alors pas de composante audio, il n'est pas possible de la comparer à la requête audio définie postérieurement. L'étape E17 et E18 est alors suivie de l'étape E19 qui teste si l'image courante est la dernière image de l'unité de stockage 10. Si ce n'est pas le cas, l'étape E19 est suivie de l'étape E20 qui considère l'image suivante et retourne à l'étape E15 précédemment décrite.
Si le test de l'étape E19 est positif, l'étape E19 est suivie de l'étape E21 qui trie les images par ordre décroissant selon la valeur de similarité qui leur est associée. Ces images seront ensuite affichées à l'étape E22 sur l'écran 16 de la figure 1. Ces images sont visualisées de façon à respecter le même ordre décroissant de la valeur de similarité. Les images les plus similaires, c'est à dire celles qui ont une valeur de similarité associée la plus élevée seront affichées en premier. Dans notre mode de réalisation préféré, les images sont ordonnées de gauche à droite de la valeur la plus élevée à la valeur la moins élevée. Ainsi, les images qui ont été affectées d'une
<Desc/Clms Page number 16>
valeur de similarité nulle, viendront en dernière place après l'étape de tri E21 et seront affichés en dernière position à l'étape E22. Elles seront donc facilement repérables par l'utilisateur, surtout si la valeur de la similarité est affichée en même temps que l'image, ce qui peut être tout à fait envisagé dans un mode particulier de réalisation. Dans un autre mode particulier de réalisation de l'invention, on peut aussi envisager que les images ayant une valeur de similarité nulle, ne sont pas affichés. L'utilisateur peut alors être amené à changer sa requête, s'il estime que les images comportant des informations audio ne sont pas suffisantes. Il peut également enregistrer des informations audio aux images comprises dans la mémoire 19 qui n'en comportent pas. Le procédé s'arrête après l'étape d'affichage.
Figure img00160001
Si le test de l'étape EU est négatif, l'étape EU est suivie de l'étape E23 qui désactive la fonctionnalité du microphone, ne permettant pas ainsi son utilisation. Dans le mode préféré de réalisation, le microphone n'est en effet activé que lorsque le paramètre WA est égal à 1. A l'étape E 23, on affiche également sur l'écran 16 de la figure l'ensemble des images de la mémoire 19. Selon un mode préféré de réalisation de l'invention, les N premières images sont affichées à partir d'une grille composée de 5 lignes et 4 colonnes (N=20). Chaque image est affichée dans une des cases de cette grille. On peut remarquer que l'utilisateur à la possibilité de visualiser l'ensemble des images de la mémoire 19 par groupe de N images par action sur le dispositif d'entrée 22. Selon un mode préféré de réalisation de l'invention, deux boutons sont prévus à cet effet : le premier permet d'afficher les N images suivantes et un autre bouton les N images précédentes. Ces boutons ne sont pas représentés. L'étape E23 est suivie de l'étape E24 au cours de laquelle l'utilisateur sélectionne une image d'exemple parmi les images affichées sur l'écran et ce au travers d'un moyen d'entrée. Selon un mode préféré de réalisation de l'invention, deux boutons"+"et"-"sont prévus à cet effet. Le bouton"+"permet de sélectionner l'image suivante de celle couramment sélectionnée, le bouton"-"permet de sélectionner l'image précédente. Ces boutons ne sont pas représentés. On peut noter que conformément au mode
<Desc/Clms Page number 17>
préféré de réalisation de l'invention, La bordure de la case contenant l'image couramment sélectionnée est accentuée permettant ainsi à l'utilisateur de pouvoir visualiser l'image couramment sélectionnée. L'image sélectionnée par défaut étant celle la plus en haut et à gauche de l'écran. L'étape E24 est suivie de l'étape E25 qui récupère l'index Q associé à l'image ainsi sélectionnée et qui devient l'image d'exemple. L'étape E25 est suivie de l'étape E26 qui comme l'étape E14, considère la première image de la mémoire 19. A l'étape E27, l'index de l'image courante est récupéré à partir de la mémoire de données numériques 21. L'étape E27 est alors suivie de l'étape E28 qui teste si l'index de l'image courante a une composante audio. Si c'est le cas, l'étape E28 est suivie de l'étape E30 qui comme l'étape E18, associe à l'image courante une valeur de similarité S (I', Q) entre l'index de l'image courante et l'index Q de l'image d'exemple. Dans ce cas précis, le calcul se fera sur les trois
Figure img00170001

composantes définissant l'image. Cette similarité est calculée selon l'équation (1) ci-après et mémorisée temporairement dans la mémoire 21.
Figure img00170002
S 0=i- ( (c,, Cg) + (r,, ) +, (, )) (1)
Figure img00170003

avec
Figure img00170004
Figure img00170005

<Desc/Clms Page number 18>
Figure img00180001
On rappelle que S (I', Q) est bornée à 1 du fait que les distances calculées entre chaque composante de l'index sont bornées à 1 et que la somme des coefficients ++=1. Ainsi, une valeur de similarité nulle signifie qu'il n'y a aucune similarité entre les deux images comparées et à l'inverse, une valeur de similarité égale à un, signifie que les deux images comparées sont identiques.
Si à l'étape E28, la réponse est négative, l'étape E29 affecte une valeur nulle à WA définissant le paramètre audio. Le calcul de similarité ne tiendra alors pas compte de la composante audio. L'étape E29 est suivie de l'étape E30 précédemment décrite. Ainsi, à l'étape E30, le calcul de similarité ne se fera que sur les deux premiers paramètres de l'image courante. L'étape E30 est suivie de l'étape E31 qui teste si l'image courante est la dernière image de la mémoire 19. Si ce n'est pas le cas, l'étape E31 est suivie de l'étape E32 qui considère l'image suivante et retourne à l'étape E27 précédemment décrite.
Si le test de l'étape E31 est positif, l'étape E31 est suivie de l'étape E21 précédemment décrite.
En référence à la figure 5, nous allons décrire un exemple d'une représentation de l'interface graphique du dispositif de validation de paramètres conforme à l'invention. Cette interface graphique 3 permet à un utilisateur de définir une recherche sur des paramètres définissant une image numérique. Pour ce faire, les paramètres susceptibles d'être validés sont représentés par les sommets d'un polygone qui dans le mode de réalisation préféré de l'invention est un triangle. Dans le cas d'un triangle, les paramètres sont par exemple, des paramètres de couleur, de texture et audio. L'interface graphique
<Desc/Clms Page number 19>
représente ainsi le triangle et la définition ou le label des trois paramètres à proximité de leur sommet respectif. Les paramètres peuvent aussi être associés à une ou plusieurs fonctionnalités. Les définitions ou labels de ces fonctionnalités sont aussi représentés à proximité du sommet représentant le paramètre associé. Ces fonctionnalités peuvent être sous la forme de dispositif comme dans notre exemple de réalisation où le paramètre audio est associé à un microphone. Le nom ou le label du dispositif est alors affiché à proximité du sommet représentant le paramètre associé. Ici, le microphone pourra donc être validé si le paramètre audio est aussi validé. Nous verrons dans la description des figures 6 a, b, c et d dans quel cas cette validation sera possible. Les paramètres et les fonctionnalités associées sont validés selon la position d'un point mobile dans le polygone. Ainsi, la distance entre un des sommets du polygone et le point, défini le poids à attribuer au paramètre représenté par ce sommet. Nous verrons dans la description des figures 6 a, b, c et d des exemples de position du point dans le triangle et les poids des paramètres ainsi sélectionnés. Lorsque le point a une position tel que un paramètre peut être validé, le label associé au sommet et définissant le paramètre est accentué par une vision en caractère gras. A l'inverse, si un paramètre ne peut pas être validé par la position du point, le label de ce paramètre est représenté en caractère semi-transparent ou grisé, voire invisible, de façon à indiquer à l'utilisateur que ce paramètre n'est pas sélectionnable. Il en est de même pour les fonctionnalités ou dispositifs associés. Ainsi, l'intensité de l'affichage des paramètres varie selon la position du point. Dans le mode de réalisation décrit ici, l'affichage du paramètre passe d'un affichage en caractère gras à un affichage en caractère grisé selon qu'il peut être ou non sélectionnable. Il est par ailleurs tout à fait réalisable de faire varier graduellement l'intensité de l'affichage selon le poids à attribuer au paramètre en accord avec la position du point. Sur les figures 5,6 et 8, les labels des paramètres grisés sont représentés par des labels encadrés en pointillé, ceci par soucis de lisibilité.
Le dispositif de validation de paramètre ainsi représenté, comporte des moyens de positionnement du point, constitués d'un pointeur
<Desc/Clms Page number 20>
représenté par le point 200 se déplaçant dans le polygone, ici un triangle 100 par action sur le moyen d'entrée 300. Ce moyen d'entrée est par exemple un jeu de quatre boutons qui permettent de faire évoluer verticalement et horizontalement le point à l'intérieur du triangle. A chaque pression sur un de ces boutons, le point 200 se déplace d'une unité. Cette interface comporte également le bouton 400 qui permet de valider une position du point et de lancer le procédé de recherche de la figure 4. Ce moyen d'entrée 300 permettant de déplacer le point dans le polygone et ce moyen 400 permettant de valider la position du point, sont affichés sur le même écran 16 que le polygone.
En référence aux figures 6a, 6b, 6c et 6d, nous allons à présent décrire des exemples de position du point 200 dans le triangle. La position spatiale du point 200 permet alors de déterminer le triplet (wc, W, WA) représentant les valeurs numériques des paramètres respectivement de couleur, de texture et d'audio. Ce triplet de données est utile lors du procédé de recherche que nous avons décrit précédemment à la figure 4. Selon le mode préféré de réalisation de l'invention, ces valeurs correspondent aux coordonnées barycentriques du point situé à l'intérieur d'un triangle. On rappelle que la somme de ces coordonnées est toujours égale à 1.
Ainsi, à la figure 6a, le point est positionné sur le sommet du triangle qui représente le paramètre de texture. Le label de ce paramètre est alors visualisé en caractère gras alors que les autres qui ne sont donc plus sélectionnable, sont visualisés en caractère grisé. L'utilisateur voit donc de manière claire, le paramètre qu'il a choisi. Les valeurs numériques des paramètres sont alors : (wc = 0, wu wu = 0).
A la figure 6b, le point 200 est positionné sur un des côtés du triangle. Dans ce cas, les valeurs numériques des paramètres dépendent de la distance du point par rapport aux sommets représentant les paramètres en question. Ainsi, si le point 200 est à la distance d du sommet représentant le paramètre couleur, la valeur numérique Wc est égale à d/D alors que la valeur
<Desc/Clms Page number 21>
numérique WT est égale à 1-d/D, D étant la longueur du côté du triangle, isocèle dans le cas présent. Les valeurs numériques des paramètres sont alors
Figure img00210001

(w, =-w=i--, =o). On voit donc que deux paramètres sont D D
Figure img00210002

sélectionnés. Leur label apparaît donc en caractère accentué alors que le paramètre non sélectionné et sa fonctionnalité associée, apparaissent en caractère grisé.
A la figure 6c, le point 200 est positionné sur le sommet représentant le paramètre audio. Les valeurs numériques des paramètres sont alors (wc = 0, = 0, WA = 1). Le label caractérisant le paramètre audio est alors accentué visuellement alors que les autres sont en caractère grisés.
Cependant, le paramètre audio, étant associé à une fonctionnalité, qui dans le cas présent est un dispositif constitué d'un microphone, le label de cette fonctionnalité est lui aussi accentué visuellement pour avertir l'utilisateur que le dispositif microphone est mis en route et que la requête peut alors être enregistrée vocalement. Ce microphone n'est activé, dans ce mode de réalisation, que lorsque le paramètre audio a une valeur numérique de 1.
A la figure 6d, le point 200 est à l'intérieur du triangle 100 et définit ainsi les surfaces A, T et C des trois triangles inscrits dans le triangle d'origine de surface S. Ainsi, sera affecté au paramètre de couleur, la valeur numérique
Figure img00210003

aireC C.,...,, Wc =-------=-, au paramètre de texture, la valeur numérique aire du triangle S aireT y...,.,, W7-aire =------- et au paramètre audio, la valeur numérique aire du triangle S aire A ACT,, WA =-------=-= !- (-±). La somme des 3 valeurs numériques des aire du triangle S S S
Figure img00210004

paramètres est en effet égale à 1. Le triplet de valeur numérique est donc
Figure img00210005

c r c 7 (WC = , = , WA = 1--±). La figure représente ainsi les labels des trois S S S S
Figure img00210006

paramètres ainsi sélectionnés de façon accentuée, ce qui informe l'utilisateur que les trois paramètres seront pris en compte dans le processus de
<Desc/Clms Page number 22>
recherche. Par contre, la fonctionnalité associée au paramètre audio, est en caractère grisé, elle n'est donc pas activée. En effet, le paramètre audio n'ayant pas la valeur numérique de 1, dans ce mode de réalisation, le microphone n'est pas activé. La requête ne peut donc pas se faire vocalement, mais la recherche prendra en compte le paramètre audio d'une image d'exemple, en tenant compte du poids qui a été attribué à ce paramètre audio à la figure 6d.
En référence à la figure 8, nous allons décrire un autre exemple de réalisation du dispositif de validation de paramètres ici représenté par son interface graphique 4. La figure comporte beaucoup de similarité avec la figure 5 précédemment décrite. La seule différence réside pour la sélection du paramètre couleur, où dans ce mode de réalisation, on peut envisager que l'utilisateur puisse choisir entre deux modes de calcul différents lors de la recherche de similarité entre l'image d'exemple et les autres images de la mémoire 19. Cela peut par exemple être un mode ce calcul basé sur des histogrammes comme nous l'avons décrit dans le mode de réalisation préféré de l'invention. Cela peut être aussi un mode de calcul basé sur la moyenne de la composante couleur sur l'image. Ce mode de calcul n'est pas décrit mais peut être tout à fait envisagé. L'utilisateur a donc la possibilité de choisir entre ces deux modes de calcul, en sélectionnant un mode parmi les deux proposés. Un petit carré situé à proximité du label décrivant le mode souhaité sera alors noirci, indiquant ainsi à l'utilisateur, le mode qu'il a effectivement choisi. Dans cet autre mode de réalisation, les images de la mémoire 19 ont été indexés selon les deux modes de calcul possibles pour le paramètre de couleur. Lors de la requête de l'utilisateur et selon le mode qu'il a choisi, la recherche de similarité se fera alors sur l'index correspondant au mode de calcul. Cet autre mode de réalisation est un exemple non limitatif, il est en effet possible d'étendre les choix de mode de calcul pour un ou plusieurs paramètres offrant ainsi à ces paramètres des fonctionnalités différentes.
Un autre mode de réalisation consisterait à représenter une pluralité de paramètres par un seul sommet. Cette pluralité de paramètres peut par exemple se rapporter à une caractéristique commune de l'image. La
<Desc/Clms Page number 23>
pluralité de paramètres ainsi que la caractéristique commune de l'image seront affichés à proximité du sommet correspondant. Ainsi, en déplaçant le point vers le sommet représentant cette pluralité de paramètres, l'utilisateur choisi de faire une recherche sur la caractéristique correspondante de l'image. Au lieu d'avoir à sélectionner plusieurs paramètres, il n'a qu'à choisir la pluralité de paramètres, ce qui facilite encore son action.
En référence à la figure 7, nous allons à présent décrire l'algorithme illustrant le procédé de validation de paramètres conforme à l'invention. L'étape SI est une étape d'initialisation au cours de laquelle l'interface graphique de la figure 5 est affichée sur l'écran 16 de la figure 1. Le point 200 est positionné par défaut, au stade initial, en haut et à gauche du triangle 100 de la figure 5. Les valeurs du triplet initial sont égales à (1,0, 0) stipulant que par défaut la recherche est basée uniquement sur la couleur. L'étape S1 est suivie de l'étape S2 au cours de laquelle l'utilisateur modifie la position courante du point 200 à l'aide des boutons 300 de l'interface graphique 3. L'étape S2 est suivie de l'étape S3 qui teste si le point est situé
Figure img00230001

sur un sommet du triangle. Si c'est le cas, l'étape S3 est suivie de l'étape S4 qui affecte la valeur 1 à la composante du triplet qui est associée à ce sommet et la valeur 0 aux autres composantes du triplet. L'étape S4 est suivie de l'étape S10 qui teste si la valeur de la première composante du triplet est nulle. Si c'est le cas, l'étape S10 est suivie de l'étape SU qui affiche le label Couleur en caractère grisé ou semi-transparent à l'écran. Si ce n'est pas le cas, l'étape S10 est suivie de l'étape S12 qui affiche le label Couleur de façon accentuée sur l'écran. Les étapes S11 et S12 sont suivies de l'étape S13 qui teste si la valeur de la deuxième composante du triplet w, est nulle. Si c'est le cas, l'étape S13 est suivie de l'étape S14 qui affiche le label Texture en caractère grisé ou semi-transparent à l'écran. Si ce n'est pas le cas, l'étape S13 est suivie de l'étape S15 qui affiche le label Texture de façon accentuée sur l'écran. Les étapes S14 et S15 sont suivies de l'étape S16 qui teste si la valeur de la troisième composante du triplet 14,, est nulle. Si c'est le
<Desc/Clms Page number 24>
Figure img00240001

cas, l'étape S16 est suivie de l'étape S17 qui affiche le label Audio en caractère grisé ou semi-transparent à l'écran. Si ce n'est pas le cas, l'étape S16 est suivie de l'étape S18 qui affiche le label Audio de façon accentuée sur l'écran. Les étapes S17 et S18 sont suivies de l'étape S19 qui teste si la valeur de la troisième composante du triplet w, 4 est égale à 1. Si c'est le cas, l'étape S19 est suivie de l'étape S20 qui affiche le label Microphone correspondant à la fonctionnalité associée au paramètre audio, de façon accentuée sur l'écran. Si ce n'est pas le cas, l'étape S19 est suivie de l'étape S21 qui affiche le label Microphone en caractère grisé ou semi-transparent à l'écran. Les étapes S20 et S21 sont suivies de l'étape S22 qui teste si une action sur le bouton 400 de la figure 5 a été effectué par l'utilisateur. Si ce n'est pas le cas, l'étape S22 est suivie de l'étape S2 précédemment décrite. Si c'est le cas, le processus s'arrête et le procédé de recherche de la figure 4 est lancé.
Si le test de l'étape S3 est négatif, l'étape S3 est suivie de l'étape S5 qui teste si le point est situé sur un côté du triangle (figure 6b). Si c'est le cas, l'étape S5 est suivie de l'étape S6 qui affecte la valeur 0 à la composante du triplet qui est associée au sommet opposé à ce côté. L'étape S6 est suivie
Figure img00240002

de l'étape S7 qui calcule la distance d comprise entre un premier sommet du
Figure img00240003

côté (de longueur D) et le point. La valeur l-d est affectée à la composante D d du triplet associé à ce premier sommet et la valeur-est associée à la D
Figure img00240004

composante du second sommet de ce côté. L'étape S7 est suivie de l'étape S10 précédemment décrite. Si le test de l'étape S5 est négatif, l'étape S5 est suivie de l'étape S8 qui calcule la surface A, T, C des trois triangles inclus dans le triangle original de surface S (figure 6d). L'étape S8 est suivie de l'étape S9
Figure img00240005

c r qui affecte la valeur C à la première composante du triplet, la valeur T à la S S C 7" seconde et la valeur l- (-+ T) à la troisième. L'étape S9 est suivie de l'étape s s
Figure img00240006

S 10 précédemment décrite.
<Desc/Clms Page number 25>
Bien entendu, de nombreuses modifications peuvent être apportées aux modes de réalisation de l'invention décrits ci-dessus sans sortir du cadre de l'invention.

Claims (25)

REVENDICATIONS
1. Procédé de validation de paramètres définissant une image, chaque paramètre étant représenté par un des sommets d'un polygone (100) et pouvant être associé à une ou plusieurs fonctionnalités, un point (200) étant mobile dans le polygone, caractérisé en ce que les paramètres et/ou les fonctionnalités associées sont validés selon la position du point par rapport aux sommets du polygone.
2. Procédé de validation de paramètres selon la revendication 1, caractérisé en ce que la distance entre un des sommets du polygone et le point défini le poids à attribuer au paramètre représenté par le dit sommet.
3. Procédé de validation de paramètres selon la revendication 1 ou 2, caractérisé en ce que le polygone est un triangle (100).
4. Procédé de validation de paramètres selon l'une des revendications 1 à 3, caractérisé en ce que une des fonctionnalités associée à un paramètre est l'utilisation d'un dispositif.
5. Procédé de validation de paramètres selon la revendication 4, caractérisé en ce que le dispositif est un microphone (15).
6. Procédé de validation de paramètres selon la revendication 4 ou 5, caractérisé en ce que le polygone et un label représentatif du dispositif sont affichés sur le même écran.
7. Procédé de validation de paramètres selon l'une des revendications 1 à 6, caractérisé en ce que la disponibilité du dispositif est décidé selon la position du point et en ce que l'intensité de l'affichage du label du dispositif varie selon que le dispositif est disponible ou non.
8. Procédé de validation de paramètres selon l'une des revendications 1 à 7, caractérisé en ce que les paramètres représentés par les trois sommets du triangle sont des paramètres de couleur, texture et audio.
9. Procédé de validation de paramètres selon l'une des revendications 1 à 8, caractérisé en ce que le point est situé à une position prédéterminée à l'intérieur du polygone au stade initial.
<Desc/Clms Page number 27>
10. Procédé de validation de paramètres selon la revendication 9, caractérisé en ce que la position prédéterminée est à proximité d'un des sommets du polygone.
11. Procédé de validation de paramètres selon l'une des revendications 1 à 10, caractérisé en ce que un moyen permettant de déplacer le point dans le polygone est affiché sur le même écran que le polygone.
12. Procédé de validation de paramètres selon l'une des revendications 1 à 11, caractérisé en ce que un moyen permettant de valider la position du point dans le polygone pour valider les paramètres et/ou les fonctionnalités associées, est affiché sur le même écran que le polygone.
13. Procédé de validation de paramètres selon l'une des revendications 1 à 12, caractérisé en ce que les paramètres sont affichés et l'intensité de l'affichage de ces paramètres varie selon la position du point.
14. Procédé de validation de paramètres selon l'une des revendications 1 à 13, caractérisé en ce que les paramètres sont affichés à proximité de leur sommet respectif du polygone.
15. Procédé de validation de paramètres selon l'une des revendications 1 à 14, caractérisé en ce qu'au moins un des sommets du polygone représente une pluralité de paramètres, cette pluralité de paramètres pouvant être validée.
16. Procédé de validation de paramètres selon la revendication 15, caractérisé en ce que la pluralité de paramètres se rapporte à une caractéristique commune de l'image.
17. Procédé de validation de paramètres selon la revendication 16, caractérisé en ce que la pluralité de paramètres est affichée avec la caractéristique de l'image à proximité du sommet du polygone.
18. Dispositif de validation de paramètres définissant une image, chaque paramètre étant représenté par un des sommets d'un polygone (100) et pouvant être associé à une ou plusieurs fonctionnalités, un point (200) étant mobile dans le polygone, caractérisé en ce que le dispositif comporte des
<Desc/Clms Page number 28>
moyens de positionnement du point par rapport aux sommets du polygone pour valider les paramètres et les fonctionnalités associées.
19. Dispositif de validation de paramètres selon la revendication 18, caractérisé en ce qu'il comporte des moyens adaptés à mettre en oeuvre un procédé de validation de paramètres selon l'une quelconque des revendications 2 à 17.
20. Dispositif de validation de paramètres selon la revendication 18 ou 19, caractérisé en ce que les moyens de positionnement du point sont constitués d'un pointeur et d'un moyen d'entrée (22), le dit pointeur étant le point (200) se déplaçant dans le polygone par action sur le moyen d'entrée.
21. Procédé de recherche d'images parmi une pluralité d'images stockées dans une base de données, chacune des images stockées étant associée à une donnée dite index de l'image stockée, représentative d'au moins un paramètre de l'image, caractérisé en ce qu'il comporte au moins une étape de validation de paramètres de recherche selon le procédé de validation de paramètres conforme à l'une des revendications 1 à 17.
22. Dispositif de recherche d'images parmi une pluralité d'images stockées dans une base de données, chacune des images stockées étant associée à une donnée dite index de l'image stockée, représentative d'au moins un paramètre de l'image, caractérisé en ce qu'il comporte des moyens adaptés à mettre en oeuvre un procédé de recherche d'images conforme à la revendication 21.
23. Dispositif de recherche d'images parmi une pluralité d'images stockées dans une base de données, chacune des images stockées étant associée à une donnée dite index de l'image stockée, représentative d'au moins un paramètre de l'image, caractérisé en ce qu'il comporte un dispositif de validation de paramètres conformément à l'une des revendications 18 à 20.
24. Appareil photographique numérique, caractérisé en ce qu'il comporte des moyens adaptés à mettre en oeuvre un procédé de validation de paramètres selon l'une quelconque des revendications 1 à 17, et/ou un procédé de recherche d'images selon la revendication 21.
<Desc/Clms Page number 29>
25. Appareil photographique numérique, caractérisé en ce qu'il comporte un dispositif de recherche d'images conforme à la revendication 22 ou 23.
FR0103316A 2001-03-12 2001-03-12 Procede et dispositif de validation de parametres definissant une image Expired - Fee Related FR2821947B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0103316A FR2821947B1 (fr) 2001-03-12 2001-03-12 Procede et dispositif de validation de parametres definissant une image
US10/094,657 US7079711B2 (en) 2001-03-12 2002-03-12 Method and device for validating parameters defining an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0103316A FR2821947B1 (fr) 2001-03-12 2001-03-12 Procede et dispositif de validation de parametres definissant une image

Publications (2)

Publication Number Publication Date
FR2821947A1 true FR2821947A1 (fr) 2002-09-13
FR2821947B1 FR2821947B1 (fr) 2003-05-16

Family

ID=8860992

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0103316A Expired - Fee Related FR2821947B1 (fr) 2001-03-12 2001-03-12 Procede et dispositif de validation de parametres definissant une image

Country Status (2)

Country Link
US (1) US7079711B2 (fr)
FR (1) FR2821947B1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684675B2 (en) 2002-09-30 2017-06-20 Adobe Systems Incorporated Reduction of search ambiguity with multiple media references
US7184056B2 (en) * 2002-11-20 2007-02-27 Apple Computer, Inc. Method and apparatus for user customized shading of a graphical user interface
US8566750B2 (en) * 2007-12-19 2013-10-22 Bespoke Innovations Sarl System and method for selecting weighting for searching and for presentation of search results
US8441499B2 (en) 2009-08-05 2013-05-14 Apple Inc. User interface contrast filter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751286A (en) * 1992-11-09 1998-05-12 International Business Machines Corporation Image query system and method
US5915250A (en) * 1996-03-29 1999-06-22 Virage, Inc. Threshold-based comparison
WO1999034280A1 (fr) * 1997-12-29 1999-07-08 Koninklijke Philips Electronics N.V. Interface utilisateur graphique permettant de mesurer des parametres d'entree

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US21353A (en) * 1858-08-31 Kjnstry
US19048A (en) * 1858-01-05 Hbnky sanders
US53361A (en) * 1866-03-20 Improved apparatus for desiccating eggs
US3883393A (en) * 1972-05-18 1975-05-13 Us Health Education & Welfare Cell culture on semi-permeable tubular membranes
US3821087A (en) * 1972-05-18 1974-06-28 Dedrick R Cell culture on semi-permeable tubular membranes
CH593339A5 (fr) * 1973-07-02 1977-11-30 Monsanto Co
US4087327A (en) * 1976-04-12 1978-05-02 Monsanto Company Mammalion cell culture process
US4200689A (en) * 1977-11-11 1980-04-29 United States Of America Method of cell culture using a dual circuit, woven artificial capillary bundle
US4206015A (en) * 1977-11-11 1980-06-03 United States Of America Method of simulation of lymphatic drainage utilizing a dual circuit, woven artificial capillary bundle
US4220725A (en) * 1978-04-03 1980-09-02 United States Of America Capillary cell culture device
JPS5642584A (en) * 1979-09-18 1981-04-20 Asahi Chem Ind Co Ltd Cell cultivation method
US4301249A (en) * 1980-07-23 1981-11-17 Merck & Co., Inc. High titer production of hepatitis A virus
US4629686A (en) * 1982-02-19 1986-12-16 Endotronics, Inc. Apparatus for delivering a controlled dosage of a chemical substance
US5192537A (en) * 1984-03-30 1993-03-09 Cellcor Inc. Method of treating renal cell carcinoma using activated mononuclear cells, renal tumor antigen and cimetidine
US5766920A (en) * 1982-08-11 1998-06-16 Cellcor, Inc. Ex vivo activation of immune cells
US4546083A (en) * 1983-04-22 1985-10-08 Stolle Research & Development Corporation Method and device for cell culture growth
EP0383367B1 (fr) * 1983-12-26 1999-03-17 Hitachi, Ltd. Appareil et méthode de traitement de motif graphique
US4721951A (en) * 1984-04-27 1988-01-26 Ampex Corporation Method and apparatus for color selection and production
US4804628A (en) * 1984-10-09 1989-02-14 Endotronics, Inc. Hollow fiber cell culture device and method of operation
US4937071A (en) * 1985-04-23 1990-06-26 New York University Method for augmenting immune response
US4690915A (en) * 1985-08-08 1987-09-01 The United States Of America As Represented By The Department Of Health And Human Services Adoptive immunotherapy as a treatment modality in humans
US5081029A (en) * 1985-09-25 1992-01-14 Oncogen Methods of adoptive immunotherapy for treatment of aids
US4722902A (en) * 1985-11-04 1988-02-02 Endotronics, Inc. Apparatus and method for culturing cells, removing waste and concentrating product
US5002879A (en) * 1986-05-06 1991-03-26 Merrell Dow Pharmaceuticals Treatment of tumors with autologous LAK cells, interleukin-2 and an ornithine decarboxylase inhibitor
US4894342A (en) * 1986-05-12 1990-01-16 C. D. Medical, Inc. Bioreactor system
US4849329A (en) * 1986-05-30 1989-07-18 E. I. Du Pont De Nemours And Company Process for preparing lymphokine activated killer cells
US4971795A (en) * 1986-07-08 1990-11-20 Biomira, Inc. Enhancement of the cellular immune response using carbohydrate primed DTH effector cells expressing the CD5+/CD8- phenotype
WO1988000970A2 (fr) * 1986-08-08 1988-02-11 Regents Of The University Of Minnesota Procede de culture de leucocytes
US4861589A (en) * 1987-03-23 1989-08-29 Trustees Of Boston University Method for therapeutically treating abnormal cells expressing a major histocompatibility complex class II antigen using cytolytic inducer T4 cells
US4808151A (en) * 1987-04-27 1989-02-28 E. I. Du Pont De Nemours And Company Simplified method for the preparation of human lymphokine activated killer cells
US5399347A (en) * 1987-06-24 1995-03-21 Autoimmune, Inc. Method of treating rheumatoid arthritis with type II collagen
US5041289A (en) * 1987-11-13 1991-08-20 Becton Dickinson And Company Method of purging residual tumor cells in vitro with lymphokine activated cytotoxic cells
US5057423A (en) * 1987-12-18 1991-10-15 University Of Pittsburgh Method for the preparation of pure LAK-active lymphocytes
US5015585A (en) * 1988-02-23 1991-05-14 Robinson James R Method and apparatus for culturing and diffusively oxygenating cells on isotropic membranes
US5123901A (en) * 1988-02-25 1992-06-23 Carew E Bayne Method for separating pathogenic or toxic agents from a body fluid and return to body
US4999298A (en) * 1988-04-27 1991-03-12 W. R. Grace & Co.-Conn. Hollow fiber bioreactor culture system and method
US4973558A (en) * 1988-04-28 1990-11-27 Endotronics, Inc. Method of culturing cells using highly gas saturated media
US5858358A (en) * 1992-04-07 1999-01-12 The United States Of America As Represented By The Secretary Of The Navy Methods for selectively stimulating proliferation of T cells
US6352694B1 (en) * 1994-06-03 2002-03-05 Genetics Institute, Inc. Methods for inducing a population of T cells to proliferate using agents which recognize TCR/CD3 and ligands which stimulate an accessory molecule on the surface of the T cells
FR2640638B1 (fr) * 1988-12-20 1991-02-15 Commissariat Energie Atomique Bioreacteur et dispositif pour la culture de cellules animales
US5242687A (en) * 1989-03-15 1993-09-07 Tkb Associates Limited Partnership Method of reducing cellular immune response involving T-cells using CD8-bearing antigen presenting cells
US5162225A (en) * 1989-03-17 1992-11-10 The Dow Chemical Company Growth of cells in hollow fibers in an agitated vessel
US6093872A (en) * 1989-05-05 2000-07-25 Systemix, Inc. Extended human hematopoiesis in a heterologous host
US5399346A (en) * 1989-06-14 1995-03-21 The United States Of America As Represented By The Department Of Health And Human Services Gene therapy
US5437994A (en) * 1989-06-15 1995-08-01 Regents Of The University Of Michigan Method for the ex vivo replication of stem cells, for the optimization of hematopoietic progenitor cell cultures, and for increasing the metabolism, GM-CSF secretion and/or IL-6 secretion of human stromal cells
US5635386A (en) * 1989-06-15 1997-06-03 The Regents Of The University Of Michigan Methods for regulating the specific lineages of cells produced in a human hematopoietic cell culture
US5605822A (en) * 1989-06-15 1997-02-25 The Regents Of The University Of Michigan Methods, compositions and devices for growing human hematopoietic cells
US5763266A (en) * 1989-06-15 1998-06-09 The Regents Of The University Of Michigan Methods, compositions and devices for maintaining and growing human stem and/or hematopoietics cells
US5126132A (en) * 1989-08-21 1992-06-30 The United States Of America As Represented By The Department Of Health And Human Services Tumor infiltrating lymphocytes as a treatment modality for human cancer
US5728388A (en) * 1989-10-03 1998-03-17 Terman; David S. Method of cancer treatment
US5326763A (en) * 1989-10-12 1994-07-05 Allergan, Inc. Methods for using (2-imidazolin-2-ylamino) quinoxaline derivatives
US5126238A (en) * 1990-02-15 1992-06-30 Unisyn Fibertec Corporation Hollow fiber cell propagation system and method
US5656421A (en) * 1990-02-15 1997-08-12 Unisyn Technologies, Inc. Multi-bioreactor hollow fiber cell propagation system and method
US5147289A (en) * 1990-03-29 1992-09-15 Therakos, Inc Non-specific immune system enhancement
US5061620A (en) * 1990-03-30 1991-10-29 Systemix, Inc. Human hematopoietic stem cell
US5147784A (en) * 1990-04-12 1992-09-15 Systemix, Inc. T-lymphocyte progenitor cell assay
US5635387A (en) * 1990-04-23 1997-06-03 Cellpro, Inc. Methods and device for culturing human hematopoietic cells and their precursors
ES2090332T3 (es) * 1990-05-03 1996-10-16 Systemix Inc Tejido linfoide humano en un hospedador inmunocomprometido.
US5229115A (en) * 1990-07-26 1993-07-20 Immunex Corporation Adoptive immunotherapy with interleukin-7
US5470730A (en) * 1990-09-28 1995-11-28 Immunex Method for producing TH -independent cytotoxic T lymphocytes
US5202254A (en) * 1990-10-11 1993-04-13 Endotronics, Inc. Process for improving mass transfer in a membrane bioreactor and providing a more homogeneous culture environment
US5374549A (en) * 1991-01-31 1994-12-20 Terumo Corporation Process of enriching adherent CD4+ T cells from monocyte depleted peripheral blood mononuclear cells with interleukin 2 and interleukin 4
US5206008A (en) * 1991-04-15 1993-04-27 Virginia Commonwealth University Enhancement of immune response
US5872222A (en) * 1991-04-19 1999-02-16 Tanox Biosystems, Inc. Conjugates of polymers and antibodies specific for T lymphocytes, and their use as adjuvants
US5637481A (en) * 1993-02-01 1997-06-10 Bristol-Myers Squibb Company Expression vectors encoding bispecific fusion proteins and methods of producing biologically active bispecific fusion proteins in a mammalian cell
IE922233A1 (en) * 1991-07-10 1993-01-13 Augusto C Ochoa Short-term anti-cd3 stimulation of lymphocytes to increase¹their in vivo activity
US6204058B1 (en) * 1992-02-07 2001-03-20 Vasogen Ireland Limited Treatment of autoimmune diseases
DK0633929T3 (da) * 1992-04-01 2004-06-28 Univ Rockefeller Fremgangsmåde til in vitro proliferation af dendritcelleforstadier og deres anvendelse til at producere immunogener
US5814295A (en) * 1992-04-10 1998-09-29 The Ohio State University Research Foundation Determination of lymph nodes enriched in tumor reactive cells their proliferation and their use in adoptive cellular therapy
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US5466572A (en) * 1992-09-03 1995-11-14 Systemix, Inc. High speed flow cytometric separation of viable cells
WO1994023760A1 (fr) * 1993-04-14 1994-10-27 The United States Of America As Represented By The Secretary Of The Navy Modele d'animal transgenique pour maladies autoimmunes
SG49113A1 (en) * 1993-08-06 1998-05-18 Cytel Corp Methods for ex vivo therapy using peptide-loaded antigen presenting cells for the activation of ctl
US5599705A (en) * 1993-11-16 1997-02-04 Cameron; Robert B. In vitro method for producing differentiated universally compatible mature human blood cells
JP2542988Y2 (ja) * 1993-12-27 1997-07-30 星野楽器株式会社 バスドラムの支持脚構造
US5622857A (en) * 1995-08-08 1997-04-22 Genespan Corporation High performance cell culture bioreactor and method
US5512444A (en) * 1994-03-01 1996-04-30 Ludwig Institute For Cancer Research Method for determining bladder tumors by assaying for MAGE-1,2,3 or 4
US5498537A (en) * 1994-03-09 1996-03-12 Cellco, Inc. Serum-free production of packaged viral vector
US5662813A (en) * 1994-10-21 1997-09-02 Bioseparations, Inc. Method for separation of nucleated fetal erythrocytes from maternal blood samples
US5552805A (en) * 1994-11-25 1996-09-03 Praxisoft, Inc. Method and system for displaying blended colors
AU720201B2 (en) * 1995-03-08 2000-05-25 Scripps Research Institute, The Antigen presenting system and methods for activation of T-cells
US5728581A (en) * 1995-06-07 1998-03-17 Systemix, Inc. Method of expanding hematopoietic stem cells, reagents and bioreactors for use therein
US5627070A (en) * 1995-07-26 1997-05-06 Celltherapy, Inc. Cell growing device for in vitro cell population expansion
US5753506A (en) * 1996-05-23 1998-05-19 Cns Stem Cell Technology, Inc. Isolation propagation and directed differentiation of stem cells from embryonic and adult central nervous system of mammals
US5966126A (en) * 1996-12-23 1999-10-12 Szabo; Andrew J. Graphic user interface for database system
US6194207B1 (en) * 1997-01-31 2001-02-27 Hemosol Inc. Methods for the selective expansion of lymphocytes by in vitro cultivation
JP2002521752A (ja) * 1998-07-24 2002-07-16 ジャーグ コーポレーション オブジェクト検索を実行するための分散コンピュータ・データベースシステム及びその方法
US6129918A (en) * 1998-08-13 2000-10-10 Wakunaga Of America Co., Ltd. Method and pharmaceutical composition for reducing serum homocysteine concentration
US6326988B1 (en) * 1999-06-08 2001-12-04 Monkey Media, Inc. Method, apparatus and article of manufacture for displaying content in a multi-dimensional topic space
US6976229B1 (en) * 1999-12-16 2005-12-13 Ricoh Co., Ltd. Method and apparatus for storytelling with digital photographs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751286A (en) * 1992-11-09 1998-05-12 International Business Machines Corporation Image query system and method
US5915250A (en) * 1996-03-29 1999-06-22 Virage, Inc. Threshold-based comparison
WO1999034280A1 (fr) * 1997-12-29 1999-07-08 Koninklijke Philips Electronics N.V. Interface utilisateur graphique permettant de mesurer des parametres d'entree

Also Published As

Publication number Publication date
US7079711B2 (en) 2006-07-18
FR2821947B1 (fr) 2003-05-16
US20020191021A1 (en) 2002-12-19

Similar Documents

Publication Publication Date Title
US8594440B2 (en) Automatic creation of a scalable relevance ordered representation of an image collection
FR2955681A1 (fr) Systeme pour navigation et exploration d&#39;images de creation
WO2002075591A1 (fr) Procede de navigation par calcul de groupes, recepteur mettant enoeuvre le procede, et interface graphique pour la presentation duprocede
US7730043B1 (en) Incremental batch-mode editing of digital media objects
US20120082378A1 (en) method and apparatus for selecting a representative image
WO2002067142A2 (fr) Dispositif d&#39;extraction d&#39;informations d&#39;un texte a base de connaissances
WO2001044887A2 (fr) Procede de commercialisation de biens ou de services par des moyens electroniques sur des reseaux du type internet
EP2251828A1 (fr) Dispositif et procédé de mise à jour d&#39;un profil utilisateur
FR2807852A1 (fr) Procedes et dispositifs d&#39;indexation et de recherche d&#39;images numeriques prenant en compte la distribution spatiale du contenu des images
FR2821947A1 (fr) Procede et dispositif de validation de parametres definissant une image
EP3202115A1 (fr) Procédé et dispositif de mise en relations d&#39;un ensemble d&#39;informations
FR2887347A1 (fr) Procede et dispositif de construction d&#39;une carte de profondeur d&#39;une image numerique
FR2816793A1 (fr) Dispositif de traitement d&#39;information multimedia
EP1525553A2 (fr) Procede et systeme de localisation automatique de zones de texte dans une image
Jadhav et al. Multimedia data mining in digital libraries: Standards and features
EP1839213A1 (fr) Procede de generation d&#39;index textuel a partir d&#39;une annotation vocale
FR2849706A1 (fr) Procede et dispositif d&#39;acces a des elements multimedia au moyen d&#39;images associees a ces elements
FR2805640A1 (fr) Procede et dispositif de generation d&#39;une image reduite a partir d&#39;une image stockee sous forme compressee dans une base de donnees
EP2082336B1 (fr) Procede de recherche et de reconnaissance rapides d&#39;une image numerique representative d&#39;au moins un motif graphique dans une banque d&#39;images numeriques
FR2953312A1 (fr) Procede de generation d’un resultat d’une recherche effectuee au moyen d&#39;un moteur de recherche
EP2902927B1 (fr) Procédé et dispositif d&#39;étiquetage d&#39;au moins un objet multimédia
FR2802003A1 (fr) Procedes et dispositifs d&#39;indexation et de recherche d&#39;images numeriques prenant en compte la definition de regions d&#39;interet
FR2836567A1 (fr) Procede de montage video
FR2801992A1 (fr) Procede et dispositif de recherche d&#39;images basee sur le contenu prenant en compte la definition de regions d&#39;interet
FR2875627A1 (fr) Procede de determination d&#39;un descripteur d&#39;image, procede de comparaison d&#39;images, procede de recherche d&#39;image et dispositifs associes

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20141128