FR2913510A1 - Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles - Google Patents

Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles Download PDF

Info

Publication number
FR2913510A1
FR2913510A1 FR0701624A FR0701624A FR2913510A1 FR 2913510 A1 FR2913510 A1 FR 2913510A1 FR 0701624 A FR0701624 A FR 0701624A FR 0701624 A FR0701624 A FR 0701624A FR 2913510 A1 FR2913510 A1 FR 2913510A1
Authority
FR
France
Prior art keywords
sensor
terminal
image
data
contextual data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0701624A
Other languages
English (en)
Other versions
FR2913510B1 (fr
Inventor
Jean Marie Vau
Thierry Lebihan
Eric Masera
Christophe Edmond Mauric Papin
Santie Valerie Lourdes Marie Adelbert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR0701624A priority Critical patent/FR2913510B1/fr
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Priority to EP08716167A priority patent/EP2118704A1/fr
Priority to JP2009552110A priority patent/JP2010520688A/ja
Priority to PCT/EP2008/001645 priority patent/WO2008107138A1/fr
Priority to US12/529,932 priority patent/US8339469B2/en
Publication of FR2913510A1 publication Critical patent/FR2913510A1/fr
Application granted granted Critical
Publication of FR2913510B1 publication Critical patent/FR2913510B1/fr
Priority to JP2013264887A priority patent/JP2014116947A/ja
Priority to JP2016014875A priority patent/JP6134825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00342Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with a radio frequency tag transmitter or receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00912Arrangements for controlling a still picture apparatus or components thereof not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00962Input arrangements for operating instructions or parameters, e.g. updating internal software
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Telephone Function (AREA)
  • Accessories Of Cameras (AREA)

Abstract

L'invention se situe dans le domaine de l'imagerie électronique.L'invention concerne un procédé pour déterminer, à partir d'un terminal susceptible de saisir des images, une probabilité de saisie de ces images, en fonction d'informations provenant de données contextuelles fournies par des moyens de saisie. L'invention permet aussi de saisir des données de sons qui sont associées à la saisie d'images. Le procédé permet de déterminer automatiquement, avec un terminal (1) tel qu'un terminal mobile comprenant un premier capteur de données d'image (2A) et au moins un capteur de donnée contextuelle (3), (4), (5) (6), au moins une probabilité qu'une saisie d'une image ou d'une séquence d'images ait lieu dans un intervalle de temps, la probabilité de la saisie étant calculée à partir d'au moins une réponse fournie par un des capteurs de données d'image et/ou de donnée contextuelle activés.Le procédé selon l'invention est utilisé principalement avec des terminaux mobiles de prise de vue, comme par exemple des caméras-téléphones numériques, car la probabilité de saisie permet d'adapter la quantité de données contextuelles saisies aux contraintes sévères en énergie et en capacité de traitement et de stockage des terminaux mobiles, tout en assurant une qualité optimale des données saisies.

Description

PROCEDE POUR DETERMINER AUTOMATIQUEMENT UNE PROBABILITE DE SAISIE D'IMAGES
AVEC UN TERMINAL A PARTIR DE DONNEES CONTEXTUELLES Domaine technique de l'invention L'invention se situe dans le domaine de l'imagerie électronique. L'invention concerne un procédé pour déterminer, à partir d'un terminal susceptible de saisir des images, une probabilité de saisie de ces images, en fonction d'informations provenant de données contextuelles fournies par des moyens de saisie. L'invention permet aussi de saisir des données de sons qui sont 10 associées à la saisie d'images, c'est-à-dire que des sons peuvent être diffusés et modulés lors de la saisie des images. L'invention concerne plus spécifiquement un procédé pour déterminer automatiquement par le calcul, avec un terminal tel qu'un terminal mobile comprenant au moins un capteur d'images et au moins un capteur de donnée 15 contextuelle, qu'une probabilité de saisie d'une image ou d'une séquence d'images (telle qu'une vidéo), ait lieu dans un intervalle de temps. La probabilité de saisie est calculée à partir des réponses fournies par les capteurs. Etat de la technique antérieure Les moyens d'analyse et de traitement ou de compression et décompression 20 d'images numériques constituent des éléments essentiels pour enrichir ou pour adapter des images saisies, reçues ou envoyées avec des terminaux mobiles. La chaîne de l'image , en imagerie mobile, comprend principalement des opérations effectuées sur les pixels d'une image ou d'une séquence d'images, depuis par exemple la saisie (ou capture) de l'image, jusqu'à sa décompression, 25 pour l'afficher et pouvoir la visualiser correctement, par exemple, sur un écran d'un terminal mobile. Le terminal mobile est, par exemple, un téléphone cellulaire ou une caméra-téléphone mobile, encore appelée phone-cam . C'est ainsi, qu'à partir d'une phone-cam, on peut saisir une image ou une séquence d'images; puis, l'image ou la séquence d'images peut ensuite être soumise à différents procédés de 30 traitement de ses pixels. Le traitement d'une image en couleur saisie avec une phone-cam munie d'un capteur CCD consiste, par exemple, en une interpolation CFA (Color Filter Array) avec un algorithme pour traiter chaque pixel de l'image saisie en tenant compte des composantes primaires de couleur, à savoir le rouge, le vert et le bleu. L'image peut être ensuite compressée, pour réduire son poids informatique exprimé en méga-octets ou en giga-octets. On opère, par exemple, une compression de type JPEG (procédé de compression normalisé). Ensuite, l'image est décompressée lorsqu'on veut ouvrir le fichier comprimé pour la visualiser dans de bonnes conditions, par exemple sur l'écran de la phone-cam, et pour écouter éventuellement des données de sons associées aux données de l'image. En imagerie mobile, toutes les opérations décrites ci-dessus sont banales dans la chaîne de l'image. En sus de ces opérations effectuées dans la chaîne de l'image sur des données de pixels, les terminaux mobiles peuvent aussi être munis de capteurs de données adaptés pour acquérir et traiter des données contextuelles diverses associées aux saisies d'images. Le terminal mobile peut, par exemple, être une phone-cam munie d'un module GPS pour mesurer la position géographique du terminal; cette position géographique est une donnée contextuelle qui caractérise, par exemple, le lieu de saisie de l'image. Cette donnée contextuelle est fréquemment utilisée comme une des métadonnées de l'image. Toutefois, ces données contextuelles ne sont associées à l'image qu'en tant que simples métadonnées. C'est-à-dire qu'elles ne contribuent pas à améliorer activement le procédé de saisie d'une séquence d'images ou, plus particulièrement, le procédé de saisie d'une image de la séquence visualisée, par exemple, simultanément sur un écran du terminal mobile. D'autre part, les terminaux mobiles ou portables, comme les caméras- téléphones, sont de tailles réduites et ont des capacités mémoires et énergétiques limitées par essence. La capacité énergétique est limitée, car le terminal mobile est généralement autonome en énergie, et donc muni d'une batterie de faible capacité. L'exploitation efficace des images capturées par des appareils photographiques numériques en vue d'en extraire des informations pertinentes, par 30 exemple le lieu où se passe la scène, les personnes qui sont sur l'image, l'action de la scène, est facilitée par la présence de données additionnelles comme des métadonnées ou des données contextuelles. Ces données permettent d'extraire soit directement, soit après un calcul, des informations clés du contenu sémantique d'une image. La meilleure façon de capturer un contexte pourrait être de le faire continûment avant et après la saisie d'image: la quantité de données contextuelles associées à la saisie de l'image permettrait plus tard, dans la chaîne de l'image , de ne pas rater un événement important. C'est le principe même des systèmes de télésurveillance utilisés dans l'industrie de la sécurité où des capteurs multiples (visuels, infrarouge, audio, etc.) qui sont intégrés dans un environnement pour observer et analyser une même scène. Toutefois, une telle approche ne serait pas viable si elle doit être intégrée dans un terminal mobile, pour des raisons de consommation en énergie et de capacité de traitement et de stockage du terminal. Bien plus, un terminal mobile de capture ou de saisie d'images comme, par exemple, une phone-cam ou un appareil photographie numérique, n'est qu'un élément de la chaîne de l'image ; par conséquent, l'augmentation induite du flux de données à traiter dans le canal de communication, au niveau des différents éléments de la chaîne (visualisation, stockage, impression) rendrait l'utilisation d'un processus d'acquisition continue de données contextuelles impraticable pour des raisons de performance et de facilité d'utilisation du terminal mobile de saisie.
Il devient donc nécessaire de réduire la quantité de données contextuelles à traiter, tout en gardant un niveau de qualité important en vue de leur exploitation efficace. Il y a donc un besoin impérieux, eu égard à ces limitations propres aux terminaux mobiles susceptibles de réaliser des prises de vues, d'optimiser la saisie et la restitution d'images, avec un appareil de saisie tel qu'une phone-cam ou un téléphone cellulaire muni, par exemple, d'un capteur d'images et de capteurs de données contextuelles. Une solution peut consister à exploiter des informations émanant des données contextuelles associées à la saisie d'images. Ceci conduit, à partir de données contextuelles, à interpréter les données contextuelles pour saisir les images dans de bonnes conditions, en déclenchant, par exemple, la capture d'une image avec une résolution de pixels adaptée.
Les données contextuelles sont destinées à optimiser la gestion de la saisie d'une image ou d'une séquence d'images, en tenant compte du contexte qui peut être évolutif ou qui peut changer rapidement dans un environnement d'imagerie mobile, tout en respectant les capacités en mémoires et énergétiques relativement modestes des terminaux mobiles de saisie. Les données contextuelles peuvent donc être acquises et interprétées, par exemple, dès la phase de visualisation opérée au moyen de l'écran d'une phone-cam, avant de saisir une image. L'optimisation de la saisie d'images, à partir de la fourniture de données contextuelles, doit résoudre différents problèmes, par rapport aux contraintes de capacités de calcul et de mémoire ainsi que de puissance, propres aux plates-formes ou aux terminaux mobiles susceptibles de saisir des images. Les problèmes à résoudre sont multiples: la gestion des données contextuelles associées à la saisie d'images, c'est-à-dire la qualité et le procédé d'échantillonnage des données contextuelles et d'images saisies au cours du temps; les moyens de capture et les moyens de traitement des données contextuelles associées aux images capturées; le stockage ou la mémorisation des données d'images, ainsi que des données contextuelles associées; les moyens de traitement des données contextuelles, eu égard aux contraintes de capacités des terminaux mobiles susceptibles de saisir simultanément des images et des données contextuelles.
Exposé de l'invention L'invention concerne un procédé pour déterminer automatiquement, à partir d'un terminal tel qu'une phone-cam, une probabilité de saisie d'images en fonction de données contextuelles associées à ces images. Les données contextuelles et d'images sont saisies avec le terminal. L'adaptation des paramètres de saisie, au cours d'un intervalle de temps incluant la saisie d'images, est faite pour pallier les capacités en mémoire limitées et les capacités énergétiques limitées du teiminal. L'unité centrale ou CPU (Central Processing Unit) du terminal effectue des opérations de calculs et de gestion des transferts de données numériques. Lors de ces opérations, l'unité centrale consomme d'autant plus d'énergie, donc décharge d'autant plus rapidement la batterie du terminal, que la quantité de données à saisir est importante. Le CPU consomme de l'énergie, par exemple, dès que le capteur d'images ou l'écran du terminal sont activés, ou bien dès qu'une pression sur le bouton déclencheur de saisie d'images est exercée. L'adaptation des paramètres de saisie des données numériques d'images permet, par exemple, de ne pas enregistrer un flux vidéo, c'est-à-dire une séquence 5 d'images, en continu et avec une résolution de pixels unique. Un autre exemple d'adaptation des paramètres de restitution de données numériques consiste à ne déclencher l'affichage du flux vidéo sur l'écran du terminal de saisie, qu'à partir du moment où le terminal est placé dans une position particulière par exemple horizontale ou verticale, proche de la saisie.
L'invention a plus particulièrement pour objet un procédé pour déterminer automatiquement, avec un terminal tel qu'un terminal mobile ou portable comprenant un premier capteur de données d'image et au moins un capteur de donnée contextuelle (ou capteur de contexte), au moins une probabilité qu'une saisie d'une image ou d'une séquence d'images ait lieu dans un intervalle de temps, la probabilité de la saisie étant calculée à partir d'au moins une réponse fournie par les capteurs de données d'image et/ou de donnée contextuelle activés. La probabilité de la saisie est calculée en fonction d'une séquence selon laquelle la réponse fournie par au moins un des capteurs de données d'image ou de donnée contextuelle activé dépasse une valeur préétablie, de préférence numérique, du signal de sortie dudit capteur. La probabilité de la saisie permet d'adapter la quantité de données contextuelles saisies aux contraintes sévères en énergie et en capacité de traitement et de stockage des terminaux mobiles, tout en assurant une qualité optimale des données saisies. La séquence représente une série ou une suite ordonnée caractérisant une chronologie des dépassements des valeurs préétablies respectivement pour chaque capteur cornpris dans le terminal mobile. La probabilité de la saisie est généralement exprimée par un nombre réel qui est compris entre 0 (zéro) et 1 (un). Selon un mode de réalisation optimisé de l'invention, le calcul de la probabilité de la saisie et la valeur préétablie peuvent avantageusement être modifiés automatiquement en fonction d'un ensemble de données relatives à un historique des réponses des capteurs et des moments de saisie.
Un objet de l'invention est que les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui sont déterminées en fonction de la probabilité de la capture. Dans un premier mode de réalisation préférentiel, les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui augmentent, avant le moment de la saisie, conjointement avec la probabilité de la saisie. Dans un second mode de réalisation préférentiel, les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui augmentent, avant le moment de la saisie, d'autant plus que l'intervalle de temps qui maximise la probabilité de la saisie est proche de l'instant auquel le calcul de la probabilité de la saisie a eu lieu. Un troisième mode de réalisation peut avantageusement combiner les deux modes de réalisation préférentiels décrits ci-dessus pour, avant le moment de la saisie, augmenter conjointement la qualité de saisie et la fréquence d'acquisition avec la probabilité de la saisie et également augmenter la qualité de saisie et la fréquence d'acquisition, d'autant plus que l'intervalle de temps qui maximise la probabilité de la saisie est proche de l'instant auquel le calcul de la probabilité de la saisie a eu lieu.
Un des objets de l'invention, pour chacun des modes de réalisation décrits ci-dessus, est aussi que les données saisies par les capteurs de données d'image et/ou de donnée contextuelle aient une qualité de saisie des données et une fréquence d'acquisition qui diminuent après le moment de la saisie. La qualité de saisie des données est avantageusement, par exemple une valeur de résolution de pixels de l'image capturée exprimée par une densité de pixels par unité de longueur, ou alors une valeur d'un nombre d'images saisies par seconde, ou bien une valeur exprimant une fréquence de coupure de l'échantillonnage réalisé. La donnée saisie par le capteur de donnée contextuelle est une mesure physique opérée lorsque le capteur est activé. Cette mesure physique est avantageusement opérée en peluianence lorsque le capteur est activé.
Les capteurs de donnée contextuelle sont placés sur le terminal, c'est-à-dire intégré ou incorporés à l'intérieur du terminal, ou bien fixés sur le boîtier du terminal. Chaque capteur de donnée contextuelle permet de saisir une donnée contextuelle qui lui est propre.
Le capteur de donnée contextuelle est, par exemple, un capteur d'inclinaison placé sur le terminal. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal émis par le capteur d'inclinaison correspond à une mesure d'une position horizontale ou verticale du terminal.
Le capteur de donnée contextuelle est, par exemple, un capteur d'accélération placé sur le terminal, tel qu'un accéléromètre, pour mesurer un mouvement imprimé au terminal. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal émis par le capteur d'accélération correspond à une mesure d'une accélération nulle du terminal.
Le capteur de donnée contextuelle est, par exemple, un capteur de pression coopérant avec un bouton déclencheur de saisie d'images propre au terminal. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal émis par le capteur de pression correspond à une pression non nulle exercée sur le bouton déclencheur de saisie d'images.
Le capteur de donnée contextuelle est, par exemple, un capteur de son, tel qu'un microphone, placé dans le teiminal. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal émis par le capteur de son correspond à une valeur de décibels émis par une source sonore extérieure au terminal. La source sonore est, par exemple, un ou plusieurs haut-parleurs reliés à un lecteur de CD (compact disc) placés dans un espace environnant du terminal pour produire une musique enregistrée dans un CD. La musique produite peut ainsi être saisie avec le capteur de son. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal lié au son peut correspondre à une reconnaissance d'un son particulier, tel qu'un rire, un claquement de doigts ou de mains. Le son particulier est émis volontairement, pour signaler à un appareil mobile tel qu'une phone-cam, la proximité d'un événement, par exemple de saisie d'une image. Le son particulier émis volontairement peut aussi simplement participer à l'ambiance sonore lors de la saisie d'image. La reconnaissance d'un son particulier peut être faite par un apprentissage préalable d'une série statistique représentative de sons correspondant à ceux dont on désire qu'ils soient identifiés. Le capteur de donnée contextuelle est, par exemple, un capteur de température placé sur le terminal. Selon un mode de réalisation préférentiel, le terminal est une phone-cam et le capteur de température est compris dans le bouton déclencheur de capture d'images de la phone-cam. Cet agencement permet de mesurer avantageusement la température d'un utilisateur de la phone-cam, au moment où l'utilisateur s'apprête à faire une prise de vues. La température peut, par exemple, traduire le fait qu'une prise de vue est imminente, car elle est corrélée à un niveau de stress d'un individu opérant la prise de vue, et elle traduit donc la concentration du photographe avant la prise de vue. Selon un mode de réalisation particulier de l'invention, le dépassement de la valeur préétablie du signal émis par le capteur de température correspond à une mesure de la température d'une personne qui exerce un toucher du bouton déclencheur de prise de vues. Le capteur de donnée contextuelle est, par exemple, un capteur de résistivité placé sur le terminal, pour mesurer un état émotionnel d'une personne qui exerce un toucher du capteur de résistivité lors d'une préhension du terminal. Dans un mode de réalisation plus élaboré de l'invention, le capteur de donnée contextuelle est un capteur à radiofréquence de type RFID (Radio Frequency Identification) placé sur le terminal, pour détecter des personnes ou des objets présents dans le champ d'action du capteur. La détection de plusieurs personnes, par exemple deux ou trois personnes, peut vouloir signifier qu'une prise de vues avec le terminal est imminente. Dans ce cas, le dépassement de la valeur préétablie du signal émis par le capteur à radiofréquence correspond à une détection d'un nombre de personnes, par exemple deux personnes, présentes dans le champ d'action du capteur RFID. De même, la détection, par exemple, de plusieurs objets marqués d'intérêt via leur puce RFID ou NFC (Near Field Communication), concourt à indiquer la présence d'une scène d'intérêt et donc la probabilité d'une saisie d'image. Dans une variante de ce mode de réalisation plus élaboré de l'invention, le capteur de donnée contextuelle est un second capteur de données d'images placé préférentiellement sur une face arrière du terminal. Le second capteur d'images coopère avec des moyens de détection qui sont intégrés dans le terminal et permettent de détecter un nombre de visages de personnes placées hors du champ de saisie du premier capteur d'images et/ou des informations inhérentes aux visages de ces personnes détectées. Les informations inhérentes aux visages sont avantageusement un état émotionnel; une position, par exemple horizontale, du visage; une vitesse de déplacement du visage relativement au terminal. Dans un mode de réalisation plus classique de l'invention, le capteur de donnée contextuelle peut aussi être, par exemple, un capteur de localisation géographique placé sur le terminal, tel qu'un capteur GPS, pour mesurer une position du terminal dans l'espace. Le dépassement de la valeur préétablie du signal émis par le capteur GPS correspond à une mesure de coordonnées de latitude et de longitude donnant la position du terminal dans l'espace. Les coordonnées de latitude et de longitude sont, par exemple, celles d'un site touristique ou d'un lieu renommés, comme le Piton de La Fournaise sur l'île de la Réunion. Un autre objet de l'invention est de déterminer la probabilité de capture d'une image ou d'une séquence d'images en tenant compte du mode de saisie d'images propre au terminal utilisé pour saisir l'image ou la séquence d'images. Le terminal est avantageusement une phone-cam ou caméra-téléphone numérique comprenant un capteur d'images de type CCD ou CMOS et un écran d'affichage. Préférentiellement, les données saisies lors de la saisie de l'image, ou de la séquence d'images, ou de la vidéo, sont affichées sur l'écran de la caméra-téléphone numérique. Selon ce mode de réalisation de l'invention, la caméra-téléphone numérique permet de sélectionner un mode de saisie d'images. Le terminal, tel que la caméra-téléphone, est muni d'un moyen pour sélectionner le mode de saisie d'images, tel qu'un mode portrait ou paysage ou panoramique ou sport. La valeur du signal émis par le capteur de donnée contextuelle définissant le dépassement est alors préétablie ou calculée en fonction du mode de saisie d'images sélectionné ou programmé. D'autres caractéristiques et avantages de l'invention apparaîtront à la 5 lecture de la description qui suit, faite en référence aux différentes figures. Brève description des figures des dessins La figure 1 représente un terminal muni de moyens de saisie de données pour mettre en oeuvre le procédé selon l'invention. La figure 2 représente un diagramme d'un exemple de mise en oeuvre du 10 procédé selon l'invention. La figure 3 représente des réseaux particuliers de capteurs de contexte utilisés pour mettre en oeuvre l'exemple présenté à la figure 2. Description détaillée de l'invention La description suivante est une description détaillée des principaux modes 15 de réalisation de l'invention, en référence aux dessins dans lesquels les mêmes références numériques identifient les mêmes éléments dans chacune des différentes figures. La figure 1 représente un terminal 1 qui comprend des moyens de saisie d'images et de saisie de données contextuelles associées aux saisies d'images. Le 20 terminal 1 est préférentiellement un terminal mobile comme une caméra-téléphone numérique comprenant un clavier de commande 14 et un écran d'affichage 11. Les moyens de saisie d'images sont, par exemple, un ou plusieurs capteurs d'images de type CCD ou CMOS. Un premier capteur d'images 2A est, par exemple, placé sur la face avant du terminal 1, ladite face avant comprenant l'écran d'affichage 11. 25 Un second capteur d'images 2B est placé sur la face arrière opposée du terminal 1. Le second capteur d'images 2B coopère, par exemple, avec des moyens de détection (non représentés) intégrés dans le terminal 1. Les moyens de détection sont destinés à détecter, par exemple, un nombre de visages de personnes placées hors du champ de saisie du premier capteur d'images 2A et/ou des informations 30 inhérentes aux visages de ces personnes détectées. Les informations inhérentes aux visages sont avantageusement un état émotionnel; une position, par exemple horizontale, du visage; une vitesse de déplacement du visage relativement au terminal 1. les données saisies lors de la saisie d'une image ou d'une séquence d'images, par exemple une vidéo, peuvent être affichées sur l'écran 1l de la 5 caméra-téléphone numérique 1. Les moyens de saisie de données contextuelles sont, par exemple: un capteur d'inclinaison 3 placé sur le terminal pour mesurer une position, dans l'espace, du terminal; un capteur d'accélération 4 placé sur le terminal, tel qu'un accéléromètre, pour mesurer un mouvement imprimé au terminal; un capteur de 10 pression 5 qui peut coopérer avec un bouton déclencheur de saisie d'images 12 propre au terminal 1; un capteur de son 6, tel qu'un microphone, placé dans le terminal 1; un capteur de température 7 placé sur le terminal; un capteur de résistivité 8 placé sur le terminal 1, pour mesurer un état émotionnel d'une personne qui exerce un toucher de ce capteur de résistivité 8 lors d'une préhension 15 du terminal 1; un capteur à radiofréquence 9, par exemple de type RFID, placé sur le terminal 1, pour détecter des objets ou des personnes présents de façon permanente ou transitoire dans le champ d'action du capteur 9 (un objet peut être, par exemple, approché volontairement de la caméra pour être identifié); un capteur de localisation géographique 10 placé sur le terminal 1, tel qu'un capteur GPS, 20 pour mesurer une position du terminal 1 dans l'espace. Dans un mode de réalisation préféré, le capteur de température 7 est compris dans le bouton déclencheur 12 de saisie d'images. Cette disposition du capteur de température 7 permet de mesurer la température d'une personne qui exerce un toucher du bouton déclencheur 12. 25 Dans un mode de réalisation avantageux, les données contextuelles sont saisies et stockées avec une carte mémoire, par exemple flash SD (Secure Digital) ou microSD, qui est insérée dans le teiuiinal mobile 1. Les données contextuelles sont dites associées aux saisies d'images, car des paramètres de saisie de l'image ou de la séquence d'images saisies, sont 30 déterminés en fonction d'une valeur de la probabilité de la saisie. Les paramètres de saisie de l'image ou de la séquence d'images qui établissent la qualité de saisie sont avantageusement, par exemple, une valeur de résolution de pixels de l'image (c'est-à-dire, un nombre de pixels par millimètre) ou un nombre d'images saisies par seconde. La valeur de la probabilité de la saisie est une valeur numérique réelle 5 comprise entre zéro (0) et un (1). La probabilité que la saisie de l'image ou de la séquence d'images ait lieu dans un intervalle de temps est calculée à partir d'au moins une réponse fournie par un des capteurs de données d'image et/ou de donnée contextuelle activés. La probabilité de la saisie est calculée en fonction d'une séquence, selon laquelle la l0 réponse fournie par au moins un des capteurs de données d'image ou de donnée contextuelle activé dépasse une valeur préétablie du signal de sortie dudit capteur. Cette valeur préétablie du signal de sortie du capteur est, de préférence, une valeur numérique. Selon un mode de réalisation préféré, le calcul de la probabilité de la saisie 15 et la valeur préétablie sont modifiés automatiquement en fonction d'un ensemble de données relatives à un historique des réponses des capteurs et des moments de saisie. L'historique des réponses des capteurs et des moments de saisie est, par exemple mémorisé dans une base de données accessible à partir du terminal 1. La fonction technique première des capteurs d'images 2A, 2B est de saisir 20 des données d'image pour produire une image numérique ou une séquence d'images, par exemple une vidéo, auxquelles on associe des données de contexte appelées aussi données contextuelles. Les capteurs de données contextuelles ou capteurs de contexte ainsi que les capteurs d'images relatifs à la mise en oeuvre du procédé selon l'invention peuvent 25 être utilisés comme capteurs de données contextuelles (ou capteurs de contexte). Dans ce cas, leur fonction technique première est de produire des données de contexte qui sont associées à l'image ou à la séquence d'images. Les capteurs d'images ou de données contextuelle peuvent aussi être utilisés comme capteurs de proximité de saisie. Dans ce cas, leur fonction 30 technique première est de déclencher un événement qui régit la mise en oeuvre d'un ou plusieurs capteurs de contexte.
Le capteur d'images peut également faire office de capteur de contexte ou de capteur de proximité de saisie. Un capteur de contexte peut, par exemple, être le capteur d'images, ou faire, simultanément ou non, office de capteur de proximité de saisie. De même, un capteur de proximité de saisie peut être activé et fonctionner simultanément ou non, dans un mode capteur d'images ou faire office de capteur de contexte. Par conséquent,la fonction de certain capteurs du terminal 1 est interchangeable au cours du temps. Les capteurs susceptibles d'être utilisés pour la mise en oeuvre du procédé selon l'invention visant à enrichir une image ou une séquence d'images vidéo avec du contexte, au moment de la saisie de l'image ou de la vidéo, sont préférentiellement, par exemple le capteur d'images 2A, le capteur audio 6, le capteur de pression 5, le capteur d'accélération 4, le capteur d'orientation ou d'inclinaison 3, le capteur de température 7, le capteur de vitesse ou d'accélération 4, le capteur de localisation géographique ou de géolocalisation 10, le capteur à radiofréquence RFID ou NEC. Le moment à partir duquel une caractéristique, appelée critère de déclenchement d'événement (CDE), mesurée à partir de la réponse d'un ou de plusieurs capteurs de proximité de saisie passe au-dessus d'un certain seuil dit d'activation, est appelé événement prédictif de saisie (EPS). Ce seuil représente un niveau de ladite caractéristique qui indique une présomption de prise de vue imminente: par exemple de quelques secondes. Un événement prédictif de saisie est détecté en cas de présomption de prise de vue. Cette prédiction d'une saisie imminente est obtenue à partir de règles heuristiques déduites, par exemple, d'un panel représentatif d'utilisateurs de terminaux ayant une capacité de saisie d'images numériques. Le moment à partir duquel le capteur d'images est programmé et utilisé à des fins de prises de vues, et non plus uniquement de recherche d'événement prédictif de saisie ou de saisie de contexte est appelé point de saisie (PDS). Une session de saisie est l'intervalle de temps entre le moment où le capteur d'images est activé et le moment de sa désactivation. La désactivation peut être volontaire, c'est-à-dire déclenchée par exemple avec un bouton du clavier 14 du terminal 1. La désactivation peut aussi avoir été programmée pour se faire automatiquement. Les mesures effectuées à partir de la réponse de chacun des capteurs de proximité de saisie conduisent à calculer au moins une probabilité de saisie P(t, D) dans un intervalle de temps [t, t+D] subséquent à au moins un EPS. Par exemple, on tabulera, pour chaque combinaison d'EPS, la densité de probabilité associée P(., D). Les densités de probabilité peuvent être déduites avantageusement d'un panel représentatif d'utilisateurs de terminaux ayant une capacité de saisie d'images numériques.
A partir de ces probabilités de saisie, on calcule un indice de probabilité de saisie (IPS). Cet IPS peut prendre une valeur qui est la valeur de probabilité de saisie d'au moins une image pendant le moment ou l'intervalle de temps qui correspond à l'événement prédictif de saisie. Par exemple, IPS peut s'exprimer par le rapport suivant: IPS =P(tEps, +oo) / (1 + argmax (P(tEps + t, 0))) équation 1. Dans l'équation 1, la partie du diviseur argmax (P(tEps + t, 0)) est le moment où la probabilité de saisie est maximale: il s'agit donc du point de saisie (PDS) supposé relatif à l'EPS. Un ensemble particulier de capteurs de données contextuelles dont le déclenchement et l'utilisation coordonnée permet la détection d'un événement prédictif de saisie constitue un réseau particulier de capteurs de contexte (RPCC). On appelle événement d'interruption ou interruption de l'EPS, le moment où P(tEps + t, 0) est inférieure à un certain seuil, par exemple le moment où une valeur d'un signal d'un capteur passe sous un certain seuil.
On appelle plage de saisie de contexte (PSC) l'intervalle de temps compris entre l'EPS et l'interruption. Une succession d'événements prédictifs de saisie et d'interruptions peuvent se produire au cours d'une session de saisie. Ainsi, plusieurs plages de saisie de contexte peuvent coexister temporairement. On définit alors un IPS global qui est calculé à partir de chaque IPS; associé au PSC. Par exemple: IPS global = maximum(IPS;) équation 2.
Chaque plage de saisie de contexte est caractérisée par la mise en oeuvre d'un RPCC, dont chacun des capteurs doit être réglé afin d'acquérir un signal à une qualité de saisie et à une fréquence d'acquisition donnés. Le paramétrage des capteurs de contexte peut être effectué selon deux modes de réalisation: soit une fois pour toutes lors de la création de la plage de saisie de contexte et à partir de l'IPS de chaque plage, ou soit être dépendant et adapté aux autres plages de saisie de contexte en cours à partir de l'IPS global. La figure 2 représente un diagramme d'un exemple de mise en oeuvre du procédé selon l'invention. Le point de saisie PDS est, par exemple, le moment supposé à partir duquel le capteur d'images 2A est utilisé pour saisir une ou plusieurs images. Quatre événements prédictifs de saisie sont représentés: EPS1 ; EPS2 ; EPS3 ; EPS4. Les quatre plages de saisie de contexte respectives correspondantes sont: PSC1 ; PSC2 ; PSC3 ; PSC4. La figure 3 représente, par exemple, les deux premiers réseaux particuliers de capteurs de contexte RPCCI et RPCC2 utilisés pour mettre en oeuvre l'exemple présenté à la figure 2. Ces deux réseaux particuliers de capteurs de contexte RPCC1 et RPCC2 correspondent respectivement aux plages de saisie de contexte PSC1 et PSC2. L'activation de RPCCI associé à PSC1 nécessite un paramétrage de trois capteurs de contexte CC1, CC2 et CC3. L'activation de RPCC2 associé à PSC2 nécessite un paramétrage de trois capteurs de contexte CC3, CC4 et CC5. EPS1 est un moment qui représente par exemple une présomption de prise de vue peu imminente. La qualité de saisie des données de contexte correspondante a tendance à être faible et la fréquence d'acquisition correspondante a tendance à être faible. EPS2 est le moment à partir duquel RPCC2 est activé et la paramétrage des capteurs de contexte CC3, CC4 et CC5 est effectué. Juste avant EPS2, les deux derniers capteurs CC4 et CC5 ne sont pas encore activés ou sont simplement dans un mode ou dans un statut dit de veille. Dans ce dernier mode dit de veille, la saisie de données contextuelles avec les capteurs CC4 et CC5 ne peut être que très lâche.
Les capteurs de contexte CC3, CC4 et CC5 sont paramétrés suivant des règles associées à la plage de saisie de contexte PSC2. Selon le mode de réalisation concerné, le capteur de contexte CC3, commun aux deux réseaux particuliers de capteurs de contexte RPCCI et RPCC2, peut être paramétré différemment. Par exemple, l'événement prédictif de saisie EPS2 étant plus rapproché du point de saisie PDS supposé, on peut choisir une qualité de saisie et une fréquence d'acquisition de données meilleures. Dans ce cas, le choix du paramétrage de la fréquence d'acquisition Fa(CC3) du capteur CC3 est, par exemple: Fa(CC3) = maximum [Fa(CC3) dans EPS1, Fa(CC3) dans EPS2] équation 3. De même, la qualité de saisie des données contextuelles Qc produites par le capteur de contexte CC3 est, par exemple : Qc(CC3) = maximum [Qc(CC3) dans EPS1, Qc(CC3) dans EPS2] équation 4. Selon la figure 2, l'axe horizontal tel que dessiné ne représente pas l'axe du temps au sens strict. En effet, l'événement prédictif de saisie EPS1 n'est pas forcément déclenché avant l'événement EPS2. Par contre, l'événement EPS1 est situé plus loin du point de saisie PDS supposé, en ce sens que: argmax (P(tEps + t, 0)) > argmax (P(tEPS2 + t, 0)) équation 5. Le CDE est calculé directement à partir du signal issu d'un capteur de proximité de saisie, lorsque sa réponse dépasse un certain seuil, dit d'activation. Le seuil d'activation correspond à une valeur préétablie, de préférence numérique, du signal de sortie dudit capteur. Le CDE est déduit directement du signal issu du capteur, après l'application préalable d'un filtrage temporel. Le filtrage temporel permet de lisser les données de mesure et de réduire la sensibilité à des variations locales trop importantes et non représentatives, par exemple du comportement réel de l'utilisateur du terminal 1 de prise de vues, ou de l'évolution réelle de l'environnement de prise de vue autour du terminal 1.
Selon la figure 1, si le capteur de proximité de saisie est par exemple le capteur d'inclinaison 3, ce capteur fournit une mesure (inct) de l'inclinaison du terminal de prise de vues 1 à un instant donné (t), par exemple, par rapport à une position horizontale ou verticale du terminal. Les mesures d'inclinaison sont, par exemple, filtrées (inc't) en temps réel avec un filtre passe-bas; ceci implique éventuellement un léger retard (de quelques dixièmes de secondes) entre la prise de mesure et le test de comparaison à un seuil. Lorsque, par exemple, une horizontalité du terminal de prise de vues 1 est détectée comme devenant une action durable (quelques secondes) et donc interprétable, un événement prédictif de saisie (EPS) est alors déclenché. Dans cet exemple, le CDE est défini comme l'accumulation (accumT inct), pendant un intervalle de temps (T), des valeurs de mesures d'inclinaison filtrées binarisées (bin inct) relativement à un seuil d'horizontalité locale (Sh). Cela signifie que la valeur de mesure d'inclinaison filtrée binarisée vaut zéro (0), si elle est inférieure au seuil d'horizontalité locale. Et la valeur de mesure d'inclinaison filtrée binarisée vaut un (1), si elle est supérieure ou égale au seuil d'horizontalité locale. On note alors : bin inc, = 1 si inc't Sh équation 6.
bin inct = 0 si inc't < Sh équation 7.
Le CDE correspondant vaut alors : accumT inct = bin inct équation 8. tET
L'événement prédictif de saisie (EPS) associé est déclenché lorsque la 15 valeur accumT inct obtenue pendant l'intervalle de temps T est supérieure à un
seuil (Th). Le seuil Th est défini, par exemple, comme étant l'accumulation
successive des échantillons représentatifs d'horizontalité locale Sh au-delà de
laquelle on fait l'hypothèse qu'elle décrit un comportement interprétable du
terminal.
20 Selon la figure 1, si le capteur de proximité de saisie est par exemple le capteur d'accélération 4, ce capteur fournit une mesure (acct) de l'accélération imprimée au terminal de prise de vues 1 à un instant donné (t). L'accélération correspond, par exemple, à un mouvement transmis au terminal 1 par un utilisateur du terminal lors d'une étape préliminaire à une prise de vues.
25 Dans un mode de réalisation amélioré, le terminal 1 peut comprendre plusieurs accéléromètres 4; chacun de ces accéléromètres pouvant fournir une valeur d'accélération mesurée suivant une direction donnée. Le nombre de directions de mesure de l'accélération est avantageusement égal à trois; ceci, pour prendre en compte des accélérations suivant les trois dimensions principales de
30 l'espace. Les mesures d'accélération sont, par exemple, filtrées (acc't) en temps réel avec un filtre passe-bas; ceci implique éventuellement un léger retard (de quelques dixièmes de secondes) entre la prise de mesure et le test de comparaison à un seuil. Lorsqu'une accélération du terminal de saisie 1 est détectée au moins dans une des directions, il est vraisemblable que l'utilisateur du terminal 1 n'est pas encore prêt à saisir la ou les images ,de la scène qui l'intéresse, et qu'il est en train, par exemple, d'identifier une portion de la scène qui l'intéresse plus particulièrement. Un événement prédictif de saisie peut alors être déclenché, lorsque les valeurs d'accélération sont consécutivement inférieures à un seuil (valeur préétablie) pendant un intervalle de temps (T), et cela, quelle que soit la direction envisagée. Dans cet exemple, le CDE est défini comme l'accumulation (accumT acct), pendant l'intervalle de temps T, des valeurs de mesures d'accélérations filtrées acc't binarisées (bin acct) relativement à un seuil d'accélération locale (Sa;). On note alors :
bin acct = 1 si acc't > Sa; V i e [1, 3] équation 9.
bin acct = 0 si acc't < Sa; V i e [1, 3] équation 10.
L'indice i des équations 9 et 10 représente l'une des trois directions
d'accélération, c'est-à-dire que les valeurs d'accélérations doivent être inférieures
au seuil Sa; pour les trois directions, afin que le descripteur bin acct soit fixé à la
valeur de un . Le CDE correspondant vaut alors : accumT acct = bin acct équation 11. t eT L'EPS associé est déclenché lorsque la valeur accumT acct obtenue pendant l'intervalle de temps T est supérieure à un seuil d'accélération locale (Ta). Le seuil Ta est défini, par exemple, comme étant l'accumulation successive des échantillons représentatifs d'une absence d'accélération locale Ta au-delà de laquelle on fait l'hypothèse qu'elle décrit un comportement interprétable du terminal.
Le mode de réalisation décrit est compatible avec le cas où l'utilisateur du terminal 1 saisit une photo ou une vidéo dans un référentiel recevant un mouvement de translation, comme par exemple une voiture ou un train dans lesquels aurait pris place l'utilisateur muni du terminal de prise de vue 1.
Selon la figure 1, si le capteur de proximité de saisie est par exemple le capteur d'image 2A, ce capteur acquiert, par exemple, une trame (imt) à l'instant t. Le capteur de proximité de saisie peut aussi être constitué de deux capteurs d'image 2A et 2B, chacun de ces capteurs saisissant par exemple une image dans une direction donnée. Le terminal de prise de vue 1 est avantageusement un téléphone portable dit de troisième génération, qui présente la caractéristique d'être muni d'une caméra sur une de ses faces (face avant), et d'une autre caméra sur la face opposée (face arrière). Selon un autre mode de réalisation, le terminal de prise de vue 1 est muni de deux optiques dirigées dans le même sens, mais avec des focales et/ou des ouvertures différentes, ou encore avec des sensibilités dans des bandes de fréquences différentes. Dans cet exemple, le capteur de proximité de saisie est également potentiellement un capteur de donnée contextuelle, tout en étant le capteur d'images. Il est par conséquent nécessaire d'établir des règles d'échantillonnage qui permettent de coordonner les saisies au cours du temps, en fonction du statut du ou des capteurs d'images 2A, 2B: mode capteur de proximité de saisie; mode capteur de donnée contextuelle (ou capteur de contexte); mode capteur d'images. Dans le mode de réalisation particulier suivant, le terminal 1 comprend un capteur optique 2A (ou d'images) de résolution native VGA (Video Graphies Array): (640 x 480) pixels. Ce capteur optique est en mode capteur de proximité de saisie et il saisit une image spatialement sous-échantillonnée d'un facteur quatre. La résolution de l'image sous-échantillonnée d'un facteur quatre est donc: (160 x 120) pixels. Dans ce mode de fonctionnement en capteur de proximité de saisie, une saisie est effectuée, par exemple, toutes les secondes (une saisie/ seconde). Supposons qu'un EPS soit déclenché à partir du contenu visuel produit par le capteur optique 2A. Le RPCC associé inclut l'utilisation de ce capteur d'images en mode capteur de contexte. L'EPS signifiant, par définition, une présomption de capture imminente, le capteur 2A est alors réglé aussi en mode capteur de contexte, pour produire par exemple avantageusement des images à une fréquence d'acquisition supérieure et avec une qualité de saisie également supérieure. Dans le même intervalle de temps, le capteur d'images peut rester dans le mode capteur de proximité de saisie, pour détecter d'éventuelles interruptions.
Par conséquent, un capteur donné peut être simultanément réglé dans différents modes, ce qui implique une gestion simultanée de saisies ayant des niveaux différents de qualité et d'échantillonnage. Si, par exemple, le capteur d'images 2A, en mode capteur de proximité de saisie, acquiert en QQVGA (Quarter QVGA) une trame de (160x 120) pixels par seconde, il est possible que ce même capteur, en mode capteur de contexte, saisisse une image par demi ou quart de seconde à une résolution supérieure, par exemple de (320x 240) pixels en QVGA (Quarter VGA). Les saisies, en mode capteur de contexte peuvent ainsi s'intercaler.
Lorsqu'une saisie de contexte est faite en même temps qu'une saisie en mode proximité de saisie (toutes les deux ou quatre images dans l'exemple ci-dessus), un mode de réalisation préféré permet, à partir de l'image ayant la meilleure résolution, de produire une image dérivée qui présente une qualité sous-optimale comparativement avec une résolution cible. Les images peuvent être avantageusement compressées avec une technologie de codage paramétrée et hiérarchique comme JPEG 2000; ceci permet d'utiliser différents niveaux de qualité qui sont directement compris dans les données encodées. Dans l'exemple où les capteurs de données d'images permettent de saisir directement une vidéo, un encodage adaptatif du capteur est effectué, en fonction du statut du capteur. Le mode proximité de saisie génère un jeu de données sous-optimal, lequel est encodé, par exemple, à une qualité de saisie moindre en utilisant moins de trames dites intra-codées (c'est-à-dire qu'il n'y a pas de prédiction temporelle avec les trames voisines qui produisent une qualité supérieure) et plus de trames inter-codées (communément appelées trames P pour predictive et trames B pour backward ). Les données 2D (deux dimensions de l'espace), 3D (trois dimensions), ou (2D+t) dans le cas d'une saisie spatio-temporelle, issues d'un imageur réglé en mode de capteur de proximité de saisie, ne peuvent être exploitées directement, sans une analyse préalable de leur contenu.
De multiples types de CDE (critères de déclenchement d'événements) peuvent être envisagés, à partir, par exemple, d'une présence de visages détectés 21 dans le champ de prise de vue, synonyme d'un intérêt éventuel de l'utilisateur du terminal de prise de vue. Des reconnaissances d'expressions ou de comportements (sourires, moues, yeux ouverts, etc.) peut aussi être utilisées. Dans un mode de fonctionnement du terminal de prise de vue 1 excluant le mode sport pouvant exister sur ce terminal, la diminution de la quantité de mouvement liée aux objets présents dans la scène à photographier, peut également être l'indice que les personnes présentes se préparent par exemple à être filmées ou prises en photo. Une analyse des variations des distributions photométriques et colorimétriques permet de déterminer le moment auquel les conditions de prises de vues sont compatibles avec une saisie d'image de qualité satisfaisante. Lorsque le composant d'analyse d'image dédié au réglage des paramètres de capture du terminal de prise de vue atteint une stabilité en terme de rapport vitesse/ouverture et de sensibilité, il est probable que le point de capture est imminent. Dans le cas où l'imageur réglé en mode de capteur de proximité de saisie détecte, par exemple, la présence d'un visage de face et en gros plan, à un instant (t), l'EPS résultant peut être déclenché dès la détection d'au moins un visage. La détection de visage peut être mise en oeuvre suivant le procédé décrit dans le brevet US 6,940,545. Cet EPS peut, par exemple, déclencher l'activation d'un capteur audio, pour stocker des paroles éventuelles de la personne dont le visage a été détecté. Il est également possible de changer l'état du capteur d'images et de le passer dans le mode capture de contexte, ou bien dans un mode combinant capture de données contextuelles et capture de proximité de saisie. Selon la figure 1, si le capteur de proximité de saisie est le capteur de pression 5, typiquement incorporé dans le déclencheur sur un appareil photographique numérique, alors, une pression moitié moindre de la pression de déclenchement de prise de vue peut initier un EPS. Le mode de fonctionnement de la plupart des appareils photographiques numériques initie la mise au point lorsque l'utilisateur presse à moitié le déclencheur. Cette action détermine donc avec un fort taux de probabilité une saisie d'image imminente.
L'EPS générant un IPS très faible (c'est-à-dire proche de zéro en terme de valeur de probabilité de saisie) est la mise sous tension du terminal de prise de vue 22 1. Les activations des capteurs d'inclinaison 3 et d'accélération 4 induisent un IPS supérieur. La simultanéité des EPS liés à l'inclinaison et à l'accélération induit un IPS global encore plus fort, car elle correspond à une présomption de saisie d'image supérieure.
Les EPS résultant d'une analyse de flux visuels offrent un intervalle temporel de présomption de saisie d'image assez large. La présence de visages dans le champ de prise de vue, synonyme d'un intérêt éventuel impliquant une saisie d'image, ou la reconnaissance ce certaines expressions ou de certains comportements sur un visage (sourire, yeux ouverts, etc.) peut être interprétée différemment, en fonction de la qualité des informations extraites. Un algorithme dit de détection d'objets ou de reconnaissance de formes dans une image ou dans une séquence d'images, à partir d'une analyse de l'image ou de la séquence d'images, permet, par exemple, de détecter un visage dans une zone de l'image avec une probabilité de détection de 85 ,/0. Le procédé selon l'invention permet d'exploiter cette information probabiliste pour pondérer la fréquence d'acquisition et la qualité de saisie des données. La capture de contexte peut aussi être avantageusement fonction de la quantité des informations extraites. Par exemple, la fréquence d'acquisition est plus précise si trois visages pris de face sont détectés, plutôt que deux.
Dans un mode de réalisation avantageux de l'invention, le procédé pour ordonner les EPS est facilité en utilisant d'autres informations, telles que, par exemple, le mode de saisie d'images sur le terminal de prise de vue 1. Le mode de saisie d'images sur le terminal de prise de vue 1 est par exemple sélectionné avec un bouton de mode de saisie 13. Par exemple, les IPS correspondant aux EPS détection de visages et reconnaissance des yeux ouverts et/ou de sourire ont des valeurs de probabilité de saisie plus grande lorsque le mode de saisie sélectionné est le mode portrait . Une faible quantité de mouvement local a également une importance supérieure dans ce mode de saisie. Par contre, dans un mode de saisie paysage , la détection de visages et d'expression a une importance moindre. Dans un mode de saisie sport , une quantité de mouvement local plus important induit un IPS plus élevé. 23 Bien qu'il soit possible d'ordonner les EPS en fonction de la proximité supposée d'une saisie d'image, le procédé selon l'invention permet par exemple que, dès la mise sous tension de l'appareil de prise de vue 1, le déclencheur 12 soit pressé, auquel cas la prise de contexte (saisie de données contextuelles) est opérée immédiatement suivant une qualité de saisie maximale. De même, l'utilisateur peut souhaiter prendre une photographie en inclinant l'appareil de prise de vue 1 de 45 degrés vers la droite, afin de faire un effet particulier. Dans ce cas, l'EPS lié à cette inclinaison n'est pas enclenché. Cependant, d'autres EPS sont déclenchés en lieu et place de celui-ci.
L'échantillonnage des fréquences d'acquisition et de la qualité de saisie des données dépend du type des capteurs. Des adaptations sur la quantification des données saisies, ainsi que sur leur débit, ou sur l'espace servant à les représenter sont à faire. La quantification des données peut être faite, par exemple, avec un stockage sur un nombre de bits plus ou moins réduit. Le débit des données peut être effectué, par exemple, en opérant une compression audio ou vidéo, ou plus généralement une compression avec perte ou sans perte. L'espace servant à représenter les données est, par exemple, monochromatique versus colorimétrique pour l'image, stéréo versus mono pour le son, ou multidirectionnel versus monodirectionnel pour un réseau d'accéléromètres, par exemple.
Dans tous les cas, les règles de sous-échantillonnage temporel et qualitatif sont régies par une généralisation des équations 1 et 2 à un nombre N d'événements prédictifs de saisie. Pour un capteur de contexte CC; donné, la généralisation de l'équation 1 s'écrit: Fa(CC;) = maximum [Fa(CC;) dans EPS1, Fa(CC;) dans EPS2, ... , Fa(CC;) dans 25 EPSN] équation 12. La généralisation de l'équation 3 s'écrit: Qc(CC;) = maximum [Qc(CC;) dans EPS1, Qc(CC;) dans EPS2, ... , Qc(CC;) dans EPSN] équation 13. L'invention a été décrite en détail en faisant référence à des modes de 30 réalisation préférés de celle-ci. Mais, il est évident que des variantes aux modes de réalisation décrits peuvent être apportées à l'intérieur de la portée des revendications.

Claims (31)

REVENDICATIONS
1. Procédé pour déterminer automatiquement, avec un terminal tel qu'un terminal mobile comprenant un premier capteur de données d'image et au moins un capteur de donnée contextuelle, au moins une probabilité qu'une saisie d'une image ou d'une séquence d'images ait lieu dans un intervalle de temps, la probabilité de la saisie étant calculée à partir d'au moins une réponse fournie par un des capteurs de données d'image et/ou de donnée contextuelle activés.
2. Procédé selon la revendication L, dans lequel la probabilité de la saisie est calculée en fonction d'une séquence selon laquelle la réponse fournie par au moins un des capteurs de données d'image ou de donnée contextuelle activé dépasse une valeur préétablie, de préférence numérique, du signal de sortie dudit capteur.
3. Procédé selon la revendication 2, dans lequel le calcul de la probabilité de la saisie et la valeur préétablie sont modifiés automatiquement en fonction d'un ensemble de données relatives à un historique des réponses des capteurs et des moments de saisie.
4. Procédé selon la revendication 2, dans lequel la probabilité de la saisie est exprimée par une valeur numérique comprise entre 0 et 1.
5. Procédé selon la revendication 1, dans lequel les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui sont déterminées en fonction d'une valeur de probabilité de la saisie.
6. Procédé selon la revendication 5, dans lequel les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui augmentent, avant le moment de la saisie, avec la probabilité de la saisie.
7. Procédé selon les revendications 1 ou 6, dans lequel les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie et une fréquence d'acquisition qui augmentent, avant le moment de la saisie, d'autant plus que l'intervalle de temps qui maximise la probabilité de la saisie est proche de l'instant auquel le calcul de la probabilité de la saisie a eu lieu.
8. Procédé selon les revendications 1 ou 7, dans lequel les données saisies par les capteurs de données d'image et/ou de donnée contextuelle ont une qualité de saisie des données et une fréquence d'acquisition qui diminuent après le moment de la saisie.
9. Procédé selon la revendication 1, dans lequel la donnée saisie par le capteur de donnée contextuelle est une mesure physique opérée en permanence lorsque le capteur est activé.
10. Procédé selon l'une quelconque des revendications 5 à 8, dans lequel la qualité de saisie des données est une valeur de résolution de pixels de l'image capturée exprimée par une densité de pixels par unité de longueur. 20
11. Procédé selon l'une quelconque des revendications 5 à 8, dans lequel la qualité de saisie des données est une valeur d'un nombre d'images saisies par seconde.
12. Procédé selon la revendication 1, dans lequel le capteur de donnée 25 contextuelle est un capteur d'inclinaison placé sur le terminal.
13. Procédé selon les revendications 2 et 12, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur d'inclinaison correspond à une mesure d'une position horizontale ou verticale du terminal. 30 27
14. Procédé selon la revendication 1,, dans lequel le capteur de donnée contextuelle est un capteur d'accélération placé sur le terminal, tel qu'un accéléromètre, pour mesurer un mouvement imprimé au terminal.
15. Procédé selon les revendications 2 et 14, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur d'accélération correspond à une mesure d'une accélération nulle du terminal.
16. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un capteur de pression coopérant avec un bouton déclencheur de saisie d'images propre au terminal.
17. Procédé selon les revendications 2 et 16, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur de pression correspond à une pression non nulle exercée sur le bouton déclencheur de saisie d'images.
18. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un capteur de son, tel qu'un microphone, placé dans le terminal.
19. Procédé selon les revendications 2 et 18, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur de son correspond à une valeur de décibels émis par une source sonore extérieure au terminal.
20. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un capteur de température placé sur le terminal.
21. Procédé selon la revendication 20, dans lequel le capteur de température est compris dans le bouton déclencheur de saisie d'images.
22. Procédé selon les revendications 2 et 20, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur de température correspond à une 28 mesure de température d'une personne qui exerce un toucher du bouton déclencheur.
23. Procédé selon la revendication 1,, dans lequel le capteur de donnée contextuelle est un capteur de résistivité placé sur le terminal, pour mesurer un état émotionnel d'une personne qui exerce un toucher du capteur de résistivité lors d'une préhension du terminal.
24. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un capteur à radiofréquence de type RFID ou NFC placé sur le terminal, pour détecter des personnes ou des objets présents dans le champ d'action du capteur.
25. Procédé selon les revendications 2 et 24, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur à radiofréquence correspond à une détection d'un nombre de personnes, par exemple deux personnes, présentes dans le champ d'action du capteur.
26. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un capteur de localisation géographique placé sur le terminal, tel qu'un capteur GPS, pour mesurer une position du terminal dans l'espace.
27. Procédé selon les revendications 2 et 26, dans lequel le dépassement de la valeur préétablie du signal émis par le capteur GPS correspond à une mesure de coordonnées de latitude et de longitude donnant la position du terminal dans l'espace.
28. Procédé selon la revendication 1, dans lequel le capteur de donnée contextuelle est un second capteur de données d'images placé préférentiellement sur une face arrière du terminal, le second capteur d'images coopérant avec des moyens de détection intégrés dans le terminal pour détecter un nombre de visages 29 de personnes placées hors du champ de saisie du premier capteur d'images et/ou des informations inhérentes aux visages de ces personnes détectées.
29. Procédé selon la revendication 28, dans lequel les informations inhérentes aux visages sont un état émotionnel; une position, par exemple horizontale, du visage; une vitesse de déplacement du visage relativement au terminal.
30. Procédé selon la revendication 2, dans lequel le terminal est muni d'un moyen pour sélectionner un mode de saisie d'images, tel qu'un mode portrait ou paysage ou panoramique ou sport, la valeur du signal émis par le capteur de donnée contextuelle définissant le dépassement étant préétablie ou calculée en fonction du mode de saisie d'images sélectionné.
31. Procédé selon la revendication 1, dans lequel le terminal mobile est une caméra-téléphone numérique comprenant un capteur d'images de type CCD ou CMOS et un écran d'affichage. :32. Procédé selon la revendication 31, dans lequel les données saisies lors de la saisie de l'image ou de la séquence d'images sont affichées sur l'écran de la caméra-téléphone numérique. 33. Procédé selon la revendication 5, dans lequel les données contextuelles sont saisies et stockées avec une carte mémoire-flash, par exemple SD (Secure Digital) ou microSD, qui est insérée dans le terminal mobile.25
FR0701624A 2007-03-07 2007-03-07 Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles Active FR2913510B1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR0701624A FR2913510B1 (fr) 2007-03-07 2007-03-07 Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles
JP2009552110A JP2010520688A (ja) 2007-03-07 2008-03-03 コンテクストデータを使用して端末によって画像キャプチャの確率を自動的に決定する方法
PCT/EP2008/001645 WO2008107138A1 (fr) 2007-03-07 2008-03-03 Procédé permettant de déterminer automatiquement une probabilité de capture d'image au moyen d'un terminal en utilisant des données contextuelles
US12/529,932 US8339469B2 (en) 2007-03-07 2008-03-03 Process for automatically determining a probability of image capture with a terminal using contextual data
EP08716167A EP2118704A1 (fr) 2007-03-07 2008-03-03 Procédé permettant de déterminer automatiquement une probabilité de capture d'image au moyen d'un terminal en utilisant des données contextuelles
JP2013264887A JP2014116947A (ja) 2007-03-07 2013-12-24 コンテクストデータを使用して端末によって画像キャプチャの確率を自動的に決定する方法
JP2016014875A JP6134825B2 (ja) 2007-03-07 2016-01-28 コンテクストデータを使用して端末によって画像キャプチャの確率を自動的に決定する方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0701624A FR2913510B1 (fr) 2007-03-07 2007-03-07 Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles

Publications (2)

Publication Number Publication Date
FR2913510A1 true FR2913510A1 (fr) 2008-09-12
FR2913510B1 FR2913510B1 (fr) 2009-07-03

Family

ID=38578678

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0701624A Active FR2913510B1 (fr) 2007-03-07 2007-03-07 Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles

Country Status (5)

Country Link
US (1) US8339469B2 (fr)
EP (1) EP2118704A1 (fr)
JP (3) JP2010520688A (fr)
FR (1) FR2913510B1 (fr)
WO (1) WO2008107138A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428690A (zh) * 2020-04-21 2020-07-17 桂林电子科技大学 一种基于步态信号拓扑分析的身份认证方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100141766A1 (en) * 2008-12-08 2010-06-10 Panvion Technology Corp. Sensing scanning system
EP2449426B1 (fr) 2009-06-30 2019-10-16 Nokia Technologies Oy Capture d'image par commande audio
AU2009243486B2 (en) * 2009-12-02 2012-12-13 Canon Kabushiki Kaisha Processing captured images having geolocations
KR101531449B1 (ko) * 2010-06-30 2015-06-24 노키아 코포레이션 센서의 호출을 제어하기 위한 방법 및 장치
KR101522393B1 (ko) * 2011-04-06 2015-05-21 주식회사 케이티 모바일 단말의 자세 정보에 따라 구분된 인증값을 제공하는 방법, 단말기 및 시스템
CN102918797B (zh) * 2011-05-27 2016-08-17 松下电器(美国)知识产权公司 具有标识显示功能的信息通信设备、以及该设备执行的标识显示方法
WO2013063778A1 (fr) 2011-11-02 2013-05-10 Nokia Corporation Procédé et appareil d'inférence de détection de contexte
WO2014049442A1 (fr) * 2012-09-27 2014-04-03 Aegis Mobility, Inc. Contexte d'un dispositif mobile comprenant des communications en champ proche (nfc)
US9313399B2 (en) 2013-06-14 2016-04-12 Qualcomm Incorporated System and method for identifying people in an image
US20150022635A1 (en) * 2013-07-19 2015-01-22 Blackberry Limited Using multiple flashes when obtaining a biometric image
KR20150021842A (ko) * 2013-08-21 2015-03-03 삼성전자주식회사 시스템 사용성 증진 장치, 방법 및 휴대 기기
CN104580969A (zh) * 2013-10-23 2015-04-29 中兴通讯股份有限公司 录像帧率调整方法和装置
US10074003B2 (en) * 2014-07-11 2018-09-11 Intel Corporation Dynamic control for data capture
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
JP2020099508A (ja) 2018-12-21 2020-07-02 オリンパス株式会社 撮像装置および撮像装置の制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020106202A1 (en) * 2001-02-03 2002-08-08 Hunter Andrew Arthur Portable cameras
US20040046871A1 (en) * 2002-06-20 2004-03-11 Katsuei Ichikawa Photographing apparatus, photographing restrain system, and photographing restrain release system
US20050285944A1 (en) * 2000-10-04 2005-12-29 Mikio Watanabe Recording apparatus, communications apparatus, recording system, communications system, and methods therefor
US20050286879A1 (en) * 2004-06-28 2005-12-29 Nec Corporation Portable electronic device and method of preventing close-up photography by using the portable electronic device

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256289A (ja) * 1995-03-15 1996-10-01 Canon Inc 撮像装置
JPH11355617A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
JP2000013672A (ja) * 1998-06-17 2000-01-14 Konica Corp 電子カメラ
JP4239128B2 (ja) * 2000-03-13 2009-03-18 富士フイルム株式会社 カメラシステム
US6623428B2 (en) * 2001-10-11 2003-09-23 Eastman Kodak Company Digital image sequence display system and method
JP2003204464A (ja) * 2001-10-30 2003-07-18 Yoshikazu Ichiyama プレイバックカメラ
JP2003224761A (ja) * 2002-01-28 2003-08-08 Konica Corp 撮像装置
US20040174434A1 (en) * 2002-12-18 2004-09-09 Walker Jay S. Systems and methods for suggesting meta-information to a camera user
JP2005286474A (ja) * 2004-03-29 2005-10-13 Hitachi Ltd 通信端末
JP2006014074A (ja) * 2004-06-28 2006-01-12 Fuji Photo Film Co Ltd 携帯電話機
JP2006074510A (ja) * 2004-09-02 2006-03-16 Matsushita Electric Ind Co Ltd 遠隔撮像処理装置
US8156116B2 (en) * 2006-07-31 2012-04-10 Ricoh Co., Ltd Dynamic presentation of targeted information in a mixed media reality recognition system
GB2419488B (en) * 2004-10-23 2010-10-27 Hewlett Packard Development Co Image processing
US7606437B2 (en) * 2005-01-11 2009-10-20 Eastman Kodak Company Image processing based on ambient air attributes
US20060282788A1 (en) * 2005-06-10 2006-12-14 Nokia Corporation System and method for creating and utilizing context-sensitive popularity data
TWI285047B (en) * 2005-11-24 2007-08-01 Sunplus Technology Co Ltd Method of automatic exposure control and automatic exposure compensated apparatus
JP4640155B2 (ja) * 2005-12-15 2011-03-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
US7804983B2 (en) * 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
US7864989B2 (en) * 2006-03-31 2011-01-04 Fujifilm Corporation Method and apparatus for adaptive context-aided human classification
US20080052026A1 (en) * 2006-08-23 2008-02-28 Qurio Holdings, Inc. Configuring a content capture device for one or more service providers
US8165405B2 (en) * 2006-12-18 2012-04-24 Honda Motor Co., Ltd. Leveraging temporal, contextual and ordering constraints for recognizing complex activities in video
US20080266429A1 (en) * 2007-04-30 2008-10-30 Texas Instruments Incorporated Adaptive compensation for defective pixels
US8059163B2 (en) * 2007-08-28 2011-11-15 Sony Computer Entertainment Inc. Digital photography using electronic image analysis to identify faces of faces of known subjects in predetermined position
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
JP4492697B2 (ja) * 2007-12-28 2010-06-30 カシオ計算機株式会社 撮像装置、及び、プログラム
US8406531B2 (en) * 2008-05-15 2013-03-26 Yahoo! Inc. Data access based on content of image recorded by a mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050285944A1 (en) * 2000-10-04 2005-12-29 Mikio Watanabe Recording apparatus, communications apparatus, recording system, communications system, and methods therefor
US20020106202A1 (en) * 2001-02-03 2002-08-08 Hunter Andrew Arthur Portable cameras
US20040046871A1 (en) * 2002-06-20 2004-03-11 Katsuei Ichikawa Photographing apparatus, photographing restrain system, and photographing restrain release system
US20050286879A1 (en) * 2004-06-28 2005-12-29 Nec Corporation Portable electronic device and method of preventing close-up photography by using the portable electronic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428690A (zh) * 2020-04-21 2020-07-17 桂林电子科技大学 一种基于步态信号拓扑分析的身份认证方法
CN111428690B (zh) * 2020-04-21 2022-08-09 桂林电子科技大学 一种基于步态信号拓扑分析的身份认证方法

Also Published As

Publication number Publication date
JP2010520688A (ja) 2010-06-10
JP2016129347A (ja) 2016-07-14
US8339469B2 (en) 2012-12-25
JP2014116947A (ja) 2014-06-26
US20100165076A1 (en) 2010-07-01
JP6134825B2 (ja) 2017-05-24
WO2008107138A1 (fr) 2008-09-12
EP2118704A1 (fr) 2009-11-18
FR2913510B1 (fr) 2009-07-03

Similar Documents

Publication Publication Date Title
FR2913510A1 (fr) Procede pour determiner automatiquement une probabilite de saisie d&#39;images avec un terminal a partir de donnees contextuelles
WO2021236296A9 (fr) Maintien de tailles fixes pour des objets cibles dans des trames
CN102939630B (zh) 用于确定关键视频帧的方法
US8558917B2 (en) Transferring of digital images
WO2015014908A1 (fr) Dispositif pour la prise de vue comportant une pluralite de modules cameras
US20170336858A1 (en) Scene-Based Sensor Networks
CN105794194A (zh) 基于视场的遮挡的相机选择
KR20140016401A (ko) 이미지 촬상 방법 및 장치
CN103620682A (zh) 包括感兴趣的特征的视频摘要
EP2795575B1 (fr) Capteur de vision tridimensionnelle integre
WO2014167085A1 (fr) Fusion de plusieurs flux video
EP3028441A1 (fr) Dispositif pour la prise de vue en basse lumière apte à se connecter à un dispositif de type téléphone mobile
CH709324A2 (fr) Dispositif de création de vidéos augmentées.
FR3088458A1 (fr) Procede de reconnaissance et de description contextuelles d&#39;un objet d&#39;interet pour un utilisateur deficient visuel, dispositif mettant en oeuvre ledit procede
KR101431191B1 (ko) 영상보정 시스템, 영상보정방법 및 스마트 영상획득 장치
US12033082B2 (en) Maintaining fixed sizes for target objects in frames
KR102372721B1 (ko) 영상 분석 방법, 사용자 디바이스 및 컴퓨터 프로그램
EP2300997A1 (fr) Systeme de videosurveillance intelligent reconfigurable dynamiquement.
EP4195152A1 (fr) Caméra, système de vision par ordinateur intégrant une telle caméra et flux de données généré par une telle caméra
FR3137517A1 (fr) Procede de selection de portions d’images dans un flux video et systeme executant le procede.
FR3079060A1 (fr) Reconstruction tridimensionnelle participative
CN117409449A (zh) 图像处理方法、装置、电子设备以及存储介质
CN117409184A (zh) 图像处理方法、装置、电子设备以及存储介质
FR2983996A1 (fr) Dispositif et procede d&#39;affichage d&#39;une image
EP1521448A1 (fr) Procédé de gestion de la prise de photos numériques

Legal Events

Date Code Title Description
TP Transmission of property

Owner name: APPLE INC., US

Effective date: 20130515

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17