FR2878641A1 - Procede de navigation automatique contrainte vers des regions d'interet d'une image - Google Patents

Procede de navigation automatique contrainte vers des regions d'interet d'une image Download PDF

Info

Publication number
FR2878641A1
FR2878641A1 FR0412647A FR0412647A FR2878641A1 FR 2878641 A1 FR2878641 A1 FR 2878641A1 FR 0412647 A FR0412647 A FR 0412647A FR 0412647 A FR0412647 A FR 0412647A FR 2878641 A1 FR2878641 A1 FR 2878641A1
Authority
FR
France
Prior art keywords
interest
image
region
mobile terminal
initial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0412647A
Other languages
English (en)
Other versions
FR2878641B1 (fr
Inventor
Jean Marie Vau
Christophe Edmond Mauric Papin
Kazuki Nicolas Chhoa
Olivier Alain Christian Furon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellectual Ventures Fund 83 LLC
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Priority to FR0412647A priority Critical patent/FR2878641B1/fr
Priority to EP05803481A priority patent/EP1815316A1/fr
Priority to JP2007541741A priority patent/JP2008526054A/ja
Priority to US11/719,986 priority patent/US20090034800A1/en
Priority to PCT/EP2005/011869 priority patent/WO2006056311A1/fr
Priority to CNA2005800404998A priority patent/CN101065722A/zh
Publication of FR2878641A1 publication Critical patent/FR2878641A1/fr
Application granted granted Critical
Publication of FR2878641B1 publication Critical patent/FR2878641B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)

Abstract

L'invention se situe dans le domaine technologique de l'imagerie numérique. L'invention concerne plus spécifiquement un procédé de navigation automatique entre une image numérique (8) et une région d'intérêt (14), (15) de cette image (8).Le procédé selon l'invention permet, à partir de l'affichage de l'image initiale (8) sur un écran d'affichage (2) d'un terminal mobile (1) comprenant un moyen de détection de mouvement (4), de naviguer automatiquement vers une région d'intérêt (14) ou (15) de l'image initiale (8), sans commande manuelle, et simplement en transmettant par exemple un mouvement d'inclinaison au terminal (1) dans la direction de la région d'intérêt (14), (15).Le procédé selon l'invention est utilisé avec les terminaux portables ou mobiles, comme par exemple les téléphones cellulaires ou les caméras-téléphones.

Description

1.
PROCEDE DE NAVIGATION AUTOMATIQUE CONTRAINTE VERS DES
REGIONS D'INTERET D'UNE IMAGE Domaine technique de l'invention L'invention se situe dans le domaine technologique de l'imagerie numérique. L'invention concerne plus spécifiquement un procédé de navigation automatique, à partir d'un terminal mobile ou portable muni d'un écran d'affichage, entre une image numérique et une ou plusieurs régions d'intérêt de cette image, en procédant directement à un déplacement physique du terminal mobile. Le terme navigation correspond au passage de l'affichage d'une image numérique initiale à l'affichage d'une région d'intérêt de cette image initiale. Etat de la technique antérieure Les images numériques capturées par des caméras ou appareils photo numériques sont ensuite fréquemment affichées sur des écrans d'affichage de terminaux portables. Les terminaux portables ou mobiles sont des moyens de communication phonique et visuelle de plus en plus répandus. Les terminaux mobiles, comme par exemple les appareils photo numériques, les téléphones cellulaires équipés ou non de moyens de capture, les assistants personnels ou PDA (Personal Digital Assistant), ou encore les lecteurs-afficheurs multimédias portables (par exemple, l'iPod photo) ont des formes géométriques telles qu'ils sont facilement manipulables, et peuvent être placés dans le creux de la main d'un utilisateur. Lorsqu'une image est affichée sur l'écran, par exemple d'un téléphone cellulaire, la taille de l'écran n'est pas forcément suffisante pour afficher l'ensemble des pixels d'une image dans de bonnes conditions. De plus, l'utilisateur du terminal peut éprouver le besoin de pouvoir se déplacer vers une zone particulière de l'image, parce qu'il y trouve un intérêt. Pour mieux voir la zone particulière d'intérêt, communément appelée région d'intérêt , l'utilisateur peut effectuer, dans l'image initiale affichée, une opération de sélection de la région d'intérêt. La sélection de la région d'intérêt peut être effectuée de manière automatisée juste avant la navigation, en même temps que la navigation, ou encore préalablement et indépendamment de celle-ci. Cette sélection permet de pouvoir afficher la région d'intérêt en plein écran, pour obtenir un agrandissement de la zone sélectionnée dans l'image initiale.
La demande internationale de brevet WO 2004/066615 divulgue des terminaux mobiles ou portables, ayant des écrans de taille réduite, comme par exemple un téléphone cellulaire mobile. Le téléphone cellulaire mobile est muni de moyens pour détecter un mouvement imprimé au téléphone, comme par exemple un capteur optique ou un accéléromètre. Ceci permet de naviguer à partir d'une image initiale, c'est-à-dire, par exemple, se déplacer dans le plan d'une image affichée à une résolution supérieure à celle de l'écran, ou encore tourner une image initiale affichée, respectivement par translation ou rotation du téléphone dans l'espace, ou bien effectuer un zoom dans cette image initiale, par un déplacement du téléphone dans une direction perpendiculaire au plan de l'écran du téléphone. Ceci permet de limiter l'utilisation des touches de commande manuelles du clavier du téléphone, tout en naviguant avantageusement dans une image pour pouvoir afficher différentes zones de cette image, et effectuer des agrandissements le cas échéant. Toutefois, la demande internationale de brevet WO 2004/066615 ne divulgue pas de moyens permettant d'optimiser la navigation vers une région d'intérêt, et de réduire le nombre de clics à opérer avec les boutons de commande du terminal portable pour, à partir d'une image initiale affichée, naviguer de façon entièrement automatique (sans clic, ou avec zéro clic) afin d'afficher une région d'intérêt de l'image initiale.
Exposé de l'invention L'invention a pour objet, à partir d'une image initiale affichée sur l'écran d'un terminal mobile, de naviguer de façon robuste, conviviale, et sans aucun clic, vers des zones ou régions d'intérêt choisies dans l'image initiale. Par exemple, aucun clic ou interaction avec un clavier ou un stylet ne sont nécessaires pour zoomer, d'une image initiale affichée en plein écran vers une région d'intérêt appartenant à cette image initiale. Il suffit d'imprimer ou de transmettre un mouvement particulier au terminal portable, pour que l'image initiale se transforme progressivement et automatiquement en une autre image qui représente une région d'intérêt de l'image initiale. La région d'intérêt est avantageusement affichée automatiquement en plein écran sur le terminal mobile. La région d'intérêt n'est pas forcément choisie, en tant que telle, par l'utilisateur du terminal mobile. L'extraction de la région d'intérêt est, dans ce cas, effectuée préalablement à l'opération de navigation à partir de métadonnées encodées conjointement à l'image, et intégrées par exemple dans l'en-tête, ou dans un fichier attaché.
L'invention a également pour objet d'assister et de faciliter le calcul des déplacements induits par les mouvements du terminal mobile, et d'optimiser la convergence, c'est-à-dire le zoom, vers la ou les régions d'intérêt. En particulier, la connaissance de la ou des régions d'intérêt vers lesquelles l'utilisateur souhaite naviguer, permet de contraindre avantageusement l'espace de recherche utilisé lors de l'estimation du mouvement du terminal, notamment dans le cas où les données exploitées seraient issues d'un capteur optique. La connaissance préalable de la trajectoire 3D (en trois dimensions) à suivre pour converger vers une région d'intérêt, permet d'optimiser les caractéristiques des images intermédiaires à afficher, ainsi que celles des paramètres de transformation à appliquer.
L'invention a pour objet de faciliter et d'optimiser la navigation intraimage, à partir d'un terminal mobile muni d'un écran d'affichage. Plus spécifiquement, l'invention a pour objet un procédé pour naviguer automatiquement vers une région d'intérêt d'une image initiale, avec un dispositif 20 comprenant un terminal mobile, un moyen de détection de mouvement, un moyen d'affichage, le procédé comprenant les étapes suivantes: a) afficher l'image initiale sur le moyen d'affichage; b) déterminer automatiquement au moins une zone de pixels de l'image initiale, la zone de pixels représentant une région d'intérêt de l'image 25 initiale; c) mesurer automatiquement, avec le moyen de détection de mouvement, des changements spatio-temporels induits par un déplacement du terminal mobile; d) associer automatiquement les données de pixels propres aux régions 30 d'intérêt détectées en b) et les changements spatio-temporels mesurés en c) pour estimer automatiquement une information de mouvement; e) naviguer automatiquement, à partir de l'information de mouvement et en utilisant les données de pixels propres aux régions d'intérêt de l'image initiale, vers la région d'intérêt déterminée, par un affichage consécutif d'images intermédiaires; f) afficher automatiquement l'image de la région d'intérêt en plein écran sur le moyen d'affichage.
Le procédé selon l'invention permet donc l'affichage automatique de l'image de la région d'intérêt sur le moyen d'affichage du terminal mobile.
L'invention a pour objet de déterminer automatiquement une région d'intérêt qui a été identifiée préalablement à l'affichage de l'image initiale, et qui a été stockée ou mémorisée de façon formatée dans l'entête de l'image initiale, ou qui a été mémorisée de façon indépendante en tant que fichier interprétable par le moyen de détection de changements spatio-temporels.
L'invention permet aussi que la détermination de la région d'intérêt soit 15 activée préalablement et consécutivement à une demande de navigation d'image.
La détermination de la région d'intérêt peut aussi, selon l'invention, être raffinée pendant l'étape de navigation.
L'invention a également pour objet que la détermination de la région d'intérêt soit contrainte à une zone déterminée par la direction obtenue par le 20 moyen de détection de changements spatio-temporels.
L'invention a aussi pour objet un procédé dans lequel l'image initiale comprend une pluralité de régions d'intérêt, pouvant être affichées successivement sur le moyen d'affichage.
D'autres caractéristiques et avantages apparaîtront à la lecture de la 25 description qui suit, faite en référence aux dessins des différentes figures. Brève description des figures La figure 1 représente un exemple de terminal mobile pour mettre en oeuvre le procédé selon l'invention.
La figure 2 représente une image initiale destinée à être transformée selon 30 le procédé de l'invention.
La figure 3 représente une image transformée automatiquement à partir de l'affichage de l'image initiale.
Description détaillée de l'invention
La description suivante décrit les principaux modes de réalisation de l'invention, en référence aux dessins, dans lesquels les mêmes références numériques identifient les mêmes éléments dans chacune des différentes figures.
La figure 1 représente un terminal mobile 1, par exemple un téléphone cellulaire. Le terminal mobile 1 peut aussi être un appareil photo numérique, une caméra numérique, une caméra-téléphone (phonecam), un lecteur-afficheur numérique, un assistant personnel numérique PDA (Personal Digital Assistant), ou bien une tablette PC. Le téléphone cellulaire 1 comprend avantageusement un écran d'affichage 2 et un clavier 3. Le terminal mobile comprend également un moyen de détection de mouvement 4. Dans un mode de réalisation avantageux, le moyen de détection de mouvement 4 exploite les données issues d'un ou de plusieurs capteurs optiques. Le capteur optique est placé avantageusement sur la face arrière opposée à l'écran 2.
Dans un mode de réalisation privilégié, le procédé de navigation comprend notamment quatre étapes distinctes, qui sont appliquées successivement ou simultanément, et qui fonctionnent en une boucle fermée de navigation. Cela signifie que la dernière étape des quatre étapes du procédé de navigation actionne de nouveau la première de ces étapes, et cela jusqu'à ce que l'utilisateur souhaite stopper le procédé de navigation dans une image donnée. La mise en oeuvre ou activation simultanée ou successive de ces quatre étapes est appelée itération, et permet de produire une image intermédiaire (voir ci-dessous). Le procédé de navigation est donc généralement composé de plusieurs itérations (production de plusieurs images intermédiaires). La première étape du procédé de navigation est, par exemple, la phase d'acquisition qui permet d'acquérir, à l'aide d'un capteur de données, les informations nécessaires à l'analyse du déplacement du terminal mobile 1. Il s'agit, par exemple, d'un couple d'images venant d'être capturées à une certaine fréquence d'acquisition par le ou les capteurs optiques embarqués dans le terminal mobile 1. La deuxième étape du procédé de navigation d'image est, par exemple, la phase de détermination des régions d'intérêt. Cette deuxième étape a pour but de fournir automatiquement, par exemple, un ensemble de données de pixels sur les régions d'intérêt, c'est-à-dire sur les zones de l'image initiale 8 susceptibles de présenter de l'intérêt pour l'utilisateur, par exemple en terme sémantique ou contextuel. Cette phase de détection de régions d'intérêt peut s'appuyer avantageusement sur une méthode de détection de régions d'intérêt s'appliquant automatiquement au début de la phase de navigation, mais peut également chercher à exploiter, si possible, des métadonnées déjà extraites et formatées précédemment. Ces métadonnées fournissent l'ensemble des informations nécessaires qui permettent de définir et d'exploiter les régions d'intérêt de l'image initiale 8. Il est important de noter que dans un mode préférentiel de mise en oeuvre, cette détection de régions d'intérêt n'est effectuée qu'une fois au début du procédé de navigation.
Dans une variante du mode de réalisation précédent, l'étape de détermination de régions d'intérêt peut également être exclue de la boucle fermée de navigation. Hormis lors de la première itération où elle est effectivement utilisée, le rôle de cette étape, au cours des itérations ultérieures, se limite à fournir les informations de régions d'intérêt extraites précédemment.
Un mode de réalisation avantageux de l'invention permet de raffiner les 20 régions d'intérêt détectées. Dans ce cas, cette phase de détection de régions d'intérêt est activée à chaque itération du procédé de navigation.
La troisième étape du procédé de navigation est l'estimation du mouvement de navigation contrainte. L'estimation du mouvement fait appel au moyen de détection de mouvement 4. Cette étape d'estimation du mouvement exploite les données issues des deux premières étapes, c'est-à-dire des étapes d'acquisition et de détermination des régions d'intérêt. Ces premières et secondes étapes sont donc des étapes pré requises, indispensables pour opérer l'étape d'estimation du mouvement. Le fonctionnement de la troisième étape est conditionné par la seconde étape. Ceci explique pourquoi on parle d'estimation de mouvement conditionnée. Le moyen de détection de mouvement 4 récupère par exemple un couple d'images venant d'être capturées par le ou les capteurs optiques à une certaine fréquence d'acquisition, et estime, à partir de cette information spatio-temporelle, le mouvement appliqué au terminal 1, au moment de l'acquisition du couple d'images. La mesure de mouvement fournit une amplitude et une direction de mouvement, ainsi qu'une caractérisation du type de ce mouvement, par exemple un zoom, une translation, une rotation ou un changement de perspective. Le champ de mouvement estimé peut être local ou global; il peut également être obtenu à l'aide d'estimateurs de champ dense ou grâce à l'utilisation de modèles paramétriques, et peut par exemple permettre de différencier le mouvement dominant d'autres mouvements dits secondaires (tremblement de l'utilisateur, autres objets mobiles dans la scène perturbant l'analyse de la mesure du déplacement du terminal mobile 1) par l'utilisation d'estimateurs robustes. Le moyen de détection de mouvement 4 reçoit des données fournies par un ou plusieurs capteurs optiques, ou un ou plusieurs accéléromètres, ou bien une combinaison de capteurs optiques et d' accéléromètres, tous intégrés au terminal 1.
Les mouvements peuvent également être calculés en fonction de la mesure des mouvements antérieurs, en utilisant un procédé de filtrage temporel. Le moyen de détection de mouvement 4 est dans ce cas constitué de deux modules pouvant être ou non distinct et agissant successivement ou en parallèle; le premier de ces modules estimant le mouvement appliqué au terminal mobile 1 en utilisant les données issues du capteur et le deuxième module exploitant les informations de mouvement fournies par le premier module afin de les filtrer temporellement, c'est-à-dire par exemple dans le but de contraindre si nécessaire les grands écarts de déplacements entre deux instants. Le moyen de détection de mouvement 4 calcule la direction du mouvement transmis au terminal mobile 1.
La quatrième et dernière étape du procédé de navigation contrainte est l'étape d'affichage, qui exploite les informations de mouvement détectées lors de l'étape d'estimation de mouvement, et peut également utiliser les caractéristiques des régions d'intérêt fournies lors de l'étape de détermination des régions d'intérêt. Cette étape d'affichage prend en compte l'ensemble des données de mouvement et de régions d'intérêt, ainsi que les caractéristiques de l'écran d'affichage 2 et de l'image originale 8, afin d'adapter ou de transformer au mieux cette image originale 8 en fonction de la région d'image affichée à l'instant courant et de la région vers laquelle veut naviguer l'utilisateur. Contrairement à l'étape d'estimation de mouvement, l'utilisation des données de régions d'intérêt n'est pas nécessaire à cette étape, mais néanmoins conseillée. L'affichage de la portion d'image correspondant au mieux au stimulus appliqué par l'utilisateur, est effectué en plein écran. La mise en oeuvre de cette dernière étape active de nouveau la phase de capture qui fourni à son tour les données nécessaires aux étapes ultérieures du procédé de navigation d'image. La capture peut également être à nouveau activée dès la fin de l'étape d'estimation du mouvement. Plusieurs processus, voire plusieurs processeurs, peuvent également travailler simultanément, en prenant en compte les contraintes du procédé de l'invention, explicitées ci-dessus. L'affichage successif de différentes images dites intermédiaires donne la sensation de navigation ou de parcours le long et dans l'image initiale 8.
Les terminaux mobiles ont un design ou un facteur de forme qui leur est propre, et qui est prévu pour qu'ils soient manipulés facilement par l'utilisateur, de par leur portabilité. Des procédés de navigation connus, comme celui qui est divulgué dans la demande de brevet WO 2004/066615, permettent de se déplacer dans une image ou de faire un zoom, en imprimant un mouvement de translation au terminal mobile. Ce principe technique est repris dans le procédé de la présente invention. Autrement dit, comme décrit dans le document WO 2004/066615, des mouvements de translation ou de zoom, respectivement le long des axes 5, 6, ou 7, permettent, à partir de l'affichage d'une image initiale 8, de naviguer par rapport à ladite image 8, pour obtenir l'affichage d'une autre image. L'autre image comprend, par exemple, une région présente dans l'image initiale, et une autre région qui n'était pas présente dans l'image initiale. Les axes 5, 6, et 7 définissent préférentiellement un repère orthogonal à trois dimensions. Dans la figure 1, les axes 5, 6, 7 sont donc orthogonaux deux à deux. Dans la technique antérieure, pour sélectionner une partie seulement de l'image initiale affichée 8, c'est-à- dire une région d'intérêt de l'image 8, un curseur 9 pouvant être affiché à l'écran 2, est utilisé en combinaison avec une touche du clavier 3, ce qui permet de définir une fenêtre de sélection d'une partie de l'image initiale 8. Cette partie sélectionnée de l'image initiale 8, est ensuite par exemple zoomée, c'est-à-dire affichée agrandie à l'écran. Cette dernière manipulation est connue de la technique antérieure, mais présente l'inconvénient d'obliger l'utilisateur du terminal mobile à définir, en la sélectionnant manuellement, la zone ou région d'intérêt en se servant d'au moins une des touches du clavier 3, puis ensuite de valider, par exemple par un clic de commande, la région d'intérêt sélectionnée.
Un premier objet de l'invention est d'éliminer les manipulations manuelles opérées dans la technique antérieure en réduisant à zéro le nombre d'opérations manuelles ou de clics à opérer avec le clavier 3 du terminal mobile 1, lorsque l'utilisateur désire afficher une région d'intérêt d'une image initiale 8.
Un second objet de l'invention est de contraindre la navigation, et notamment d'améliorer les performances des étapes d'estimation du mouvement et d'exploitation des informations de mouvements produites en vue de l'affichage d'une image transformée.
Un troisième objet de l'invention est de réduire au maximum le temps pour afficher en plein écran une région d'intérêt choisie dans une image initiale 8, en opérant de façon rapide, intuitive, et conviviale.
Le procédé de l'invention a donc notamment pour but d'éliminer les inconvénients de la technique antérieure, en éliminant les opérations manuelles pour naviguer dans une image. Les opérations de translation successives permettent de naviguer, à partir d'une image initiale affichée. Une translation du terminal mobile, par exemple suivant les directions des axes 5 ou 6, permet de se déplacer (naviguer) par rapport à l'image initiale, afin d'afficher une autre image qui contient une zone de pixels qui n'apparaissaient pas à l'écran lors de l'affichage de l'image initiale; ceci, si la résolution d'affichage est inférieure à la résolution de l'image à afficher. Le zoom est obtenu, par exemple en translatant le terminal mobile suivant la direction de l'axe 7; l'axe 7 est perpendiculaire au plan formé par les axes 5 et 6. Un inconvénient de la technique antérieure est que la faible capacité de calcul de certains terminaux mobiles, la faible qualité des capteurs optiques, et la nécessité de calculer des données en temps réel, contraint à utiliser des estimateurs de mouvements peu complexes. Ces estimateurs de mouvements peu complexes ne permettent pas de mesurer finement des champs de mouvement complexes, tels que des combinaisons de plusieurs mouvements de translation et de zoom, des mouvements spécifiques de plusieurs objets ou entités placés dans le champ observé, des mouvements de fortes amplitudes, ou encore des changements de perspective.
L'estimation, par exemple des vecteurs de déplacement ou des paramètres d'un modèle mathématique à partir d'un espace de recherche non contraint, peu s'avérer peu robuste. Ce manque de robustesse peut se traduire, d'une part par des mesures de mouvement erronées provoquant des translations ou des zooms intempestifs et incorrects lors de l'étape de navigation, et d'autre part, par une certaine difficulté à converger aisément et rapidement vers une région d'intérêt. Il n'y a donc pas une adéquation parfaite entre les mouvements appliqués au terminal mobile 1 par l'utilisateur, et les transformations appliquées à l'image lors de la navigation. Le procédé selon l'invention a pour but d'éliminer ces inconvénients, qui conduisent à une navigation laborieuse et/ou imprécise.
Selon la figure 2, l'invention a pour but d'utiliser le résultat d'une détection ou d'une sélection préalable de région(s) d'intérêt, comme par exemple les régions d'intérêt 10, 1 l de l'image initiale 8, pour contraindre, et donc améliorer, la phase d'estimation du mouvement entre deux instants (mesure du mouvement et éventuellement filtrage temporel de ces mesures), ainsi que la phase d'affichage (adaptation et/ou transformation de l'image initiale 8 en vue de son affichage). Ces informations de mouvement peuvent être, par exemple, des vecteurs de déplacement ou les paramètres d'un modèle mathématique. L'addition d'une contrainte basée sur la connaissance des régions d'intérêt 10, 11 de l'image initiale 8 permet un bon affichage des images intermédiaires, produites entre l'image initiale et par exemple l'image de la région d'intérêt.
Dans un mode de réalisation préféré de l'invention, la détermination de la ou des régions d'intérêt initie le procédé de navigation, c'est-à-dire que la détermination de régions d'intérêt est effectuée avant même ou parallèlement à la première acquisition de données par le système de capture. Pour déterminer les régions d'intérêt 10, 11, on utilise par exemple un procédé de détection des teintes chaires présentes dans une image ou plus avantageusement une méthode de détection de visages s'appuyant par exemple sur un apprentissage statistique préalable des caractéristiques clés d'un visage à partir d'une base d'images représentative de la variété des visages et des conditions d'éclairage et de capture.
La détection de région d'intérêt peut également se baser sur des propriétés de couleur ou structurelles de l'image (texture, gradients spatiaux d'intensité) ou encore sur des critères contextuels (information de date, de lieu, association et exploitation de données indexées). Ce type de procédé de détection de visage est connu dans la technique antérieure. Les régions d'intérêt peuvent être déterminées en temps différé (procédé connu appelé aussi batch mode ou background mode ) directement sur le terminal mobile 1, mais indépendamment du procédé de navigation, ou en temps réel, c'est-à-dire juste avant l'étape de navigation. Dans ce premier mode de réalisation, le procédé selon l'invention, à partir de l'affichage d'une image initiale 8, détermine automatiquement au moins une région d'intérêt 10, 11 de l'image initiale 8.
Un autre mode de réalisation privilégié du détecteur de régions d'intérêt permet de récupérer directement et aisément des métadonnées de caractérisation préalablement calculées des régions d'intérêt 10, 11, celles-ci étant avantageusement mémorisées, par exemple, dans l'en-tête d'un fichier EXIF (Exchangeable Image File) du procédé JPEG ou à l'aide de tout autre type de format interprétable par le procédé de détermination de régions d'intérêt. Ce mode de réalisation présente l'avantage de déporter la détermination de régions d'intérêt vers des unités de calculs distantes possédant plus de ressources de calcul. La détermination de régions d'intérêt peut donc bénéficier d'outils algorithmiques plus puissants du fait des possibilités de calcul supérieures, et être par la même plus robuste et plus précise. Le temps de réactivité ou d'activation du procédé de navigation d'image est lui aussi grandement amélioré puisque l'étape d'extraction de métadonnées est évidemment beaucoup plus rapide qu'une détection proprement dite des régions d'intérêt. On peut utiliser les particularités de JPEG 2000 pour décompresser uniquement les régions d'intérêt. Dans la figure 2, la région d'intérêt 10, 11 déterminée, a une forme carrée ou rectangulaire; mais la zone de pixels de la région d'intérêt déterminée peut tout aussi bien être délimitée par une ligne circulaire, elliptique, ou une forme quelconque permettant d'inclure le sujet recherché 14, 15 placé dans ladite zone.
Dans un autre mode de réalisation, la détermination des régions d'intérêt peut être contrainte à une zone de l'image, déterminée par la direction initiale, obtenue par le moyen de détection de mouvement 4, au début de l'étape de navigation. Plus précisément, une première itération du procédé de navigation peut être accomplie, ce qui permet de connaître la direction vers laquelle veut naviguer l'utilisateur dans l'image. Par la suite, c'est-à-dire lors des prochaines itérations, l'étape de détermination de régions d'intérêt peut être sollicitée à nouveau, afin de raffiner ou améliorer chacune des régions d'intérêt initialement détectées lors de la première itération. Cette amélioration est rendue possible par la connaissance de la direction de navigation, ce qui permet de focaliser et de travailler plus efficacement sur une région précise de l'image. Il est également possible, dans un mode différent de réalisation, de ne faire débuter le procédé de détermination des régions d'intérêt que lors de la deuxième itération. La première servant de nouveau à définir la direction de navigation d'images et donc à déterminer la zone de l'image initiale 8 au sein de laquelle on recherchera une région d'intérêt.
Une combinaison des différents modes de détermination des régions d'intérêt présentés ci-dessus est également possible.
L'étape d'estimation de mouvement qui suit la phase de détermination de régions d'intérêt peut aussi être effectuée parallèlement à celle-ci. Elle permet par exemple la navigation d'un état où l'image initiale 8 est affichée plein écran vers un état ou l'image d'une région d'intérêt est également affichée en plein écran, et cela de manière intuitive, rapide et simple. L'utilisation conjointe des propriétés spécifiant les régions d'intérêt de l'image originale 8 permet une meilleure fiabilité et uncalcul plus rapide des informations de mouvement. La navigation peut être effectuée par exemple à l'aide d'un simple mouvement imprimé au terminal mobile 1, comme par exemple un mouvement bref de translation vers la région d'intérêt 10 selon la direction de V1, dans le plan formé par les axes 5 et 6. Selon un autre mode de réalisation, le mouvement transmis au terminal mobile 1 peut aussi être un bref mouvement de translation vers la région d'intérêt 11, selon la direction de V2, combiné avec un bref mouvement de zoom avant selon un axe perpendiculaire au plan formé par les axes 5 et 6. Le mouvement imprimé au terminal mobile 1 peut aussi être préférentiellement un bref mouvement d'inclinaison du terminal mobile 1 dans la direction de la région d'intérêt. Le mouvement est dit bref , en ce sens que son amplitude doit être suffisamment faible pour pouvoir être déterminée par l'estimateur de mouvement. Autrement dit, le contenu présent dans deux images successives utilisées lors de la mesure du mouvement est suffisamment corrélée, afin de permettre une estimation du mouvement correcte, en amplitude et en direction. V1 et V2 sont des vecteurs caractérisant le déplacement pour atteindre la région d'intérêt. V1 et V2 sont calculés, à partir des informations de direction de mouvement, d'amplitude du mouvement, et de type de mouvement. Le type de mouvement est, par exemple, un zoom, une translation, une rotation, ou un changement de perspective. Le vecteur de déplacement calculé V1, V2 constitue une information permettant de naviguer automatiquement et rapidement vers la région d'intérêt correspondante 10, 11. Le procédé selon l'invention, du fait de la connaissance préalable de la région d'intérêt (déterminée automatiquement), rend plus robuste l'estimation des vecteurs de déplacement V1, V2.
La connaissance de la ou des régions vers laquelle la navigation va s'effectuer permet d'agir directement sur les performances de l'estimation du mouvement. Dans un mode de réalisation particulier, il est par exemple possible de réduire avantageusement l'espace de recherche représentant la diversité des amplitudes et des directions de mouvement. Supposons par exemple qu'une seule région d'intérêt 10 ait été déterminée, et qu'elle soit située en haut et à gauche de l'image initiale 8. Il est dans ce cas particulièrement intéressant de se limiter ou encore de favoriser la recherche des mouvements possibles appliqués par l'utilisateur à ceux autorisant une navigation du centre de l'image initiale 8, vers le centre de la région d'intérêt 10. L'espace ou l'ensemble des directions que le moyen de détection de mouvement 4 devra parcourir pour déterminer la direction optimale vis-à-vis des données et des contraintes s'en trouve réduit d'autant ce qui permet de réduire le temps de recherche (et donc de calcul) ou bien encore d'accroître la précision de la recherche dans certaines directions (échantillonnage plus fin).
Dans un autre mode de réalisation de l'estimation du mouvement contrainte, la contrainte de région d'intérêt (emplacement dans l'image initiale) n'agit pas sur la taille ou l'échantillonnage de l'espace de recherche mais tend à appliquer des pondérations pénalisant ou favorisant certains mouvement au profit d'autres. En considérant par exemple l'exemple précédent où la région d'intérêt 10 est située en haut à gauche de l'image 8, il est possible de parcourir l'ensemble de l'espace de recherche, c'est-à-dire de considérer par exemple également les mouvements potentiels allant vers le bas et à droite, mais en leur appliquant des poids différents. Un mouvement potentiel se dirigeant vers le bas à droite se verra affecter une faible pondération (ou une faible probabilité) alors qu'un déplacement possible vers le haut à gauche se verra attribuer une valeur de poids plus importante, et cela pour traduire le fait que la connaissance que l'on a sur la localisation des régions d'intérêt de l'image 8 amène à favoriser les directions permettant une navigation vers les-dites zones. Quel que soit le mode de réalisation utilisé, il apparaît néanmoins plus souple de ne pas s'interdire totalement certains mouvements afin de ne pas trop restreindre l'utilisateur en cas de comportement imprévisible. Une estimation du mouvement intégrant une pondération en fonction des contraintes de régions d'intérêt est dans ce cas plus adapté. Une phase ultérieure de filtrage temporel des mesures de mouvements effectuées peut également permettre de s'adapter à des comportements non prévus.
Dans un mode de réalisation préféré, le procédé selon l'invention comprend une phase de filtrage temporel, appliquée aux informations de mouvement calculées par le premier module du détecteur de mouvement 4. Le filtrage temporel consiste à utiliser un jeu limité d'informations de mouvements antérieures. Ces informations de mouvements antérieures ont été calculées précédemment (au cours des itérations précédentes), lors de la navigation à travers l'image 8, et elles sont utilisées comme une aide à la détermination ou à la validation de mouvements en cours. Ce jeu d'informations de mouvement antérieures est appelé couramment historique, alors que la mesure courante de mouvement est généralement appelée terme d'innovation. Le filtrage temporel peut être mis en oeuvre directement au moment de la mesure du mouvement appliqué au terminal mobile 1. Le filtrage temporel peut aussi être utilisé a posteriori, pour lisser ou simplement valider/invalider la dernière mesure de mouvement, en fonction des mesures de mouvement antérieures. Dans le cas où le filtrage temporel est utilisé directement lors de la mesure, les directions et amplitudes de mouvement corrélées à celles précédemment calculées, seront privilégiées, lors de l'estimation de mouvement. Dans le cas où le filtrage temporel est opéré a posteriori, c'est-à-dire après la mesure de mouvement, l'historique peut être utilisé pour valider la mesure courante, si elle est cohérente avec les informations de mouvement antérieures, ou l'invalider dans le cas contraire (incohérence). Un procédé préféré consiste à lisser ou à interpoler la dernière mesure, en fonction de l'historique, afin de minimiser l'erreur possible, due à une mesure de mouvement localement imprécise. Dans un mode de réalisation préféré, le filtrage temporel bénéficie avantageusement des informations de régions d'intérêt. La contrainte de régions d'intérêt peut être appliquée soit lors de l'estimation du mouvement, soit lors du filtrage temporel, ou bien encore à chacune de ces deux étapes. La connaissance des zones vers lesquelles se dirigera probablement la navigation permet un lissage des mesures de mouvements particulièrement adéquat. L'effet par exemple d'un lissage de la dernière mesure de mouvement en fonction de l'historique et des contraintes de régions d'intérêt permet de construire une trajectoire de navigation plus propre et plus régulière.
Un avantage de l'invention par rapport à la technique antérieure, permet en particulier non seulement une navigation automatique, mais aussi une navigation plus fluide et plus régulière vers la région d'intérêt recherchée. La navigation à partir de l'image initiale 8, est opérée automatiquement, en décalant ou en modifiant la région d'image à afficher, et cela à chaque itération du procédé de navigation, en fonction d'une part de l'information de direction calculée par le moyen de détection de mouvement 4, et d'autre part, des régions d'intérêt extraites et des caractéristiques de l'écran d'affichage 2. Cette étape d'affichage sélectionne la zone d'image à afficher, par exemple en décalant la portion d'image affichée précédemment, d'un facteur de translation (en haut à gauche) correspondant au vecteur de déplacement calculé à l'itération courante et en zoomant dans l'image initiale 8, et cela toujours en adéquation avec la mesure de mouvement. Les images intermédiaires obtenues à chaque itération représentent, lors de l'étape de navigation du procédé selon l'invention, le chemin à parcourir pour atteindre la région d'intérêt 10, 11, en partant de l'image initiale 8.
La dernière image issue de la navigation automatique vers la région d'intérêt représente la région d'intérêt, affichée en plein écran. Dans un mode de réalisation préféré de l'invention, l'utilisateur est averti que la région d'intérêt est atteinte, par l'activation, par exemple d'un vibreur ou avertisseur acoustique incorporé dans le terminal mobile 1. Dans un mode de réalisation avantageux de l'invention, l'utilisateur est averti que la région d'intérêt est atteinte, par un amortissement croissant du déplacement induit par l'opération automatique de navigation. L'image transformée 12, 13 représente la région d'intérêt 10, 11. La région d'intérêt 10, 11 représente, par exemple, une image 12, 13 de visages 14, 15 de personnes faisant partie de l'image initiale 8.
A partir de l'affichage de l'image initiale 8 dont le fichier peut comprendre des métadonnées propres aux régions d'intérêt de cette image 8, si l'utilisateur du terminal mobile 1 souhaite avantageusement afficher en plein écran 2, le visage 15 de l'image 8, il incline par exemple le terminal mobile vers le visage 15. Autrement dit, il incline le terminal mobile selon la direction représentée par le vecteur V1. Dans ce cas, incliner le terminal pour afficher le visage 15, signifie, par exemple, imprimer un mouvement combiné de zoom et de translation, l'axe de translation étant compris dans le plan formé par les axes 5 et 6, et le mouvement de zoom se faisant suivant l'axe 7. Dans un autre mode de réalisation, pour afficher le visage 15, un simple mouvement de translation du terminal selon la direction de V1 dans le plan formé par les axes 5 et 6, est opéré. Le mouvement transmis au terminal mobile 1 est un mouvement effectué dans l'espace à trois dimensions défini par les axes 5, 6, et 7.
Dans un mode de réalisation compatible avec les usages courants, le procédé de navigation ne se termine pas forcément lorsqu'une des régions d'intérêt est atteinte. En effet l'utilisateur peut souhaiter revenir vers un état où l'image initiale 8 serait de nouveau afficher en plein écran, ou bien encore aller vers une autre région d'intérêt, elle-même détectée lors de la phase de détection de régions d'intérêt. Dans ce mode de réalisation, la navigation ne s'arrête que lorsque l'utilisateur le décide.
Dans un autre mode de réalisation, l'invention peut être mise en oeuvre avec un second terminal (non représenté). Le second terminal comprend un écran d'affichage et peut se connecter avec le terminal mobile 1, avec une liaison filaire, ou avantageusement une liaison sans fil. La liaison sans fil est par exemple une liaison de type Bluetooth. Le moyen de détection de mouvement est placé dans le terminal mobile 1, et non pas dans le second terminal.
Le procédé selon l'invention est compatible avec une image initiale 8 comprenant une pluralité de régions d'intérêt 10, 11. Il est ainsi possible de converger vers différentes régions d'intérêt, en fonction des mesures produites par le moyen de détection de mouvement. Les régions d'intérêt sont déterminées pour préserver un niveau de détail suffisant de l'image de la région d'intérêt à afficher en plein écran, et compatible avec la capacité d'affichage du terminal mobile.
L'invention a été décrite en détail en faisant référence à des modes de réalisation avantageux de celle-ci. Mais, il est évident que les modes de réalisation décrits ne doivent pas empêcher que des variantes équivalentes aux modes de réalisation décrits s'inscrivent à l'intérieur de la portée des revendications.

Claims (13)

REVENDICATIONS
1. Procédé pour naviguer automatiquement vers une région d'intérêt (10), (11) d'une image initiale (8), avec un dispositif comprenant un terminal mobile (1), un moyen de détection de mouvement spatio-temporel (4), un moyen 5 d'affichage (2), et comprenant les étapes suivantes: a) afficher l'image initiale (8) sur le moyen d'affichage (2); b) déterminer automatiquement au moins une zone de pixels de l'image initiale, la zone de pixels représentant une région d'intérêt (10), (11) de l'image initiale (8); c) mesurer automatiquement, avec le moyen de détection de mouvement (4), des changements spatio-temporels induits par un déplacement du terminal mobile (1); d) associer automatiquement les données de pixels propres aux régions d'intérêt détectées lors de l'étape b) et les changements spatio- temporels mesurés lors de l'étape c) pour estimer automatiquement une information de mouvement; e) naviguer automatiquement, à partir de l'information de mouvement et en utilisant les données de pixels propres aux régions d'intérêt de l'image initiale (8), vers la région d'intérêt (10), (11) déterminée, en affichant consécutivement des images intermédiaires; f) afficher automatiquement l'image de la région d'intérêt (12), (13) en plein écran sur le moyen d'affichage (2).
2. Procédé selon la revendication 1, dans lequel la détermination automatique de la région d'intérêt (10), (11) de l'image initiale (8) est opérée avant l'affichage de ladite image initiale (8) sur le moyen d'affichage (2).
3. Procédé selon l'une quelconque des revendications 1 ou 2, dans lequel l'image initiale (8) comprend une pluralité de régions d'intérêt (10), (11), 30 pouvant être affichées successivement sur le moyen d'affichage (2).
4. Procédé selon la revendication 1, dans lequel le mouvement du terminal mobile (1) à l'origine de la navigation, est une inclinaison.
5. Procédé selon la revendication 1, dans lequel le mouvement du terminal mobile (1) à l'origine de la navigation est une translation dans le plan de l'image (8) ou une translation perpendiculairement audit plan.
6. Procédé selon la revendication 1, dans lequel le mouvement du terminal mobile (1) est une combinaison d'une translation dans le plan de l'image 10 (8) et d'une inclinaison par rapport audit plan.
7. Procédé selon la revendication 1, dans lequel le moyen d'affichage est un écran d'affichage (2) du terminal mobile (1).
8. Procédé selon les revendications 1 et 2, dans lequel le moyen d'affichage comprend un second terminal muni d'un écran d'affichage et pouvant se connecter avec le terminal mobile (1).
9. Procédé selon la revendication 1, dans lequel le terminal mobile (1) est un téléphone cellulaire qui comprend un écran d'affichage (2) et un moyen de détection de mouvement (4).
10. Procédé selon la revendication 1, dans lequel le terminal mobile (1) est un appareil photo qui comprend un écran d'affichage (2) et un moyen de 25 détection de mouvement (4).
11. Procédé selon la revendication 1, dans lequel le moyen d'affichage est un lecteur numérique portable qui comprend un écran d'affichage (2) et un moyen de détection de mouvement (4).
12. Procédé selon l'une quelconque des revendications 9 à 11, dans lequel le moyen de détection de mouvement comprend au moins un capteur optique.
13. Procédé selon l'une quelconque des revendications 9 à 11, dans lequel le moyen de détection de mouvement comprend au moins un accéléromètre.
FR0412647A 2004-11-26 2004-11-26 Procede de navigation automatique contrainte vers des regions d'interet d'une image Expired - Fee Related FR2878641B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR0412647A FR2878641B1 (fr) 2004-11-26 2004-11-26 Procede de navigation automatique contrainte vers des regions d'interet d'une image
EP05803481A EP1815316A1 (fr) 2004-11-26 2005-11-07 Procede de navigation automatique en direction de regions d'interet d'une image
JP2007541741A JP2008526054A (ja) 2004-11-26 2005-11-07 画像の関心領域に向かって方向付けされる自動ナビゲーションの方法
US11/719,986 US20090034800A1 (en) 2004-11-26 2005-11-07 Method Of Automatic Navigation Directed Towards Regions Of Interest Of An Image
PCT/EP2005/011869 WO2006056311A1 (fr) 2004-11-26 2005-11-07 Procede de navigation automatique en direction de regions d'interet d'une image
CNA2005800404998A CN101065722A (zh) 2004-11-26 2005-11-07 用于朝图像的感兴趣区域自动导航的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0412647A FR2878641B1 (fr) 2004-11-26 2004-11-26 Procede de navigation automatique contrainte vers des regions d'interet d'une image

Publications (2)

Publication Number Publication Date
FR2878641A1 true FR2878641A1 (fr) 2006-06-02
FR2878641B1 FR2878641B1 (fr) 2007-07-06

Family

ID=34953108

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0412647A Expired - Fee Related FR2878641B1 (fr) 2004-11-26 2004-11-26 Procede de navigation automatique contrainte vers des regions d'interet d'une image

Country Status (6)

Country Link
US (1) US20090034800A1 (fr)
EP (1) EP1815316A1 (fr)
JP (1) JP2008526054A (fr)
CN (1) CN101065722A (fr)
FR (1) FR2878641B1 (fr)
WO (1) WO2006056311A1 (fr)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098821B2 (en) * 2005-11-08 2012-01-17 Lg Electronics Inc. Data encryption/decryption method and mobile terminal for use in the same
US8301999B2 (en) * 2006-09-25 2012-10-30 Disney Enterprises, Inc. Methods, systems, and computer program products for navigating content
US20090113278A1 (en) * 2007-10-25 2009-04-30 Fuji Xerox Co., Ltd. System and methods for generating automatic and user-controllable movies of presentations on small devices
US7952596B2 (en) * 2008-02-11 2011-05-31 Sony Ericsson Mobile Communications Ab Electronic devices that pan/zoom displayed sub-area within video frames in response to movement therein
PT2269371T (pt) * 2008-03-20 2018-05-08 Inst Rundfunktechnik Gmbh Um método de adaptar imagens de vídeo a tamanhos pequenos de ecrã, em particular a tamanhos pequenos de ecrã de terminais portáteis
KR20100058280A (ko) * 2008-11-24 2010-06-03 삼성전자주식회사 휴대 단말기를 이용한 영상 촬영 방법 및 장치
US8228330B2 (en) * 2009-01-30 2012-07-24 Mellmo Inc. System and method for displaying bar charts with a fixed magnification area
KR20110004083A (ko) * 2009-07-07 2011-01-13 삼성전자주식회사 디지털 영상 처리 장치 및 방법
US8531571B1 (en) * 2009-08-05 2013-09-10 Bentley Systmes, Incorporated System and method for browsing a large document on a portable electronic device
CN101996021B (zh) * 2009-08-12 2013-02-13 幻音科技(深圳)有限公司 手持式电子设备及其控制显示内容的方法
CN104932687A (zh) * 2009-09-30 2015-09-23 联想(北京)有限公司 一种移动终端、和在移动终端上显示信息的方法
TWI401964B (zh) * 2010-04-16 2013-07-11 Altek Corp Image file processing method
US9239674B2 (en) * 2010-12-17 2016-01-19 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different implementation characteristics of a touch event
JP2014502755A (ja) * 2010-12-22 2014-02-03 トムソン ライセンシング メディアコレクションを生成する方法
KR20140027690A (ko) * 2012-08-27 2014-03-07 삼성전자주식회사 확대 표시 방법 및 장치
US9933921B2 (en) 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
CN103245349A (zh) * 2013-05-13 2013-08-14 天津大学 基于图片gps信息和谷歌地图的路线导航方法
EP3022934A1 (fr) * 2013-07-19 2016-05-25 Google Technology Holdings LLC Visionnement de films sur petit écran au moyen d'une clôture
EP3022944A2 (fr) 2013-07-19 2016-05-25 Google Technology Holdings LLC Consommation commandée par la vision de contenu multimédia sans cadre
EP3022941A1 (fr) 2013-07-19 2016-05-25 Google Technology Holdings LLC Mise en récit visuelle sur dispositif de consommation multimédia
US9851868B2 (en) 2014-07-23 2017-12-26 Google Llc Multi-story visual experience
US10341731B2 (en) 2014-08-21 2019-07-02 Google Llc View-selection feedback for a visual experience
US9591349B2 (en) * 2014-12-23 2017-03-07 Intel Corporation Interactive binocular video display
US9916861B2 (en) * 2015-06-17 2018-03-13 International Business Machines Corporation Editing media on a mobile device before transmission
CN111309230B (zh) * 2020-02-19 2021-12-17 北京声智科技有限公司 信息展示方法、装置、电子设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086920A2 (fr) * 2000-05-12 2001-11-15 Zvi Lapidot Dispositif et procede destines a la commande cinematique de dispositifs a main
US20030025812A1 (en) * 2001-07-10 2003-02-06 Slatter David Neil Intelligent feature selection and pan zoom control
WO2004066615A1 (fr) * 2003-01-22 2004-08-05 Nokia Corporation Commande d'images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086920A2 (fr) * 2000-05-12 2001-11-15 Zvi Lapidot Dispositif et procede destines a la commande cinematique de dispositifs a main
US20030025812A1 (en) * 2001-07-10 2003-02-06 Slatter David Neil Intelligent feature selection and pan zoom control
WO2004066615A1 (fr) * 2003-01-22 2004-08-05 Nokia Corporation Commande d'images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BARTLETT JF: "Rock 'n' Scroll is here to stay", COMPUTER GRAPHICS AND APPLICATIONS, IEEE, vol. 20, no. 3, May 2000 (2000-05-01), pages 40 - 45, XP002332284, ISSN: 0272-1716, Retrieved from the Internet <URL:http://ieeexplore.ieee.org/iel5/38/18308/00844371.pdf> [retrieved on 20050616] *
MING-YU WANG;XING XIE;WEI-YING MA;HONG-JIANG ZHANG: "MobiPicture: browsing pictures on mobile devices", PROCEEDINGS OF THE ELEVENTH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA, 2 November 2003 (2003-11-02), BERKELEY, CA, USA, pages 106 - 107, XP002332283, Retrieved from the Internet <URL:http://doi.acm.org/10.1145/957013.957037> [retrieved on 20050616] *

Also Published As

Publication number Publication date
WO2006056311A1 (fr) 2006-06-01
FR2878641B1 (fr) 2007-07-06
CN101065722A (zh) 2007-10-31
JP2008526054A (ja) 2008-07-17
EP1815316A1 (fr) 2007-08-08
US20090034800A1 (en) 2009-02-05

Similar Documents

Publication Publication Date Title
FR2878641A1 (fr) Procede de navigation automatique contrainte vers des regions d&#39;interet d&#39;une image
FR3021133B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
TWI706379B (zh) 圖像處理方法及裝置、電子設備和儲存介質
CN104756109B (zh) 对相关照片进行分组
CN104700353B (zh) 图像滤镜生成方法及装置
FR2950713A1 (fr) Systeme et procede de reconnaissance de gestes
FR3043478A1 (fr) Terminal mobile et methode de controle associee
CN106339695B (zh) 人脸相似检测方法、装置及终端
FR3045853A1 (fr)
FR3019665A1 (fr)
FR2853485A1 (fr) Interface d&#39;utilisateur d&#39;appareil photographique numerique utilisant des gestes de la main
WO2018120662A1 (fr) Procédé de photographie, appareil de photographie et terminal
FR3039674A1 (fr) Terminal mobile et methode de controle de celui-ci
CN102215339A (zh) 电子设备及摄像装置
FR2913510A1 (fr) Procede pour determiner automatiquement une probabilite de saisie d&#39;images avec un terminal a partir de donnees contextuelles
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
CN107787463A (zh) 优化对焦堆栈的捕获
CN112529846A (zh) 图像处理方法及装置、电子设备和存储介质
EP2172000B1 (fr) Procede de creation d&#39;une suite sonore de photographies, et appareil pour la creation et la reproduction d&#39;une telle suite sonore
CN112508959B (zh) 视频目标分割方法、装置、电子设备及存储介质
US20160055662A1 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
CN116805282A (zh) 图像超分辨率重建方法、模型训练方法、装置及电子设备
FR2876470A1 (fr) Procede de controle d&#39;affichage utilisant un equipement portable a capteur d&#39;images
CN104933677B (zh) 用以在多个讯框中决定多个候选讯框的方法
US10783666B2 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses

Legal Events

Date Code Title Description
TP Transmission of property

Owner name: INTELLECTUAL VENTURES FUND 83 LLC, US

Effective date: 20130919

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

ST Notification of lapse

Effective date: 20180731