BE1019349A5 - Procede et dispositif pour stocker et/ou reproduire du son et des images. - Google Patents

Procede et dispositif pour stocker et/ou reproduire du son et des images. Download PDF

Info

Publication number
BE1019349A5
BE1019349A5 BE2010/0316A BE201000316A BE1019349A5 BE 1019349 A5 BE1019349 A5 BE 1019349A5 BE 2010/0316 A BE2010/0316 A BE 2010/0316A BE 201000316 A BE201000316 A BE 201000316A BE 1019349 A5 BE1019349 A5 BE 1019349A5
Authority
BE
Belgium
Prior art keywords
sound
image
time
file
stored
Prior art date
Application number
BE2010/0316A
Other languages
English (en)
Inventor
Pierre Olivier
Original Assignee
H O P
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by H O P filed Critical H O P
Priority to BE2010/0316A priority Critical patent/BE1019349A5/fr
Priority to EP11725014.2A priority patent/EP2577952A1/fr
Priority to JP2013511677A priority patent/JP2013529442A/ja
Priority to US13/699,676 priority patent/US20130251345A1/en
Priority to PCT/EP2011/058603 priority patent/WO2011147895A1/fr
Application granted granted Critical
Publication of BE1019349A5 publication Critical patent/BE1019349A5/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3264Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of sound signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d'au moins une séquence comprenant un 1er fichier reprenant une image numérique m et un 2ème fichier reprenant du son relatif à une information liée à l'image numérique m concernée, ladite image reprise dans le 1er fichier étant affichée sur un écran, et en ce qu'il est vérifié si et à quel moment un endroit j=1 a été pointé dans l'image affichée et à quel moment l'enregistrement du son est enclenché, une horloge étant démarrée au moment où l'enregistrement du son est enclenché, et en ce que lorsqu'il est constaté que l'endroit j a été pointé dans l'image affichée les coordonnées (x,y) de l'endroit j pointé sont stockées dans un 3ème fichier (f3) faisant partie de ladite séquence et qu'un 1er temps (t1) indiqué par l'horloge au moment où le son à associer à l'endroit j est produit est prélevé, et qu'une période de temps (ti) pendant laquelle la production du son lié à l'endroit j est ou peut être réalisée est reprise, le premier temps (t1) et la période de temps (t1) étant stockés dans un 4ème fichier (f4) faisant partie de ladite séquence,...

Description

Procédé et dispositif pour stocker et/ou reproduire du son et des images.
L’invention concerne un procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d’au moins une séquence comprenant un premier fichier reprenant une image numérique m (1<m<M) et un deuxième fichier reprenant du son relatif à une information liée à l’image numérique m . concernée, ladite image reprise dans le premier fichier étant affichée sur un écran, ledit affichage de l’image étant suivie d’une vérification afin de déterminer si un endroit j=1 (l£j£J) a été pointé dans l’image affichée, et en ce que lorsqu’il est constaté que l’endroit j a été pointé dans l’image affichée les coordonnées (Xj,yj) de l’endroit j pointé sont stockées dans un troisième fichier (f3j) faisant partie de ladite séquence, le procédé étant ensuite répété pour tout autre endroit j^1 pointé dans l’image. L’invention concerne également un procédé pour reproduire le son et l’image enregistrée ainsi qu’un dispositif pour la mise en application du procédé.
Un tel procédé est décrit dans le brevet US 7 536 706. Dans le procédé décrit dans ce brevet les photos ou les films sont par exemple pris à l’aide d’un appareil numérique. Les photos ou les films ainsi pris sont stockés dans une mémoire, par exemple formée par une clef USB, un disque DVD ou un site Internet. L’utilisateur peut indiquer des endroits dans l’image où il désire y ajouter du son à l’image. Ce son est également stocké dans la mémoire après avoir été enregistré. Lorsqu’une personne veut alors voir ces photos ou ce film, le son est produit simultanément avec la photo ou le film.
Si dans le cas d’un film la synchronisation entre le son et l’image peut raisonnablement être synchronisée puisqu’il s’agit d’images en mouvement, et que le micro de la caméra peut être utilisé, il n’en est pas de même lorsqu’il s’agit de photos auxquelles l’utilisateur veut ajouter du son. Certes, l’utilisateur peut associer un son aux photos, mais il n’a pas de possibilité de mettre en évidence certains éléments de la photo à l’aide de son. De plus il n’est pas évident pour l’utilisateur de synchroniser le son et l’image en particulier si le son est enregistrer séparément de l’image.
L’invention a pour but de réaliser un procédé pour stocker du son et des images dans une mémoire qui permet à l’utilisateur de synchroniser facilement le son qu’il veut ajouter aux éléments faisant partie de l’image affichée, même si le son et l’image sont enregistrés séparément.
A cette fin un procédé suivant l’invention est caractérisé en ce qu’.il est également vérifié à quel moment dans le temps l’endroit j a été pointé dans l’image affichée et à quel moment l’enregistrement du son à associer à l’endroit j est enclenché, une horloge étant démarrée au moment où l’enregistrement du son est enclenché, et qu’un premier temps (t1j) indiqué par l’horloge au moment où le son à associer à l’endroit j est produit est prélevé, et qu’une période de temps (Atj) pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise, le premier temps (t1j) et la période de temps (Atj) étant stockés dans un quatrième fichier (f4j) faisant partie de ladite séquence, ledit stockage du son dans le deuxième fichier (f2j) est réalisé en stockant le son produit durant ladite période de temps (Atj), et lorsque chacun des points j pointés dans l’image ont été traités, ladite horloge étant arrêtée après que l’enregistrement du segment de son associé à l’endroit j=N est arrêté. Le fait de démarrer une horloge au moment où l’enregistrement du son est enclenché permet d’associer une base de temps au son qui permettra à son tour, lors de la reproduction du son, de synchroniser son et image. De plus, en prélevant et en stockant un premier temps t1j et une période de temps (Atj) au son associé à un endroit j indiqué, il est possible, lors de la reproduction, de retrouver facilement, non seulement le lien entre l’endroit j sur la photo et le son associé à cet endroit, mais également de synchroniser le son avec l’endroit indiqué. Ainsi, l’utilisateur dispose d’un moyen où il peut associer du son à certains éléments d’une photo qui sont repris sur un endroit j indiqué et reproduire le son enregistré de façon automatique en indiquant l’endroit j. L’utilisateur peut ainsi facilement synchroniser le son et l’image, même si le son est enregistré après que l’image ait été prise.
Une première forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (At,) est une période de temps prédéterminée. Ceci permet de facilement déterminer cette période de temps et ainsi de gérer la quantité de mémoire disponible pour stocker du son.
Une deuxième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (Atj) est déterminée par le moment où la production de son lié à l’endroit j est arrêtée. Ceci permet de choisir un temps variable pour la période de temps.
Une troisième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (Atj) est déterminée par le moment où un prochain endroit j+1 est pointé dans l’image. Ceci permet de choisir un temps variable pour la période de temps tout en ayant une détermination automatique de cette période de temps (Atj).
Une quatrième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si une pause est produite dans la production dudit son, et que si une telle pause est produite, un deuxième temps (t2j) indiqué par l’horloge au moment où la pause intervient et un troisième temps indiqué par l’horloge au moment où la pause s’arrête sont stockés dans le quatrième fichier (f4j). Ainsi, il est possible de reproduire également des pauses laissées par celui qui produit le son lors de son enregistrement, sans pour autant devoir consommer de l’espace mémoire.
Une cinquième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lors de l’enregistrement du son à associer à un des endroits j, il est vérifié si durant ladite pause une action est entreprise, et que s’il est constaté qu’une action est entreprise, cette action est identifiée et stockée dans le quatrième fichier. Une telle action peut par exemple être un zoom sur l’endroit j considéré. En stockant l’action il est possible de la reproduire ultérieurement.
Une sixième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lorsqu’un endroit j est pointé dans l’image affichée, un identificateur est associé à cette image et affiché à l’endroit j pointé. L’association d’un identificateur à l’endroit j pointé permet de le reconnaître plus facilement lors de la reproduction ultérieure de l’image et facilite ainsi la sélection de l’endroit par l’utilisateur.
Suivant l’invention, le procédé pour afficher l’image stockée et reproduire le son enregistré est caractérisé en ce qu’au moins une des M images stockées est reproduite sur l’écran pour permettre à un utilisateur de choisir une image m parmi les M images stockées, et en ce que la séquence associée à l’image m choisie est prélevée dans la mémoire et lesdits N endroits associés à l’image m choisie étant affichés après sélection de l’image m stockée, et en ce qu’après sélection d’un endroit j les deuxièmes, troisièmes et quatrièmes fichiers associés audit endroit j sont lus et le son associé à cet endroit j est produit à partir du deuxième fichier qui vient d’être lu en démarrant le son au premier temps et en arrêtant le son lorsque la période de temps s’est écoulée. L’usage de la séquence enregistrée permet de facilement reconstruire le son associé à l’endroit j indiqué et de le synchroniser avec l’image.
L’invention sera maintenant décrite plus en détail à l’aide des dessins qui illustrent une forme de réalisation préférentielle du procédé et du dispositif suivant l’invention.
Dans les dessins : la figure 1 montre une vue d’ensemble d’un exemple d’un dispositif suivant l’invention; la figure 2 montre le même dispositif avec quelques images affichées sur l’écran du dispositif suivant l’invention; la figure 3 illustre l’écran lors de l’application du procédé de stockage du son; la figure 4 illustre à l’aide d’un organigramme les étapes du procédé de stockage du son; la figure 5 illustre à l’aide d’un organigramme les étapes du procédé de stockage du son; la figure 6 illustre un exemple d’une séquence formée lors de l’application du procédé de stockage du son.
Dans les dessins une même référence a été attribuée à un même élément ou à un élément analogue.
La figure 1 montre une vue d’ensemble d’un exemple d’un dispositif 1 suivant l’invention. Le dispositif comporte un cadre 2 entourant un écran 3. L’écran peut être un écran tactile, ce qui a l’avantage de pouvoir afficher sur l’écran les touches de fonctionnement du dispositif. Toutefois, il sera clair que l’écran ne doit pas être obligatoirement un écran tactile et que d’autres types d’écran peuvent être utilisés. Si l’écran n’est pas tactile, des boutons de commande (non repris dans les dessins) sont montés sur le cadre pour permettre, à l’aide de ceux-ci de commander le dispositif. Il est également possible d’utiliser une commande vocale pour commander les différentes fonctions du dispositif. Il faut également noter que le dispositif suivant l’invention ne doit pas nécessairement être formé par une entité n’ayant comme seule fonction l’affichage d’images et la reproduction de son. Le dispositif suivant l’invention peut également être intégré dans un ordinateur ou un téléphone muni d’une mémoire et d’un processeur de données.
Le dispositif suivant l’invention comporte une mémoire et un processeur de données, de préférence formés par un micro-processeur.
La mémoire peut par exemple être formée par une mémoire semi-conductrice comme une clef USB, par un disque optique ou par tout autre type de mémoire accessible par voie électronique. La mémoire doit être du type à pouvoir y inscrire des données et de préférence également permettre d’effacer des données.
Dans la mémoire sont stockées des images, de préférence celles prises par un utilisateur à l’aide d’un appareil photo numérique. Mais il va de soi qu’il est également possible de stocker dans la mémoire des images téléchargées. Le stockage des images dans la mémoire est réalisé de façon bien connue et ne sera pas décrit plus en détail. Il faut toutefois noter que suivant l’invention le stockage de chaque image est réalisé en stockant pour chaque image à stocker une séquence comprenant un premier fichier fi reprenant l’image numérique, comme illustré à la figurée.
Lorsque l’utilisateur a stocké une ou plusieurs images, soit sous la forme d’images individuelles, soit sous la forme d’une vidéo, dans la mémoire, il peut afficher une ou plusieurs images sur l’écran 3 du dispositif 1. La figure 2 illustre un exemple d’une série de M (1<m <M) images individuelles (m=1, m=2, m=3) affichées sur l’écran 2. Cette façon d’afficher permet à l’utilisateur d’avoir un aperçu des images stockées et lui facilite ainsi le choix d’une des images stockées. Mais à nouveau, il sera clair que ceci n’est qu’une façon parmi d’autres d’afficher les images stockées et que d’autres façons comme faire défiler les images peuvent également être utilisées. Il est toutefois nécessaire que le dispositif possède des moyens de sélection pour permettre à l’utilisateur de choisir une ou plusieurs images parmi celles stockées dans la mémoire car ceci est nécessaire pour choisir l’image m à laquelle il faut ajouter du son.
Lorsque l’utilisateur a choisi une des images stockées, par exemple celle illustrée à la figure 3, il ou elle peut démarrer le procédé suivant l’invention. Ceci peut par exemple être réalisé soit en actionnant une touche affichée sur l’écran soit en actionnant une touche du dispositif. Après avoir actionné cette touche, une autre série de touches seront rendues activables, par exemple par affichage sur l’écran si un écran tactile est utilisé, comme illustré à la figure 3. Cette autre série de touches comporte par exemple une touche 5 pour enclencher et arrêter l’enregistrement du son, une touche 6 pour marquer une pause dans l’enregistrement du son et une touche 7 pour permettre un zoom. De préférence, un cadre 4 est également affiché pour marquer le temps passé depuis le début de l’enregistrement du son et un cadre 8 qui indique le volume du son enregistré. Bien entendu d’autres touches, comme une touche de manipulation d’un curseur, peuvent également être affichées sur l’écran.
La figure 4 illustre à l’aide d’un organigramme le procédé pour stocker du son suivant l’invention. Après que l’utilisateur ait actionné (10, REC ?) la touche 5 indiquant qu’il ou elle voulait enregistrer du son à associer avec l’image m qu’il ou elle a choisie, il est vérifié (11, Xj, yj ?) si l’utilisateur pointe un endroit Xj, yj (1<j<N) dans l’image m. Ceci permet à l’utilisateur de choisir dans l’image m affichée l’endroit j sur lequel est affiché un sujet à propos duquel il ou elle désire donner un commentaire. Le procédé permet à l’utilisateur de choisir un nombre N d’endroits à pointer dans l’image. Ce nombre peut varier en fonction de la capacité de la mémoire et de la grandeur de l’écran.
Après que l’utilisateur ait pointé un endroit j dans l’image, les coordonnées (Xj, yj ) de l’endroit j pointé sont stockées (12, ST xjt yj ) dans un troisième fichier f3j (voir figure 6) faisant partie de la séquence I liée à l’image m. De préférence, lorsqu’un endroit j est pointé dans l’image m affichée un identificateur 9 est associé à cette image et il est affiché à l’endroit j pointé (voir figure 3). Ceci permet à l’utilisateur de reconnaître non seulement lors de l’enregistrement du son, l’endroit j pointé, mais également lors d’un affichage ultérieur de reconnaître les endroits dans l’image auxquels un son a été associé. Cet identificateur peut être par exemple une étoile, un triangle, une couleur particulière comme une petite boule rouge, enfin tout identificateur qui permet de distinguer les points j pointés dans l’image.
Ensuite il est vérifié (13; STRC ?) à quel moment l’enregistrement du son est enclenché, par exemple en touchant la touche 6, pour démarrer une horloge (14; SCLK). Ensuite il est vérifié (15; ST SP) à quel moment le son à associer à l’endroit j est produit et lorsqu’il est constaté que ce son a débuté un premier temps t1j, indiqué par l’horloge au moment où le son à associer à l’endroit j commence à être produit, est prélevé sur l’horloge et est stocké (16; STtlj) dans une mémoire temporaire.
Il est ensuite vérifié si un événement se produit (17 ; EV ?) lors du prélèvement du son. Un tel événement peut être le fait que la production du son s’arrête, par exemple parce que l’utilisateur a appuyé sur la touche 7 pour zoomer, ou que l’utilisateur marque une pause en actionnant la touche 6, ou entreprend une autre action comme changer la couleur. Chaque fois qu’un tel événement se produit, le temps tkj indiqué par l’horloge au moment où l’événement se produit est prélevé (18, tkj). Ainsi, lorsque la production du son est arrêtée pour marquer une pause, un deuxième temps t2j est prélevé. Un troisième temps t3j est prélevé lorsque la pause est terminée. Les deuxièmes et troisièmes temps sont stockés temporairement (18; STT). Lorsqu’une action est entreprise de préférence un quatrième temps t4j est prélevé et l’action est identifiée. Le temps t4j et l’action identifiée sont ensuite stockés (19 ; STA) temporairement.
La période de temps Atj pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise (20; Atj). Ceci peut être réalisé en prédéterminant une période de temps de par exemple 3 secondes par endroit pointé. Suivant une autre forme de réalisation la période de temps Atj est déterminée par le moment où la production du son lié à l'endroit j est arrêtée, par exemple parce que l’utilisateur actionne la touche 5 ou parce que le procédé détecte lui-même l’arrêt du son. Enfin, la période de temps Atj peut également être déterminée par le moment où un prochain endroit j+1 est pointé dans l’image m. Dans ces deux dernières formes de réalisation, le temps tf indiqué par l’horloge est prélevé et la période de temps Atj est déterminée par la différence de temps entre tf et t|. La période de temps Atj ainsi que le temps t1j sont stockés dans un quatrième fichier faisant partie de la séquence.
Le son, produit durant la période de temps Atj est stocké (21; STf2j) dans le deuxième fichier. La séquence est ainsi complétée en y ajoutant les deuxièmes, troisièmes et quatrièmes fichiers. La séquence ainsi complétée est stockée dans la mémoire. Il est ensuite vérifié (22, j = N ?) si d’autres endroits sont indiqués et si tel est le cas le procédé reprend pour les autres endroits pointés jusqu’à ce que chacun des N endroits pointés ont été traités. Si une action a été identifiée, l’identificateur de cette action est stocké dans le quatrième fichier. L’horloge est arrêtée (23; STCLK) au moment où tous les points N ont été traités.De préférence, le temps total du son à enregistrer pour les N images est limité afin de ne pas saturer la mémoire avec du son.La figure 5 illustre le procédé suivant l’invention et qui permet d’afficher une image stockée et de reproduire le son enregistré avec l’image choisie. Lorsqu’un utilisateur désire utiliser le dispositif suivant l’invention pour voir les images enregistrées, il va actionner un programme de vision. Ceci est par exemple réalisé en touchant (30, figure 5) une touche affichée sur l’écran ou une touche fixe sur le dispositif même. Après l’actionnement de ladite touche, une ou plusieurs des images stockées dans la mémoire seront affichées (31; DISPA) pour permettre à l’utilisateur de faire une sélection parmi les images affichées.
Le dispositif attend (32 ; SLM ?) alors que l’utilisateur ait choisi une image parmi celles stockées dans la mémoire. Après que l’utilisateur ait fait son choix d’une image, supposons l’image m parmi les M images stockées, cette image m est affichée (33 ; DISPm) sur l’écran.
La séquence liée à cette image m est également prélevée (34; RSQm). Si l’application comporte des indicateurs 9, ces derniers sont positionnés (35; DISP ID) à chacun des N endroits dans l’image affichée pour lesquels des coordonnées (Xj, yj) sont stockées dans le troisième fichier (f3j) de la séquence prélevée.
L’application attend (36 ; wxj, yj ?) alors qu’un endroit ‘(Xj, yj) est choisi dans l’image affichée. Après sélection d’un endroit (Xj, yf) les deuxièmes et quatrièmes fichiers liés à l’endroit (Xj, yj) présents dans le premier fichier sont lus (37; R f2j, f4j) et le son stocké dans le deuxième fichier est produit et présenté à l’utilisateur (38 ; Psf2j). A cette fin, la production du son est pilotée par les temps t1j et t2j stockés dans le quatrième fichier ce qui permet une synchronisation entre l’image et le son. Le cas échéant par les autres temps pour permettre des pauses ou des actions.
Après la production du son l’application vérifie si un autre endroit est choisi (39, N ?) et si tel est le cas le procédé est repris à partir de l’étape marquée 33. Si aucun autre endroit est choisi, le procédé s’arrête.

Claims (10)

1. Procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d’au moins une séquence comprenant un premier fichier reprenant une image numérique m (1<m<M) et un deuxième fichier reprenant du son relatif à une information liée à l’image numérique m concernée, ladite image reprise dans le premier fichier étant affichée sur un écran, ledit affichage de l’image étant suivie d’une vérification afin de déterminer si un endroit j=1 (1<j<J) a été pointé dans l’image affichée, et en ce que lorsqu’il est constaté que l’endroit j a été pointé dans l’image affichée les coordonnées (Xj.yj) de l’endroit j pointé sont stockées dans un troisième fichier (f3j) faisant partie de ladite séquence, le procédé étant ensuite répété pour tout autre endroit j^1 pointé dans l’image, caractérisé en ce qu’ il est également vérifié à quel moment dans le temps l’endroit j a été pointé dans l’image affichée et à quel moment l’enregistrement du son à associer à l’endroit j est enclenché, une horloge étant démarrée au moment où l’enregistrement du son est enclenché, et qu’un premier temps (t1j) indiqué par l’horloge au moment où le son à associer à l’endroit j est produit est prélevé, et qu’une période de temps (Atj) pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise, le premier temps (t1j) et la période de temps (Atj) étant stockés dans un quatrième fichier (f4j) faisant partie de ladite séquence, ledit stockage du son dans le deuxième fichier (f2j) est réalisé en stockant le son produit durant ladite période de temps (Atj), et lorsque chacun des points j pointés dans l’image ont été traités, ladite horloge étant arrêtée après que l’enregistrement du segment de son associé à l’endroit j=N est arrêté.
2. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Atj) est une période de temps prédéterminée.
3. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Atj) est déterminée par le moment où la production du son lié à l’endroit j est arrêtée.
4. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Âtj) est déterminée par le moment où un prochain endroit j+1 est pointé dans l’image.
5. Procédé suivant l’une des revendications 1 à 4, caractérisé en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si une pause est produite dans la production dudit son, et que si une telle pause est produite un deuxième temps (t2j) indiqué par l’horloge au moment où la pause intervient et un troisième temps (t3j) indiqué par l’horloge au moment où la pause s’arrête est stocké dans le quatrième fichier (f4j).
6. Procédé suivant la revendication 5, caractérisé en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si durant ladite pause une action est entreprise, et que s’il est constaté qu’une action est entreprise, cette action est identifiée et stockée dans le quatrième fichier (f4j).
7. Procédé suivant l’une des revendications 1 à 6, caractérisé en ce que lorsqu’un endroit j est pointé dans l’image affichée, un identificateur est associé à cette image et affiché à l’endroit j pointé.
8. Procédé pour afficher une image stockée et pour reproduire du son enregistré par application du procédé suivant l’une des revendications 1 à 7, caractérisé en ce qu’au moins une des M images stockée est reproduite sur l’écran pour permettre à un utilisateur de choisir une image m parmi les M images stockées, et en ce que la séquence associée à l’image m choisie est prélevée dans la mémoire et lesdits N endroits associés à l’image m choisie étant affichés après sélection de l’image m stockée, et en ce qu’après sélection d’un endroit j les deuxièmes, troisièmes et quatrièmes fichiers associés audit endroit j sont lus et le son associé à cet endroit j est produit à partir du deuxième fichier qui vient d’être lu en démarrant le son au premier temps et en arrêtant le son lorsque la période de temps (Atj) s‘est écoulée.
9. Procédé suivant la revendication 8 en combinaison avec la revendication 5 et/ou 6, caractérisé en ce lorsque le quatrième fichier associé à l’endroit j choisi indique une pause et/ou une action, cette pause est reprise dans le son produit et/ou cette action est reprise dans l’image m choisie et affichée sur l’écran.
10. Dispositif pour la mise en œuvre du procédé suivant l’une des revendications 1 à 9, caractérisé en ce qu’il comporte une mémoire agencée pour y stocker au moins une desdites M images dans ledit premier fichier et dans ledit deuxième fichier du son associé à ladite au moins une image ainsi que lesdits troisièmes et quatrièmes fichiers, ladite mémoire étant connectée à des moyens de sélection associés pour choisir une image m parmi celles stockées, ledit dispositif comprenant également une horloge et des moyens pour prélever ledit premier temps indiqué par ladite horloge ainsi que ladite période de temps (Atj), ledit dispositif comprenant des moyens de sélection permettant de choisir une image parmi lesdites M images et un endroit Xj.yjdans l’image m choisie.
BE2010/0316A 2010-05-25 2010-05-25 Procede et dispositif pour stocker et/ou reproduire du son et des images. BE1019349A5 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
BE2010/0316A BE1019349A5 (fr) 2010-05-25 2010-05-25 Procede et dispositif pour stocker et/ou reproduire du son et des images.
EP11725014.2A EP2577952A1 (fr) 2010-05-25 2011-05-25 Procédé et dispositif pour stocker et/ou reproduire du son et des images.
JP2013511677A JP2013529442A (ja) 2010-05-25 2011-05-25 音及び画像を記憶及び/又は再生する方法及び装置
US13/699,676 US20130251345A1 (en) 2010-05-25 2011-05-25 Method and device for storing and/or reproducing sound and images
PCT/EP2011/058603 WO2011147895A1 (fr) 2010-05-25 2011-05-25 Procédé et dispositif pour stocker et/ou reproduire du son et des images.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BE2010/0316A BE1019349A5 (fr) 2010-05-25 2010-05-25 Procede et dispositif pour stocker et/ou reproduire du son et des images.
BE201000316 2010-05-25

Publications (1)

Publication Number Publication Date
BE1019349A5 true BE1019349A5 (fr) 2012-06-05

Family

ID=42933189

Family Applications (1)

Application Number Title Priority Date Filing Date
BE2010/0316A BE1019349A5 (fr) 2010-05-25 2010-05-25 Procede et dispositif pour stocker et/ou reproduire du son et des images.

Country Status (5)

Country Link
US (1) US20130251345A1 (fr)
EP (1) EP2577952A1 (fr)
JP (1) JP2013529442A (fr)
BE (1) BE1019349A5 (fr)
WO (1) WO2011147895A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111836083B (zh) * 2020-06-29 2022-07-08 海信视像科技股份有限公司 显示设备及屏幕发声方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040263662A1 (en) * 2003-06-30 2004-12-30 Minolta Co., Ltd Image-processing apparatus, image-taking apparatus, and image-processing program
US20090122157A1 (en) * 2007-11-14 2009-05-14 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer-readable storage medium
US7536706B1 (en) * 1998-08-24 2009-05-19 Sharp Laboratories Of America, Inc. Information enhanced audio video encoding system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002353389A1 (en) * 2002-12-20 2004-07-14 Nokia Corporation Method and device for organizing user provided information with meta-information
WO2011056139A1 (fr) * 2009-11-06 2011-05-12 Telefonaktiebolaget L M Ericsson (Publ). Format de fichiers pour supports multimédias synchronisés

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536706B1 (en) * 1998-08-24 2009-05-19 Sharp Laboratories Of America, Inc. Information enhanced audio video encoding system
US20040263662A1 (en) * 2003-06-30 2004-12-30 Minolta Co., Ltd Image-processing apparatus, image-taking apparatus, and image-processing program
US20090122157A1 (en) * 2007-11-14 2009-05-14 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer-readable storage medium

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Clicker 4 Hotspots", XP002605316, Retrieved from the Internet <URL:http://www.bltt.org/software/clicker4/hotspots.htm> [retrieved on 20101014] *
ANONYMOUS: "Hotspots", XP002605315, Retrieved from the Internet <URL:http://www.heritagecollector.com/HCDMO/HSpot.htm> [retrieved on 20101014] *
BETTER LIVING THROUGH TECHNOLOGY: "Clicker 4 Hotspots", 3 July 2008 (2008-07-03), XP002605312, Retrieved from the Internet <URL:http://www.bltt.org/software/clicker4/hotspots.htm> [retrieved on 20101014] *
HERITAGE COLLECTOR AND LIFESTORY PRODUCTIONS: "Hot Spots", 25 September 2008 (2008-09-25), XP002605311, Retrieved from the Internet <URL:http://www.heritagecollector.com/HCDMO/HSpot.htm> [retrieved on 20101014] *

Also Published As

Publication number Publication date
WO2011147895A1 (fr) 2011-12-01
EP2577952A1 (fr) 2013-04-10
US20130251345A1 (en) 2013-09-26
JP2013529442A (ja) 2013-07-18

Similar Documents

Publication Publication Date Title
US20110246929A1 (en) Tabs for managing content
US20030231202A1 (en) System and method for facilitating presentation of a themed slide show
JP2007019963A (ja) 表示制御装置、カメラ、表示制御方法、プログラム、記録媒体
EP2711853B1 (fr) Procédés et systèmes de gestion de fichiers multimédia
EP2172000B1 (fr) Procede de creation d&#39;une suite sonore de photographies, et appareil pour la creation et la reproduction d&#39;une telle suite sonore
EP3202115B1 (fr) Procédé et dispositif de mise en relations d&#39;un ensemble d&#39;informations
BE1019349A5 (fr) Procede et dispositif pour stocker et/ou reproduire du son et des images.
JP2010252266A (ja) 画像整理装置
US20210224545A1 (en) System and method for associating a video recording to an event
FR2942890A1 (fr) Procede de creation d&#39;une suite animee de photographies, et appareil pour mettre en oeuvre le procede
WO2019110395A1 (fr) Procede d&#39;interaction avec un sous-titre affiche sur un ecran de television, dispositif, produit-programme d&#39;ordinateur et support d&#39;enregistrement pour la mise en œuvre d&#39;un tel procede
WO2023046902A1 (fr) Systeme d&#39;interface homme-machine
EP1849299B1 (fr) Procede et dispositif d&#39;edition de programme audiovisuel
FR3114665A1 (fr) Procédé et dispositif de détection d’utilisation d’applications
CA2632107A1 (fr) Moyens de protection contre les lectures non autorisees d&#39;un support d&#39;enregistrement
FR3053557A1 (fr) Procede de stockage d&#39;un contenu multimedia, procede de lecture associe et procede de gestion d&#39;un espace de stockage contenant un tel contenu
FR2915816A1 (fr) Procede d&#39;acquisition d&#39;une image a l&#39;aide d&#39;un appareil dont la focale est reglable et appareil d&#39;acquisition d&#39;image associe au procede
FR2955183A3 (fr) Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos
KR20130133649A (ko) 사운드 및 이미지를 저장 및/또는 재생하기 위한 방법 및 디바이스
FR3061395A1 (fr) Navigation dans un menu de contenus video, assistee par visualisation de bandes-annonces
FR2868902A1 (fr) Procede et appareil de prise de vue pour simuler l&#39;effet optique d&#39;une epreuve a reseau lenticulaire
EP2466443A1 (fr) Traitement de données d&#39;interface graphique perfectionné.
EP2710796A1 (fr) Dispositif d&#39;enregistrement audiovisuel dynamique multi caméra et système associé
FR3127597A1 (fr) Systeme d’interface homme-machine
FR2970355A1 (fr) Procede de restitution de donnees sur un objet tridimensionnel