BE1019349A5 - Procede et dispositif pour stocker et/ou reproduire du son et des images. - Google Patents
Procede et dispositif pour stocker et/ou reproduire du son et des images. Download PDFInfo
- Publication number
- BE1019349A5 BE1019349A5 BE2010/0316A BE201000316A BE1019349A5 BE 1019349 A5 BE1019349 A5 BE 1019349A5 BE 2010/0316 A BE2010/0316 A BE 2010/0316A BE 201000316 A BE201000316 A BE 201000316A BE 1019349 A5 BE1019349 A5 BE 1019349A5
- Authority
- BE
- Belgium
- Prior art keywords
- sound
- image
- time
- file
- stored
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004519 manufacturing process Methods 0.000 claims abstract description 13
- 238000003860 storage Methods 0.000 claims description 8
- 230000001960 triggered effect Effects 0.000 claims 1
- 238000003825 pressing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 101000930354 Homo sapiens Protein dispatched homolog 1 Proteins 0.000 description 1
- 101000585180 Homo sapiens Stereocilin Proteins 0.000 description 1
- 102100035622 Protein dispatched homolog 1 Human genes 0.000 description 1
- 102100029924 Stereocilin Human genes 0.000 description 1
- WZPMZMCZAGFKOC-UHFFFAOYSA-N diisopropyl hydrogen phosphate Chemical compound CC(C)OP(O)(=O)OC(C)C WZPMZMCZAGFKOC-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234318—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4392—Processing of audio elementary streams involving audio buffer management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44004—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3261—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
- H04N2201/3264—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of sound signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d'au moins une séquence comprenant un 1er fichier reprenant une image numérique m et un 2ème fichier reprenant du son relatif à une information liée à l'image numérique m concernée, ladite image reprise dans le 1er fichier étant affichée sur un écran, et en ce qu'il est vérifié si et à quel moment un endroit j=1 a été pointé dans l'image affichée et à quel moment l'enregistrement du son est enclenché, une horloge étant démarrée au moment où l'enregistrement du son est enclenché, et en ce que lorsqu'il est constaté que l'endroit j a été pointé dans l'image affichée les coordonnées (x,y) de l'endroit j pointé sont stockées dans un 3ème fichier (f3) faisant partie de ladite séquence et qu'un 1er temps (t1) indiqué par l'horloge au moment où le son à associer à l'endroit j est produit est prélevé, et qu'une période de temps (ti) pendant laquelle la production du son lié à l'endroit j est ou peut être réalisée est reprise, le premier temps (t1) et la période de temps (t1) étant stockés dans un 4ème fichier (f4) faisant partie de ladite séquence,...
Description
Procédé et dispositif pour stocker et/ou reproduire du son et des images.
L’invention concerne un procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d’au moins une séquence comprenant un premier fichier reprenant une image numérique m (1<m<M) et un deuxième fichier reprenant du son relatif à une information liée à l’image numérique m . concernée, ladite image reprise dans le premier fichier étant affichée sur un écran, ledit affichage de l’image étant suivie d’une vérification afin de déterminer si un endroit j=1 (l£j£J) a été pointé dans l’image affichée, et en ce que lorsqu’il est constaté que l’endroit j a été pointé dans l’image affichée les coordonnées (Xj,yj) de l’endroit j pointé sont stockées dans un troisième fichier (f3j) faisant partie de ladite séquence, le procédé étant ensuite répété pour tout autre endroit j^1 pointé dans l’image. L’invention concerne également un procédé pour reproduire le son et l’image enregistrée ainsi qu’un dispositif pour la mise en application du procédé.
Un tel procédé est décrit dans le brevet US 7 536 706. Dans le procédé décrit dans ce brevet les photos ou les films sont par exemple pris à l’aide d’un appareil numérique. Les photos ou les films ainsi pris sont stockés dans une mémoire, par exemple formée par une clef USB, un disque DVD ou un site Internet. L’utilisateur peut indiquer des endroits dans l’image où il désire y ajouter du son à l’image. Ce son est également stocké dans la mémoire après avoir été enregistré. Lorsqu’une personne veut alors voir ces photos ou ce film, le son est produit simultanément avec la photo ou le film.
Si dans le cas d’un film la synchronisation entre le son et l’image peut raisonnablement être synchronisée puisqu’il s’agit d’images en mouvement, et que le micro de la caméra peut être utilisé, il n’en est pas de même lorsqu’il s’agit de photos auxquelles l’utilisateur veut ajouter du son. Certes, l’utilisateur peut associer un son aux photos, mais il n’a pas de possibilité de mettre en évidence certains éléments de la photo à l’aide de son. De plus il n’est pas évident pour l’utilisateur de synchroniser le son et l’image en particulier si le son est enregistrer séparément de l’image.
L’invention a pour but de réaliser un procédé pour stocker du son et des images dans une mémoire qui permet à l’utilisateur de synchroniser facilement le son qu’il veut ajouter aux éléments faisant partie de l’image affichée, même si le son et l’image sont enregistrés séparément.
A cette fin un procédé suivant l’invention est caractérisé en ce qu’.il est également vérifié à quel moment dans le temps l’endroit j a été pointé dans l’image affichée et à quel moment l’enregistrement du son à associer à l’endroit j est enclenché, une horloge étant démarrée au moment où l’enregistrement du son est enclenché, et qu’un premier temps (t1j) indiqué par l’horloge au moment où le son à associer à l’endroit j est produit est prélevé, et qu’une période de temps (Atj) pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise, le premier temps (t1j) et la période de temps (Atj) étant stockés dans un quatrième fichier (f4j) faisant partie de ladite séquence, ledit stockage du son dans le deuxième fichier (f2j) est réalisé en stockant le son produit durant ladite période de temps (Atj), et lorsque chacun des points j pointés dans l’image ont été traités, ladite horloge étant arrêtée après que l’enregistrement du segment de son associé à l’endroit j=N est arrêté. Le fait de démarrer une horloge au moment où l’enregistrement du son est enclenché permet d’associer une base de temps au son qui permettra à son tour, lors de la reproduction du son, de synchroniser son et image. De plus, en prélevant et en stockant un premier temps t1j et une période de temps (Atj) au son associé à un endroit j indiqué, il est possible, lors de la reproduction, de retrouver facilement, non seulement le lien entre l’endroit j sur la photo et le son associé à cet endroit, mais également de synchroniser le son avec l’endroit indiqué. Ainsi, l’utilisateur dispose d’un moyen où il peut associer du son à certains éléments d’une photo qui sont repris sur un endroit j indiqué et reproduire le son enregistré de façon automatique en indiquant l’endroit j. L’utilisateur peut ainsi facilement synchroniser le son et l’image, même si le son est enregistré après que l’image ait été prise.
Une première forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (At,) est une période de temps prédéterminée. Ceci permet de facilement déterminer cette période de temps et ainsi de gérer la quantité de mémoire disponible pour stocker du son.
Une deuxième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (Atj) est déterminée par le moment où la production de son lié à l’endroit j est arrêtée. Ceci permet de choisir un temps variable pour la période de temps.
Une troisième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que ladite période de temps (Atj) est déterminée par le moment où un prochain endroit j+1 est pointé dans l’image. Ceci permet de choisir un temps variable pour la période de temps tout en ayant une détermination automatique de cette période de temps (Atj).
Une quatrième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si une pause est produite dans la production dudit son, et que si une telle pause est produite, un deuxième temps (t2j) indiqué par l’horloge au moment où la pause intervient et un troisième temps indiqué par l’horloge au moment où la pause s’arrête sont stockés dans le quatrième fichier (f4j). Ainsi, il est possible de reproduire également des pauses laissées par celui qui produit le son lors de son enregistrement, sans pour autant devoir consommer de l’espace mémoire.
Une cinquième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lors de l’enregistrement du son à associer à un des endroits j, il est vérifié si durant ladite pause une action est entreprise, et que s’il est constaté qu’une action est entreprise, cette action est identifiée et stockée dans le quatrième fichier. Une telle action peut par exemple être un zoom sur l’endroit j considéré. En stockant l’action il est possible de la reproduire ultérieurement.
Une sixième forme de réalisation d’un procédé suivant l’invention est caractérisée en ce que lorsqu’un endroit j est pointé dans l’image affichée, un identificateur est associé à cette image et affiché à l’endroit j pointé. L’association d’un identificateur à l’endroit j pointé permet de le reconnaître plus facilement lors de la reproduction ultérieure de l’image et facilite ainsi la sélection de l’endroit par l’utilisateur.
Suivant l’invention, le procédé pour afficher l’image stockée et reproduire le son enregistré est caractérisé en ce qu’au moins une des M images stockées est reproduite sur l’écran pour permettre à un utilisateur de choisir une image m parmi les M images stockées, et en ce que la séquence associée à l’image m choisie est prélevée dans la mémoire et lesdits N endroits associés à l’image m choisie étant affichés après sélection de l’image m stockée, et en ce qu’après sélection d’un endroit j les deuxièmes, troisièmes et quatrièmes fichiers associés audit endroit j sont lus et le son associé à cet endroit j est produit à partir du deuxième fichier qui vient d’être lu en démarrant le son au premier temps et en arrêtant le son lorsque la période de temps s’est écoulée. L’usage de la séquence enregistrée permet de facilement reconstruire le son associé à l’endroit j indiqué et de le synchroniser avec l’image.
L’invention sera maintenant décrite plus en détail à l’aide des dessins qui illustrent une forme de réalisation préférentielle du procédé et du dispositif suivant l’invention.
Dans les dessins : la figure 1 montre une vue d’ensemble d’un exemple d’un dispositif suivant l’invention; la figure 2 montre le même dispositif avec quelques images affichées sur l’écran du dispositif suivant l’invention; la figure 3 illustre l’écran lors de l’application du procédé de stockage du son; la figure 4 illustre à l’aide d’un organigramme les étapes du procédé de stockage du son; la figure 5 illustre à l’aide d’un organigramme les étapes du procédé de stockage du son; la figure 6 illustre un exemple d’une séquence formée lors de l’application du procédé de stockage du son.
Dans les dessins une même référence a été attribuée à un même élément ou à un élément analogue.
La figure 1 montre une vue d’ensemble d’un exemple d’un dispositif 1 suivant l’invention. Le dispositif comporte un cadre 2 entourant un écran 3. L’écran peut être un écran tactile, ce qui a l’avantage de pouvoir afficher sur l’écran les touches de fonctionnement du dispositif. Toutefois, il sera clair que l’écran ne doit pas être obligatoirement un écran tactile et que d’autres types d’écran peuvent être utilisés. Si l’écran n’est pas tactile, des boutons de commande (non repris dans les dessins) sont montés sur le cadre pour permettre, à l’aide de ceux-ci de commander le dispositif. Il est également possible d’utiliser une commande vocale pour commander les différentes fonctions du dispositif. Il faut également noter que le dispositif suivant l’invention ne doit pas nécessairement être formé par une entité n’ayant comme seule fonction l’affichage d’images et la reproduction de son. Le dispositif suivant l’invention peut également être intégré dans un ordinateur ou un téléphone muni d’une mémoire et d’un processeur de données.
Le dispositif suivant l’invention comporte une mémoire et un processeur de données, de préférence formés par un micro-processeur.
La mémoire peut par exemple être formée par une mémoire semi-conductrice comme une clef USB, par un disque optique ou par tout autre type de mémoire accessible par voie électronique. La mémoire doit être du type à pouvoir y inscrire des données et de préférence également permettre d’effacer des données.
Dans la mémoire sont stockées des images, de préférence celles prises par un utilisateur à l’aide d’un appareil photo numérique. Mais il va de soi qu’il est également possible de stocker dans la mémoire des images téléchargées. Le stockage des images dans la mémoire est réalisé de façon bien connue et ne sera pas décrit plus en détail. Il faut toutefois noter que suivant l’invention le stockage de chaque image est réalisé en stockant pour chaque image à stocker une séquence comprenant un premier fichier fi reprenant l’image numérique, comme illustré à la figurée.
Lorsque l’utilisateur a stocké une ou plusieurs images, soit sous la forme d’images individuelles, soit sous la forme d’une vidéo, dans la mémoire, il peut afficher une ou plusieurs images sur l’écran 3 du dispositif 1. La figure 2 illustre un exemple d’une série de M (1<m <M) images individuelles (m=1, m=2, m=3) affichées sur l’écran 2. Cette façon d’afficher permet à l’utilisateur d’avoir un aperçu des images stockées et lui facilite ainsi le choix d’une des images stockées. Mais à nouveau, il sera clair que ceci n’est qu’une façon parmi d’autres d’afficher les images stockées et que d’autres façons comme faire défiler les images peuvent également être utilisées. Il est toutefois nécessaire que le dispositif possède des moyens de sélection pour permettre à l’utilisateur de choisir une ou plusieurs images parmi celles stockées dans la mémoire car ceci est nécessaire pour choisir l’image m à laquelle il faut ajouter du son.
Lorsque l’utilisateur a choisi une des images stockées, par exemple celle illustrée à la figure 3, il ou elle peut démarrer le procédé suivant l’invention. Ceci peut par exemple être réalisé soit en actionnant une touche affichée sur l’écran soit en actionnant une touche du dispositif. Après avoir actionné cette touche, une autre série de touches seront rendues activables, par exemple par affichage sur l’écran si un écran tactile est utilisé, comme illustré à la figure 3. Cette autre série de touches comporte par exemple une touche 5 pour enclencher et arrêter l’enregistrement du son, une touche 6 pour marquer une pause dans l’enregistrement du son et une touche 7 pour permettre un zoom. De préférence, un cadre 4 est également affiché pour marquer le temps passé depuis le début de l’enregistrement du son et un cadre 8 qui indique le volume du son enregistré. Bien entendu d’autres touches, comme une touche de manipulation d’un curseur, peuvent également être affichées sur l’écran.
La figure 4 illustre à l’aide d’un organigramme le procédé pour stocker du son suivant l’invention. Après que l’utilisateur ait actionné (10, REC ?) la touche 5 indiquant qu’il ou elle voulait enregistrer du son à associer avec l’image m qu’il ou elle a choisie, il est vérifié (11, Xj, yj ?) si l’utilisateur pointe un endroit Xj, yj (1<j<N) dans l’image m. Ceci permet à l’utilisateur de choisir dans l’image m affichée l’endroit j sur lequel est affiché un sujet à propos duquel il ou elle désire donner un commentaire. Le procédé permet à l’utilisateur de choisir un nombre N d’endroits à pointer dans l’image. Ce nombre peut varier en fonction de la capacité de la mémoire et de la grandeur de l’écran.
Après que l’utilisateur ait pointé un endroit j dans l’image, les coordonnées (Xj, yj ) de l’endroit j pointé sont stockées (12, ST xjt yj ) dans un troisième fichier f3j (voir figure 6) faisant partie de la séquence I liée à l’image m. De préférence, lorsqu’un endroit j est pointé dans l’image m affichée un identificateur 9 est associé à cette image et il est affiché à l’endroit j pointé (voir figure 3). Ceci permet à l’utilisateur de reconnaître non seulement lors de l’enregistrement du son, l’endroit j pointé, mais également lors d’un affichage ultérieur de reconnaître les endroits dans l’image auxquels un son a été associé. Cet identificateur peut être par exemple une étoile, un triangle, une couleur particulière comme une petite boule rouge, enfin tout identificateur qui permet de distinguer les points j pointés dans l’image.
Ensuite il est vérifié (13; STRC ?) à quel moment l’enregistrement du son est enclenché, par exemple en touchant la touche 6, pour démarrer une horloge (14; SCLK). Ensuite il est vérifié (15; ST SP) à quel moment le son à associer à l’endroit j est produit et lorsqu’il est constaté que ce son a débuté un premier temps t1j, indiqué par l’horloge au moment où le son à associer à l’endroit j commence à être produit, est prélevé sur l’horloge et est stocké (16; STtlj) dans une mémoire temporaire.
Il est ensuite vérifié si un événement se produit (17 ; EV ?) lors du prélèvement du son. Un tel événement peut être le fait que la production du son s’arrête, par exemple parce que l’utilisateur a appuyé sur la touche 7 pour zoomer, ou que l’utilisateur marque une pause en actionnant la touche 6, ou entreprend une autre action comme changer la couleur. Chaque fois qu’un tel événement se produit, le temps tkj indiqué par l’horloge au moment où l’événement se produit est prélevé (18, tkj). Ainsi, lorsque la production du son est arrêtée pour marquer une pause, un deuxième temps t2j est prélevé. Un troisième temps t3j est prélevé lorsque la pause est terminée. Les deuxièmes et troisièmes temps sont stockés temporairement (18; STT). Lorsqu’une action est entreprise de préférence un quatrième temps t4j est prélevé et l’action est identifiée. Le temps t4j et l’action identifiée sont ensuite stockés (19 ; STA) temporairement.
La période de temps Atj pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise (20; Atj). Ceci peut être réalisé en prédéterminant une période de temps de par exemple 3 secondes par endroit pointé. Suivant une autre forme de réalisation la période de temps Atj est déterminée par le moment où la production du son lié à l'endroit j est arrêtée, par exemple parce que l’utilisateur actionne la touche 5 ou parce que le procédé détecte lui-même l’arrêt du son. Enfin, la période de temps Atj peut également être déterminée par le moment où un prochain endroit j+1 est pointé dans l’image m. Dans ces deux dernières formes de réalisation, le temps tf indiqué par l’horloge est prélevé et la période de temps Atj est déterminée par la différence de temps entre tf et t|. La période de temps Atj ainsi que le temps t1j sont stockés dans un quatrième fichier faisant partie de la séquence.
Le son, produit durant la période de temps Atj est stocké (21; STf2j) dans le deuxième fichier. La séquence est ainsi complétée en y ajoutant les deuxièmes, troisièmes et quatrièmes fichiers. La séquence ainsi complétée est stockée dans la mémoire. Il est ensuite vérifié (22, j = N ?) si d’autres endroits sont indiqués et si tel est le cas le procédé reprend pour les autres endroits pointés jusqu’à ce que chacun des N endroits pointés ont été traités. Si une action a été identifiée, l’identificateur de cette action est stocké dans le quatrième fichier. L’horloge est arrêtée (23; STCLK) au moment où tous les points N ont été traités.De préférence, le temps total du son à enregistrer pour les N images est limité afin de ne pas saturer la mémoire avec du son.La figure 5 illustre le procédé suivant l’invention et qui permet d’afficher une image stockée et de reproduire le son enregistré avec l’image choisie. Lorsqu’un utilisateur désire utiliser le dispositif suivant l’invention pour voir les images enregistrées, il va actionner un programme de vision. Ceci est par exemple réalisé en touchant (30, figure 5) une touche affichée sur l’écran ou une touche fixe sur le dispositif même. Après l’actionnement de ladite touche, une ou plusieurs des images stockées dans la mémoire seront affichées (31; DISPA) pour permettre à l’utilisateur de faire une sélection parmi les images affichées.
Le dispositif attend (32 ; SLM ?) alors que l’utilisateur ait choisi une image parmi celles stockées dans la mémoire. Après que l’utilisateur ait fait son choix d’une image, supposons l’image m parmi les M images stockées, cette image m est affichée (33 ; DISPm) sur l’écran.
La séquence liée à cette image m est également prélevée (34; RSQm). Si l’application comporte des indicateurs 9, ces derniers sont positionnés (35; DISP ID) à chacun des N endroits dans l’image affichée pour lesquels des coordonnées (Xj, yj) sont stockées dans le troisième fichier (f3j) de la séquence prélevée.
L’application attend (36 ; wxj, yj ?) alors qu’un endroit ‘(Xj, yj) est choisi dans l’image affichée. Après sélection d’un endroit (Xj, yf) les deuxièmes et quatrièmes fichiers liés à l’endroit (Xj, yj) présents dans le premier fichier sont lus (37; R f2j, f4j) et le son stocké dans le deuxième fichier est produit et présenté à l’utilisateur (38 ; Psf2j). A cette fin, la production du son est pilotée par les temps t1j et t2j stockés dans le quatrième fichier ce qui permet une synchronisation entre l’image et le son. Le cas échéant par les autres temps pour permettre des pauses ou des actions.
Après la production du son l’application vérifie si un autre endroit est choisi (39, N ?) et si tel est le cas le procédé est repris à partir de l’étape marquée 33. Si aucun autre endroit est choisi, le procédé s’arrête.
Claims (10)
1. Procédé pour stocker du son et des images dans une mémoire, lequel procédé comporte le stockage dans une mémoire d’au moins une séquence comprenant un premier fichier reprenant une image numérique m (1<m<M) et un deuxième fichier reprenant du son relatif à une information liée à l’image numérique m concernée, ladite image reprise dans le premier fichier étant affichée sur un écran, ledit affichage de l’image étant suivie d’une vérification afin de déterminer si un endroit j=1 (1<j<J) a été pointé dans l’image affichée, et en ce que lorsqu’il est constaté que l’endroit j a été pointé dans l’image affichée les coordonnées (Xj.yj) de l’endroit j pointé sont stockées dans un troisième fichier (f3j) faisant partie de ladite séquence, le procédé étant ensuite répété pour tout autre endroit j^1 pointé dans l’image, caractérisé en ce qu’ il est également vérifié à quel moment dans le temps l’endroit j a été pointé dans l’image affichée et à quel moment l’enregistrement du son à associer à l’endroit j est enclenché, une horloge étant démarrée au moment où l’enregistrement du son est enclenché, et qu’un premier temps (t1j) indiqué par l’horloge au moment où le son à associer à l’endroit j est produit est prélevé, et qu’une période de temps (Atj) pendant laquelle la production du son lié à l’endroit j est ou peut être réalisée est reprise, le premier temps (t1j) et la période de temps (Atj) étant stockés dans un quatrième fichier (f4j) faisant partie de ladite séquence, ledit stockage du son dans le deuxième fichier (f2j) est réalisé en stockant le son produit durant ladite période de temps (Atj), et lorsque chacun des points j pointés dans l’image ont été traités, ladite horloge étant arrêtée après que l’enregistrement du segment de son associé à l’endroit j=N est arrêté.
2. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Atj) est une période de temps prédéterminée.
3. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Atj) est déterminée par le moment où la production du son lié à l’endroit j est arrêtée.
4. Procédé suivant la revendication 1, caractérisé en ce que ladite période de temps (Âtj) est déterminée par le moment où un prochain endroit j+1 est pointé dans l’image.
5. Procédé suivant l’une des revendications 1 à 4, caractérisé en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si une pause est produite dans la production dudit son, et que si une telle pause est produite un deuxième temps (t2j) indiqué par l’horloge au moment où la pause intervient et un troisième temps (t3j) indiqué par l’horloge au moment où la pause s’arrête est stocké dans le quatrième fichier (f4j).
6. Procédé suivant la revendication 5, caractérisé en ce que lors de l’enregistrement du son à associer à l’un quelconque des endroits j, il est vérifié si durant ladite pause une action est entreprise, et que s’il est constaté qu’une action est entreprise, cette action est identifiée et stockée dans le quatrième fichier (f4j).
7. Procédé suivant l’une des revendications 1 à 6, caractérisé en ce que lorsqu’un endroit j est pointé dans l’image affichée, un identificateur est associé à cette image et affiché à l’endroit j pointé.
8. Procédé pour afficher une image stockée et pour reproduire du son enregistré par application du procédé suivant l’une des revendications 1 à 7, caractérisé en ce qu’au moins une des M images stockée est reproduite sur l’écran pour permettre à un utilisateur de choisir une image m parmi les M images stockées, et en ce que la séquence associée à l’image m choisie est prélevée dans la mémoire et lesdits N endroits associés à l’image m choisie étant affichés après sélection de l’image m stockée, et en ce qu’après sélection d’un endroit j les deuxièmes, troisièmes et quatrièmes fichiers associés audit endroit j sont lus et le son associé à cet endroit j est produit à partir du deuxième fichier qui vient d’être lu en démarrant le son au premier temps et en arrêtant le son lorsque la période de temps (Atj) s‘est écoulée.
9. Procédé suivant la revendication 8 en combinaison avec la revendication 5 et/ou 6, caractérisé en ce lorsque le quatrième fichier associé à l’endroit j choisi indique une pause et/ou une action, cette pause est reprise dans le son produit et/ou cette action est reprise dans l’image m choisie et affichée sur l’écran.
10. Dispositif pour la mise en œuvre du procédé suivant l’une des revendications 1 à 9, caractérisé en ce qu’il comporte une mémoire agencée pour y stocker au moins une desdites M images dans ledit premier fichier et dans ledit deuxième fichier du son associé à ladite au moins une image ainsi que lesdits troisièmes et quatrièmes fichiers, ladite mémoire étant connectée à des moyens de sélection associés pour choisir une image m parmi celles stockées, ledit dispositif comprenant également une horloge et des moyens pour prélever ledit premier temps indiqué par ladite horloge ainsi que ladite période de temps (Atj), ledit dispositif comprenant des moyens de sélection permettant de choisir une image parmi lesdites M images et un endroit Xj.yjdans l’image m choisie.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BE2010/0316A BE1019349A5 (fr) | 2010-05-25 | 2010-05-25 | Procede et dispositif pour stocker et/ou reproduire du son et des images. |
US13/699,676 US20130251345A1 (en) | 2010-05-25 | 2011-05-25 | Method and device for storing and/or reproducing sound and images |
EP11725014.2A EP2577952A1 (fr) | 2010-05-25 | 2011-05-25 | Procédé et dispositif pour stocker et/ou reproduire du son et des images. |
PCT/EP2011/058603 WO2011147895A1 (fr) | 2010-05-25 | 2011-05-25 | Procédé et dispositif pour stocker et/ou reproduire du son et des images. |
JP2013511677A JP2013529442A (ja) | 2010-05-25 | 2011-05-25 | 音及び画像を記憶及び/又は再生する方法及び装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BE2010/0316A BE1019349A5 (fr) | 2010-05-25 | 2010-05-25 | Procede et dispositif pour stocker et/ou reproduire du son et des images. |
BE201000316 | 2010-05-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
BE1019349A5 true BE1019349A5 (fr) | 2012-06-05 |
Family
ID=42933189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BE2010/0316A BE1019349A5 (fr) | 2010-05-25 | 2010-05-25 | Procede et dispositif pour stocker et/ou reproduire du son et des images. |
Country Status (5)
Country | Link |
---|---|
US (1) | US20130251345A1 (fr) |
EP (1) | EP2577952A1 (fr) |
JP (1) | JP2013529442A (fr) |
BE (1) | BE1019349A5 (fr) |
WO (1) | WO2011147895A1 (fr) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111836083B (zh) * | 2020-06-29 | 2022-07-08 | 海信视像科技股份有限公司 | 显示设备及屏幕发声方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040263662A1 (en) * | 2003-06-30 | 2004-12-30 | Minolta Co., Ltd | Image-processing apparatus, image-taking apparatus, and image-processing program |
US20090122157A1 (en) * | 2007-11-14 | 2009-05-14 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and computer-readable storage medium |
US7536706B1 (en) * | 1998-08-24 | 2009-05-19 | Sharp Laboratories Of America, Inc. | Information enhanced audio video encoding system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004057892A1 (fr) * | 2002-12-20 | 2004-07-08 | Nokia Corporation | Procede et dispositif permettant d'organiser des informations fournies a un utilisateur au moyen de meta-informations |
EP2497269A1 (fr) * | 2009-11-06 | 2012-09-12 | Telefonaktiebolaget LM Ericsson (publ) | Format de fichiers pour supports multimédias synchronisés |
-
2010
- 2010-05-25 BE BE2010/0316A patent/BE1019349A5/fr active
-
2011
- 2011-05-25 US US13/699,676 patent/US20130251345A1/en not_active Abandoned
- 2011-05-25 JP JP2013511677A patent/JP2013529442A/ja not_active Withdrawn
- 2011-05-25 WO PCT/EP2011/058603 patent/WO2011147895A1/fr active Application Filing
- 2011-05-25 EP EP11725014.2A patent/EP2577952A1/fr not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7536706B1 (en) * | 1998-08-24 | 2009-05-19 | Sharp Laboratories Of America, Inc. | Information enhanced audio video encoding system |
US20040263662A1 (en) * | 2003-06-30 | 2004-12-30 | Minolta Co., Ltd | Image-processing apparatus, image-taking apparatus, and image-processing program |
US20090122157A1 (en) * | 2007-11-14 | 2009-05-14 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and computer-readable storage medium |
Non-Patent Citations (4)
Title |
---|
ANONYMOUS: "Clicker 4 Hotspots", XP002605316, Retrieved from the Internet <URL:http://www.bltt.org/software/clicker4/hotspots.htm> [retrieved on 20101014] * |
ANONYMOUS: "Hotspots", XP002605315, Retrieved from the Internet <URL:http://www.heritagecollector.com/HCDMO/HSpot.htm> [retrieved on 20101014] * |
BETTER LIVING THROUGH TECHNOLOGY: "Clicker 4 Hotspots", 3 July 2008 (2008-07-03), XP002605312, Retrieved from the Internet <URL:http://www.bltt.org/software/clicker4/hotspots.htm> [retrieved on 20101014] * |
HERITAGE COLLECTOR AND LIFESTORY PRODUCTIONS: "Hot Spots", 25 September 2008 (2008-09-25), XP002605311, Retrieved from the Internet <URL:http://www.heritagecollector.com/HCDMO/HSpot.htm> [retrieved on 20101014] * |
Also Published As
Publication number | Publication date |
---|---|
JP2013529442A (ja) | 2013-07-18 |
EP2577952A1 (fr) | 2013-04-10 |
US20130251345A1 (en) | 2013-09-26 |
WO2011147895A1 (fr) | 2011-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20110246929A1 (en) | Tabs for managing content | |
US20030231202A1 (en) | System and method for facilitating presentation of a themed slide show | |
JP2007019963A (ja) | 表示制御装置、カメラ、表示制御方法、プログラム、記録媒体 | |
EP2711853B1 (fr) | Procédés et systèmes de gestion de fichiers multimédia | |
EP2172000B1 (fr) | Procede de creation d'une suite sonore de photographies, et appareil pour la creation et la reproduction d'une telle suite sonore | |
EP3202115B1 (fr) | Procédé et dispositif de mise en relations d'un ensemble d'informations | |
BE1019349A5 (fr) | Procede et dispositif pour stocker et/ou reproduire du son et des images. | |
JP2010252266A (ja) | 画像整理装置 | |
KR102104498B1 (ko) | 슬라이드 쇼를 제공하는 시스템 및 방법 | |
EP4016382A1 (fr) | Procédé pour la configuration et l' affichage en réalité augmentée ou mixte ou étendue des informations relatives à un équipement installé dans un site réel, produit programme d ordinateur et dispositif électronique associés | |
FR2942890A1 (fr) | Procede de creation d'une suite animee de photographies, et appareil pour mettre en oeuvre le procede | |
WO2019110395A1 (fr) | Procede d'interaction avec un sous-titre affiche sur un ecran de television, dispositif, produit-programme d'ordinateur et support d'enregistrement pour la mise en œuvre d'un tel procede | |
WO2023046902A1 (fr) | Systeme d'interface homme-machine | |
EP1849299B1 (fr) | Procede et dispositif d'edition de programme audiovisuel | |
FR3114665A1 (fr) | Procédé et dispositif de détection d’utilisation d’applications | |
CA2632107A1 (fr) | Moyens de protection contre les lectures non autorisees d'un support d'enregistrement | |
FR3053557A1 (fr) | Procede de stockage d'un contenu multimedia, procede de lecture associe et procede de gestion d'un espace de stockage contenant un tel contenu | |
FR2915816A1 (fr) | Procede d'acquisition d'une image a l'aide d'un appareil dont la focale est reglable et appareil d'acquisition d'image associe au procede | |
FR2955183A3 (fr) | Procede de traitement automatique de donnees numeriques destinees a des doublages ou a des post-synchronisations de videos | |
KR20130133649A (ko) | 사운드 및 이미지를 저장 및/또는 재생하기 위한 방법 및 디바이스 | |
FR3061395A1 (fr) | Navigation dans un menu de contenus video, assistee par visualisation de bandes-annonces | |
FR2868902A1 (fr) | Procede et appareil de prise de vue pour simuler l'effet optique d'une epreuve a reseau lenticulaire | |
FR2968790A1 (fr) | Traitement de donnees d'interface graphique perfectionne. | |
TWI400626B (zh) | 顯示使用畫面的檔案連結系統及其方法 | |
EP2710796A1 (fr) | Dispositif d'enregistrement audiovisuel dynamique multi caméra et système associé |