WO2007099050A1 - Procede d'affichage d'informations extraites d'un document compose de reportages et recepteur mettant en œuvre le procede - Google Patents

Procede d'affichage d'informations extraites d'un document compose de reportages et recepteur mettant en œuvre le procede Download PDF

Info

Publication number
WO2007099050A1
WO2007099050A1 PCT/EP2007/051650 EP2007051650W WO2007099050A1 WO 2007099050 A1 WO2007099050 A1 WO 2007099050A1 EP 2007051650 W EP2007051650 W EP 2007051650W WO 2007099050 A1 WO2007099050 A1 WO 2007099050A1
Authority
WO
WIPO (PCT)
Prior art keywords
video sequence
document
recorded
report
extracted
Prior art date
Application number
PCT/EP2007/051650
Other languages
English (en)
Inventor
Claire-Hélène Demarty
Louis Chevallier
Jean-Ronan Vigouroux
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of WO2007099050A1 publication Critical patent/WO2007099050A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the invention relates to a method for displaying information extracted from a recorded document composed of reports, and a receiver implementing the method.
  • Classification is done using metadata associated with the audiovisual content.
  • the receiver analyzes the content and is able to classify it.
  • Another example of storage means relates to video recorders that record audiovisual works on magnetic tapes. In this case, access to audiovisual content is sequential. On these products, it is possible to either immediately record the video being received on the current channel, either to schedule the recording of a broadcast event later. Regardless of how you store the content, the user interface allows you to control the selection and reproduction of saved documents. At first, the user selects with a program guide the program he wants to view. Then, pressing the "play" key triggers the visualization of the work.
  • the work is segmented into several chapters. In this way, the user can choose a chapter and start viewing at the beginning of the selected chapter. Pressing the "Next Range" key jumps to the next segment.
  • Some broadcasts received by a broadcast network are also segmented, so that once recorded in the receiver's hard disk, the user can select a specific segment to view or navigate from one segment to another by viewing only the first few seconds to search for the desired segment. If the transmission is received unsegmented, there are methods of segmentation to do so at the receiver.
  • the patent application referenced FR02.13977 filed in France on October 28, 2002 describes a segmentation process that exploits the audiovisual content of the work to extract parts having a semantic unit.
  • the method described in this application included with reference to the present application allows to develop a segmentation of sports videos at several levels.
  • the video is cut into shots based on abrupt changes in the color content of the images.
  • the shots are grouped into scenes based on the visual resemblance of the contents of the shots and their temporal proximity.
  • the indexing according to the current processes will allow direct access to reports.
  • a user selects a report it is extracted from the memory of his device and sent to the screen. The reports begin visually with a close-up on the presenter of the newspaper.
  • the image gives no relevant information and does not allow the user to distinguish a report from another, or to have a view of together, so that the user is aware of the report only by his auditory perception.
  • One way to shorten this time would be to cut the introductory sequence of the report where the presenter is alone on the screen and begin directly with the images of the report. But this technique has two disadvantages: the introductory and informative sound message is lost, and no complete representation of the report is finally displayed.
  • the present invention proposes an original interface for representing a report which preserves the structure and elements of the report and which makes it possible to inform the user more quickly of the object of the report.
  • the invention relates to a method for creating a new audiovisual document from an audiovisual document recorded in an apparatus, the recorded document comprising a video sequence having a particular characteristic, such as the image of a presenter; characterized in that it comprises the following steps:
  • the reports begin with a summary comprising several first video sequences displaying the presenter.
  • the method then consists of cutting the recorded document into several reports, cutting the summary into parts announcing a report, each part of the summary being thus associated with a report and finally, displaying the composite video sequence by displaying at the same time part of the summary and an image previously selected in the report associated with this part of the summary.
  • the user can view the summary of a newspaper by having on the screen also key images reports reported in this summary.
  • the user can navigate in the summary and in particular trigger the full-screen visualization of the associated report
  • the user can interrupt the display of the composite video sequence which triggers a new step of displaying the composite video sequence corresponding to the next report. In this way, the user can quickly reach a report that interests him.
  • the user can select a selected image as a key image of the report, which triggers the visualization of the sequence plan containing this key image. In this way, the user can quickly reach a part of the report whose key image has caught his attention.
  • the display of a composite video sequence lasts a determined duration at the beginning of each first video sequence.
  • the step of selecting at least one image of the report consists in selecting a middle image in a sequence plane.
  • the step of displaying a composite video sequence also consists in displaying textual information broadcast in service information.
  • the step of displaying a composite video sequence also consists in displaying in association with each selected image a time indication showing the moment of appearance of this image within the report.
  • the invention also relates to an audiovisual receiver comprising a central unit, a means for reproducing at least part of an audiovisual document recorded in storage means, the document comprising at least a first video sequence having a particular characteristic, such as the image of a presenter; characterized in that it comprises means for creating a composite video sequence composed of the images extracted from the recorded video sequence combined with at least one image extracted from the document at a time not belonging to the recorded video sequence.
  • FIG. 1 is a block diagram of an audiovisual receiver for implementing the invention
  • FIG. 2 is a screen appearance showing the beginning of a report according to a preferred embodiment
  • FIG. 3 is a flowchart of the main steps performed by the browser according to a preferred embodiment
  • FIG. 4 is a flowchart of the main steps performed by the browser according to an alternative embodiment
  • FIG. 5 is an illustration of the division of a recorded document.
  • the receiver comprises a central unit 3 linked to a program memory 12, and an interface 5 for communication with a digital bus. local high speed 6 for transmitting audio / video data in real time.
  • This network is for example an IEEE 1394 network.
  • the receiver can also receive audio / video data from a broadcast network through a reception antenna associated with a demodulator 4.
  • the receiver furthermore comprises an infrared signal receiver 7 for receive the signals of a remote control 8, a memory 9 for storing the downloaded data, and an audio / video decoding logic 10 for the generation audiovisual signals sent to the television screen 2.
  • the memory 9 is a hard disk of large capacity for recording audiovisual documents.
  • the audiovisual document is contained in a removable medium such as a "compact disk” or a DVD disc, the medium being inserted into a reader device (not shown in FIG. 1) incorporated in the receiver.
  • the remote control has the arrow keys: 1 ⁇ ⁇ , -> and ⁇ - and function or validation keys such as: "Summary", "OK” and "STOP".
  • the direction arrows make it possible to move a cursor on the screen, the commands accessible to the user are presented in the form of icons and are activated when the user presses "OK" with the cursor positioned on the icon corresponding to the desired command.
  • the receiver also includes a circuit 11 for displaying data on the screen, often called the OSD circuit, of the English “On Screen Display” (literally meaning "display on the screen”).
  • the OSD circuit 11 is a text and graphics generator which makes it possible to display on the screen menus, pictograms (for example, a number corresponding to the channel displayed) and which makes it possible to display the navigation menus in accordance with the present invention.
  • the OSD circuit is controlled by the Central Unit 3 and a browser 12.
  • the browser 12 is advantageously made in the form of a program module stored in a read-only memory. It can also be realized in the form of a specialized circuit of the ASIC type for example.
  • the digital bus 6 and / or the broadcast network transmit to the receiver data including audiovisual documents.
  • these documents are associated with descriptive data.
  • These data come either from a broadcast network or digital network 6.
  • Descriptive data include segmentation information defining the various segments of the document.
  • the descriptive data allow a fine decomposition of the document and include text to give at least one title to each segment.
  • the descriptive data is for example contained in the service information specified by the DVB-SI standard. They are recorded in the memory 9 of the receiver.
  • a first step the user records the television news in the memory 9 of his receiver 1 (step 3.1).
  • the user then starts the execution of his resident browser from his receiver and requests viewing of the recorded document, this document consisting of at least one report.
  • this document consisting of at least one report.
  • a story starts with a video showing the presenter introducing the topic to be treated orally.
  • no relevant information is provided.
  • the presenter's words are essential for the user to determine the subject of the report.
  • the browser selects one or more images extracted from the body of the report. These images do not show the presenter, their visual content is rich in teaching.
  • the receiver 1 will develop a new image 2.1 by resizing the image of the presenter 2.2 that appears at the beginning of the report to free space on the screen to display other images 2.3, fixed that one , extracted at other times of the report (step 3.3).
  • An example of this new image 2.1 called "composite" is shown in Figure 2.
  • thumbnails 2.3 (“thumbnail” in English) automatically extracted from the report and representative of its visual content are displayed.
  • twelve thumbnails 2.3 are displayed that correspond to twelve moments particulars of the report.
  • the presenter appears in the middle of the screen without size change, and the thumbnails are arranged in incrustation all around him. It is preferable that the arrangement of the thumbnails respects the chronological order of their appearance in the report. If necessary, they appear with a number or by displaying the moment of appearance from the start of the report or the recorded document. The moments of appearance in minutes and seconds of the images displayed on the first line are displayed in the example illustrated in Figure 2. The user therefore has at his disposal both audio and visual information summarizing the content of the report and allowing him to guide him in his choice of viewing the full story.
  • a first way to extract thumbnails is to analyze the reports to determine the different sequences.
  • a shot shot (or "shot" in English) is an uninterrupted sequence shot by a camera or a camcorder in a single shot.
  • the thumbnails displayed are the first images of the clips of the stories. Other techniques are usable.
  • the browser may choose to take the middle image in the sequence plane, that is, the image that is in the middle of the plane.
  • Another technique is to extract the images corresponding to a minimum of activity.
  • Activity measurement is a technique known to those skilled in the art, it is generally based on the movement in the images. You can also select thumbnails with close-up faces. Other techniques based on semantic analysis of video content can also be used.
  • the images are an inanimate photo extracted from the report.
  • This mode is easy to produce with simple inlay methods.
  • a thumbnail is a sequence shot selected in the report.
  • the sequence shots appear one after the other, thus giving an impression of movement.
  • the clip plane disappears from the screen when it finishes, A few seconds later, another clip appears in another place or another.
  • the appearance and disappearance of animated images add a fun side to the screen appearance. Tests have shown that three or four visualizations of shots offer a good compromise between the occupation of the screen and the amount of visual information offered to the user.
  • the first part of a newscast usually consists of a summary in which the presenter presents the main stories that will be developed in the rest of the newspaper.
  • the receiver 1 modifies the appearance of the video sequences of the summary by adding thumbnails so that the user perceives more information on the subjects than the information given solely by the presenter.
  • a report is cut in two: the video sequence of the summary where the presenter introduces the subject of the report, and the body of the report which then appears in the newspaper, and from which the thumbnails are extracted.
  • Figure 4 shows a flow diagram of the analysis steps of a recorded video document for generating a list of links between the summary and the reports and display thumbnails, for the implementation of improvement.
  • the video document is recorded in the audiovisual receiver 1. For example, it is received from a broadcast network.
  • the video document is segmented into reports.
  • Many methods in the literature offer solutions to this problem. For example, a possible technique consists, after cutting into shots of the video to identify the recurring shots showing a determined image, typically the presenter of the newscast. The different planes present between the two appearances of the presenter are grouped together in the same video segment characterizing a report.
  • the video is cut into planes, then the shots are grouped into scenes based on the visual resemblance of the plan contents and their temporal proximity.
  • the different planes present between the two appearances of the presenter are grouped together in the same video segment characterizing a report. So we get at the output of this module a list of reports and a list of plans containing the presenter.
  • the browser analyzes the document to determine the summary.
  • the summary is at the beginning, more rarely at the end of the document.
  • the summary can be a single sequence shot showing a front presenter. Possibly, a determined music is detectable in the sound of the commentary.
  • the search for images of the summary can take place according to different hypotheses, for example:
  • the summary is broadcast at the beginning of the newspaper before the appearance of the presenter in the form of a succession of video clips.
  • Other visual recognition techniques exist. For example, a selection of all the plans preceding the first report is first made. On all of these plans, a thumbnail detection is implemented on all the images of each plan. This detection can be based on the fact that the vignettes appear in part of the image, the rest of the image remaining almost fixed. For example, an algorithm based on the use of images resulting from the difference between successive images associated with a detection of rectangular shape by mathematical morphology can be used. If the summary is broadcast at the beginning of the newspaper and the images of reports do not appear in inset in the image but in full screen, it is possible to use a detection method based on the fact that:
  • the presenter gives the oral summary accompanying the summary, which can allow to use a segmentation in speaker and then select the images where the presenter speaks but is not visible;
  • the summary is generally between the credits and the first appearance of the presenter; in this case, the detection of the credits based on a detection of the tracks of music or on a priori knowledge of the credits makes it possible to find the summary like being all that is not generic.
  • the next step is to detect the similarities between each portion of the summary and each report.
  • the method here consists in comparing the images of the summary with the images of the reports. Standard techniques for extracting characteristic attributes of the image associated with a distance measurement make it possible to provide a measure of similarity that can be traced back to the association of summary images and reports.
  • the summary consists of video summaries of the associated reports
  • the invention can advantageously use the time component to make the image matching process more robust.
  • the order of presentation of reports in the summary is generally the same as that of newspaper reports. The measure of similarity is thus reinforced if the two images presenting similarities are presented in the same order, some being in the summary, the others in the reports.
  • Figure 5 illustrates the division of a document and the determination of the similarities between summary parts and reports on a television newscast. Following the segmentation, the processing program determined that the summary had five parts and that the journal had five reports. By analyzing the similarities between the summary parts and the reports, the treatment program was able to establish four similarities: the first part of the summary and the first report, the second part of the summary and the second report, the third part of the summary and the fourth report and the fourth part of the summary with the fifth report. In the example illustrated in Figure 5, the third report was not announced in the summary, this report can not be indexed by a portion of the summary, he saw at the time of full viewing of the recorded log.
  • step 4.5 the user has requested to view the document, the summary is displayed at first.
  • the browser displays a composite image 2.1 by inserting in the images of parts of the summary, images extracted from the associated report.
  • the images extracted from the associated report are embedded in a screen window at the top right of the screen. Since keying techniques are well known to those skilled in the art, it is not useful to explain them here. In this way, the user perceives in addition to the sound content produced by the presenter a visual content informing him of the object of the associated report. The same image example as that shown in FIG. 2 is thus generated.
  • the receiver 1 transmits the sound of the summary. If the user presses the "OK" button on the remote control 8 while viewing this part of the summary, the receiver 1 extracts the report associated with this part from the memory and displays the video of this report in full screen. starting with the beginning. At the end of the video, the visualization automatically returns to the next part of the summary.
  • the user presses the summary key, the visualization of the video stops, and the first thumbnail of the corresponding report is highlighted graphically.
  • the user can then navigate to the thumbnails using the arrow keys.
  • the receiver 1 extracts from the memory the sequence of the report which begins with the selected thumbnail and displays it on the screen.
  • the visualization automatically returns to the next part of the summary.
  • the thumbnails of the composite image 2.1 serve as an index to access the part of the report containing them.
  • the navigation keys the user navigates and highlights the thumbnails.
  • the screen again displays the composite image 2.1 at the moment when its display has been stopped.
  • the document comprises in association audiovisual data, textual information.
  • this information is disseminated for the hearing impaired and displayed at the bottom of the screen at the request of the user.
  • This textual information contained in metadata is associated with reports.
  • the user displays the composite image 2.1 created by the receiver 1, an area of the screen displays at least a portion of the text contained in this additional information.
  • the receiver 1 has a voice recognition means for analyzing the speech of the presenter during the report and convert it into text. The text transcribed from the audio signals is displayed while viewing the summary.
  • the visualization of a composite image 2.1 as shown in FIG. 2 takes place during a determined period of time.

Abstract

L'invention concerne un procédé d'affichage d'image extraites d'un document audiovisuel enregistré dans un appareil. Le document enregistré comporte au moins un reportage comprenant au début une première séquence vidéo présentant une caractéristique particulière, tel que l'image d'un présentateur. Cette première séquence vidéo ne comportant qu'un contenu informatif limité, l'invention consiste à sélectionner au moins une image extraite du reportage mais pas de la première séquence vidéo, et à créer et afficher une image composite comportant à la fois la première séquence vidéo avec le présentateur et une au moins image extraite du reportage. Un perfectionnement consiste en ce que cette première séquence vidéo provient d'un sommaire du document, des images du reportage sont rajoutées aux images du sommaire pour en augmenter le contenu informatif. L'invention concerne également le récepteur apte à mettre en oevre le procédé.

Description

PROCEDE D λ AFFICHAGE D ' INFORMATIONS EXTRAITES D 1 UN DOCUMENT COMPOSE DE REPORTAGES ET RECEPTEUR METTANT EN OEUVRE LE PROCEDE
DOMAINE TECHNIQUE DE L'INVENTION
L'invention concerne un procédé d'affichage d'informations extraites d'un document enregistré composé de reportages, et un récepteur mettant en œuvre le procédé.
ETAT ANTERIEUR DE L'INVENTION
De nos jours, de nombreux appareils permettent la réception et la reproduction d'œuvres audiovisuelles enregistrées. Récemment, des disques durs de grande capacité ont été intégrés à ces récepteurs audiovisuels ; on peut y stocker des contenus téléchargés soit d'un réseau de diffusion unidirectionnel, soit d'un réseau point à point (Internet par exemple). Parmi ces appareils, les PVR (acronyme de Personal Video Recorder) sont généralement dotés d'un Guide Electronique de Programme (EPG en abrégé) qui permet à un utilisateur d'afficher les contenus enregistrés dans le disque dur et de les reproduire à l'aide d'une commande. Aujourd'hui, la taille des disques durs permet de stocker plus de 200 heures de programmes. Cette quantité d'information disponible nécessite l'ajout de nouvelles fonctionnalités dans les PVR permettant une navigation inter et intra rapide. L'EPG permet de regrouper les documents selon de nombreux critères et de les présenter par groupes, par exemple : le thème, le type, la langue, le contrôle parental, etc. La classification s'effectue à l'aide de métadonnées associées au contenu audiovisuel. Selon une variante, le récepteur analyse le contenu et est capable de le classifier. Un autre exemple de moyen de stockage concerne les magnétoscopes qui enregistrent les œuvres audiovisuelles sur des bandes magnétiques. Dans ce cas, l'accès au contenu audiovisuel est séquentiel. Sur ces produits, il est possible, soit d'enregistrer immédiatement la vidéo en cours de réception sur le canal courant, soit de programmer l'enregistrement d'un événement diffusé ultérieurement. Quelle que soit la façon de mémoriser le contenu, l'interface utilisateur permet de contrôler la sélection et la reproduction des documents enregistrés. Dans un premier temps, l'utilisateur sélectionne à l'aide d'un guide de programmes l'émission qu'il désire visualiser. Puis, en appuyant sur la touche « lecture » il déclenche la visualisation de l'œuvre.
Dans le cas d'enregistrements numériques (par exemple : un DVD), l'œuvre est segmentée en plusieurs chapitres. De cette façon, l'utilisateur peut choisir un chapitre et commencer la visualisation au début du chapitre sélectionné. En appuyant sur la touche « Plage suivante » la visualisation saute au segment suivant. Certaines émissions reçues par un réseau de diffusion sont également segmentées, de sorte que, une fois enregistrées dans le disque dur du récepteur, l'utilisateur peut sélectionner un segment précis pour le visualiser ou naviguer d'un segment à un autre en ne visualisant que les premières secondes pour rechercher le segment désiré. Si l'émission est reçue non segmentée, il existe des procédés de segmentation permettant de le faire au niveau du récepteur. La demande de brevet référencée FR02.13977 déposée en France le 28 octobre 2002 décrit un procédé de segmentation qui exploite le contenu audiovisuel de l'œuvre pour en extraire des parties ayant une unité sémantique. Le procédé décrit dans cette demande incluse par référence à la présente demande, permet d'élaborer une segmentation de vidéos de sport selon plusieurs niveaux. Il existe également des procédés permettant d'extraire de manière automatique la structure arborescente d'un film ou d'une vidéo documentaire. Classiquement, la vidéo est découpée en plans en se basant sur des changements abrupts du contenu colorimétrique des images. Puis, les plans sont regroupés en scènes en se basant sur la ressemblance visuelle des contenus des plans et leur proximité temporelle. Lorsque le document enregistré est un journal télévisé, l'indexation selon les procédés actuels va permettre d'accéder directement aux reportages. Lorsqu'un utilisateur sélectionne un reportage, celui-ci est extrait de la mémoire de son appareil et envoyé à l'écran. Les reportages débutent visuellement par un gros plan sur le présentateur du journal. Si le message sonore qui l'accompagne est important car il introduit le reportage, l'image ne donne aucune information pertinente et ne permet pas à l'utilisateur de distinguer un reportage d'un autre, ni d'en avoir une vue d'ensemble, de sorte que l'utilisateur a connaissance du reportage que par sa perception auditive. Une façon de raccourcir ce temps consisterait à couper la séquence introductive du reportage où le présentateur est seul à l'écran et de débuter directement par les images du reportage. Mais cette technique a deux inconvénients : le message sonore introductif et informatif est perdu, et aucune représentation complète du reportage n'est finalement affichée.
Le document US 2004/0197088 publié le 7 octobre 2004 décrit un système pour découper un document en une pluralité de parties, par exemple correspondant à la structure d'un match de football . La structure du document est présentée à l'écran avec des imageries (en Anglais : « thuringiens ») associées aux parties du document. Des documents, par exemple des séquences publicitaires, sont téléchargés de l'extérieur de l'appareil et visualisés à la suite du contenu vidéo et non au même moment, ce qui rallonge le temps de visualisation du document complet. L'utilisateur peut sélectionner les séquences téléchargées pour par exemple commander les objets visualisés De ce fait, ce système nécessite une communication extérieure pour télécharger les séquences audiovisuelles qui sont rajoutées au document. Le document US 6 404 925 publié le 11 juin 2002 décrit une méthode pour segmenter des documents audiovisuels. Ces segments servent d'index pour accéder à des documents enregistrés. L'indexation s'effectue en analysant le signal audio et en identifiant la personne qui parle. On peut ainsi définir des groupes de segments audiovisuels présentant la même personne qui parle. RESUME DE L'INVENTION
La présente invention propose une interface originale de représentation d'un reportage qui conserve la structure et les éléments du reportage et qui permet d'informer plus rapidement l'utilisateur de l'objet du reportage.
L'invention a pour objet un procédé de création d'un nouveau document audiovisuel à partir d'un document audiovisuel enregistré dans un appareil, le document enregistré comportant une séquence vidéo présentant une caractéristique particulière, tel que l'image d'un présentateur ; caractérisé en ce qu'il comporte les étapes suivantes :
- création d'une séquence vidéo composite composée des images extraites de la séquence vidéo enregistrée combinées à au moins une image extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré. De cette façon, le message sonore délivré par le présentateur est toujours présent mais son image associée ne monopolise plus l'écran, car celui-ci est enrichi de parties visuelles du reportage. L 'enrichissement du contenu visuel de la séquence vidéo enregistré par l'insertion d'images extraites du document à un moment n'appartenant pas à cette séquence vidéo permet de ne pas rallonger la durée du document.
Selon un premier perfectionnement, les reportages commencent par un sommaire comportant plusieurs premières séquences vidéo affichant le présentateur. Le procédé consiste alors à découper le document enregistré en plusieurs reportages, à découper le sommaire en parties annonçant un reportage, chaque partie de sommaire étant ainsi associé à un reportage et enfin, à afficher la séquence vidéo composite en affichant en même temps une partie du sommaire et une image précédemment sélectionnée dans le reportage associé à cette partie de sommaire. De cette façon, l'utilisateur peut visualiser le sommaire d'un journal en ayant à l'écran aussi des images clef des reportages annoncés dans ce sommaire. Selon un perfectionnement, l'utilisateur peut naviguer dans le sommaire et notamment déclencher la visualisation plein écran du reportage associé
Selon un autre perfectionnement, le document comportant plusieurs reportages, l'utilisateur peut interrompre l'affichage de la séquence vidéo composite ce qui déclenche une nouvelle étape d'affichage de la séquence vidéo composite correspondant au reportage suivant. De cette façon, l'utilisateur peut rapidement atteindre un reportage qui l'intéresse.
Selon un autre perfectionnement, l'utilisateur peut sélectionner une image sélectionnée comme étant une image clef du reportage, ce qui déclenche la visualisation du plan séquence contenant cette image clef. De cette façon, l'utilisateur peut rapidement atteindre une partie du reportage dont l'image clef a retenu son attention.
Selon un autre perfectionnement, l'affichage d'une séquence vidéo composite dure une durée déterminée au début de chaque première séquence vidéo. Selon un autre perfectionnement, l'étape de sélection d'une image au moins du reportage consiste à sélectionner une image médiane dans un plan séquence. Selon un autre perfectionnement, l'étape d'affichage d'une séquence vidéo composite consiste également à afficher des informations textuelles diffusées dans des informations de services. Selon un autre perfectionnement, l'étape d'affichage d'une séquence vidéo composite consiste également à afficher en association avec chaque image sélectionnée une indication horaire montrant le moment d'apparition de cette image au sein du reportage.
L'invention a également pour objet un récepteur audiovisuel comprenant une unité centrale, un moyen de reproduction d'au moins une partie d'un document audiovisuel enregistré dans un moyen de stockage, le document comportant au moins_une première séquence vidéo présentant une caractéristique particulière, tel que l'image d'un présentateur ; caractérisé en ce qu'il comporte un moyen de création d'une séquence vidéo composite composée des images extraites de la séquence vidéo enregistrée combinées à au moins une image extraite du document à un moment n'appartenant pas à la séquence vidéo enregistrée.
DESCRIPTION DES FIGURES D'autres caractéristiques et avantages de l'invention apparaîtront maintenant avec plus de détails dans le cadre de la description qui suit d'exemples de réalisation donnés à titre illustratif en se référant aux figures annexées qui représentent :
- la figure 1 est un diagramme bloc d'un récepteur audiovisuel pour la mise en œuvre de l'invention,
- la figure 2 est une apparence d'écran montrant le début d'un reportage selon un exemple préféré de réalisation,
- la figure 3 est un organigramme des principales étapes effectuées par le navigateur selon un exemple préféré de réalisation, - la figure 4 est un organigramme des principales étapes effectuées par le navigateur selon une variante de réalisation,
- la figure 5 est une illustration du découpage d'un document enregistré.
DESCRIPTION D'UN MODE DE REALISATION DE L'INVENTION
On décrira tout d'abord le fonctionnement d'un récepteur audiovisuel 1 muni d'un dispositif d'affichage 2. Le récepteur comprend une unité centrale 3 reliée à une mémoire de programme 12, et une interface 5 pour la communication avec un bus numérique local à haut débit 6 permettant de transmettre des données audio/vidéo en temps réel. Ce réseau est par exemple un réseau IEEE 1394. Le récepteur peut également recevoir des données audio/vidéo d'un réseau de diffusion à travers une antenne de réception associée à un démodulateur 4. Le récepteur comprend en outre un récepteur de signaux infrarouges 7 pour recevoir les signaux d'une télécommande 8, une mémoire 9 pour le stockage des données téléchargées, et une logique de décodage audio/vidéo 10 pour la génération des signaux audiovisuels envoyés à l'écran de télévision 2. Selon un exemple de réalisation, la mémoire 9 est un disque dur de grande capacité permettant d'enregistrer des documents audiovisuels. Selon un autre exemple de réalisation, le document audiovisuel est contenu dans un support amovible tel qu'un « compact disk » ou un disque DVD , le support étant inséré dans un périphérique lecteur (non représenté sur la figure 1 ) incorporé dans le récepteur. La télécommande est dotée des touches de direction : 1\ Ψ, -> et <- et des touches de fonction ou de validation telles que : « Sommaire », « OK » et « STOP ». Selon un mode préféré de réalisation, les flèches de direction permettent de déplacer un curseur à l'écran, les commandes accessibles à l'utilisateur sont présentées sous forme d'icônes et sont activées lorsque l'utilisateur appuie sur « OK » avec le curseur positionné sur l'icône correspondant à la commande souhaitée.
Le récepteur comprend également un circuit 11 d'affichage de données sur l'écran, appelé souvent circuit OSD, de l'Anglais "On Screen Display" (signifiant littéralement "affichage sur l'écran"). Le circuit OSD 11 est un générateur de texte et de graphisme qui permet d'afficher à l'écran des menus, des pictogrammes (par exemple, un numéro correspondant à la chaîne visualisée) et qui permet d'afficher les menus de navigation conformément à la présente invention. Le circuit OSD est contrôlé par l'Unité Centrale 3 et un navigateur 12. Le navigateur 12 est avantageusement réalisé sous la forme d'un module de programme enregistré dans une mémoire morte. Il peut aussi être réalisé sous la forme d'un circuit spécialisé de type ASIC par exemple. Le bus numérique 6 et/ou le réseau de diffusion transmettent au récepteur des données comprenant des documents audiovisuels. Eventuellement, ces documents sont associés à des données descriptives. Ces données proviennent soit d'un réseau de diffusion, soit du réseau numérique 6. Les données descriptives comprennent notamment des informations de segmentation définissant les différents segments du document. Avantageusement, les données descriptives permettent une décomposition fine du document et comportent du texte permettant de donner au moins un titre à chaque segment. Les données descriptives sont par exemple contenues dans les informations de service spécifiées par la norme DVB-SI. Elles sont enregistrées dans la mémoire 9 du récepteur.
Après avoir décrit les éléments constituants l'invention selon un exemple préféré de réalisation, nous allons maintenant expliquer comment ceux-ci coopèrent, avec l'aide de la figure 3.
Dans un premier temps, l'utilisateur enregistre le journal télévisé dans la mémoire 9 de son récepteur 1 (étape 3.1 ). L'utilisateur lance ensuite l'exécution de son navigateur résident de son récepteur et demande la visualisation du document enregistré, ce document étant constitué d'au moins un reportage. Classiquement dans un journal télévisé, un reportage commence par une vidéo montrant le présentateur introduisant oralement le sujet qui va être traité. Au niveau visuel, aucune information pertinente n'est fournie. Au niveau sonore au contraire les paroles du présentateur sont essentielles à l'utilisateur pour déterminer le sujet du reportage. A l'étape 3.2, le navigateur sélectionne une ou plusieurs images extraites du corps du reportage. Ces images ne montrant pas le présentateur, leurs contenus visuels sont riches en enseignement. Selon la présente invention, le récepteur 1 va élaborer une nouvelle image 2.1 en redimensionnant l'image du présentateur 2.2 qui apparaît au début du reportage afin de libérer de la place sur l'écran pour afficher d'autres images 2.3, fixes celle-là, extraites à d'autres moments du reportage (étape 3.3). Un exemple de cette nouvelle image 2.1 dite « composite » est représenté par la figure 2. On aperçoit en haut à gauche de l'écran une réduction 2.2 de la vidéo avec le présentateur présent. En partie basse de l'écran, des imagettes 2.3 (« thumbnail » en Anglais) automatiquement extraites du reportage et représentatives de son contenu visuel sont affichées. Dans l'exemple de la figure 2, douze imagettes 2.3 sont affichées qui correspondent à douze moments particuliers du reportage. D'autres dispositions sont également possibles, par exemple le présentateur apparaît au milieu de l'écran sans changement de taille, et les imagettes sont disposées en incrustation tout autour de lui. Il est préférable que la disposition des imagettes respecte l'ordre chronologique de leur apparition dans le reportage. Au besoin, elles apparaissent avec un numéro ou en affichant le moment d'apparition à compter du début du reportage ou du document enregistré. Les moments d'apparition en minutes et secondes des images affichées sur la première ligne sont affichés dans l'exemple illustré par la figure 2. L'utilisateur a donc à sa disposition des informations à la fois sonores et visuelles résumant le contenu du reportage et lui permettant de le guider dans son choix de visionnage du reportage complet.
Lorsque le présentateur n'apparaît plus à l'écran, il devient inutile d'afficher l'image composite 2.1 et la visualisation du reportage continue de façon classique, sans traitement d'image au niveau du récepteur. Si l'utilisateur au vu de l'image composite 2.1 n e désire pas visualiser ce reportage, il appuie sur la touche ->, ce qui termine la visualisation du reportage. Le navigateur affiche alors le reportage suivant, l'écran prenant la même apparence que celle présentée à la figure 2. Une première façon d'extraire des imagettes consiste à analyser le reportages pour en déterminer les différents plan séquences. Un plan séquence (ou « shot » en Anglais) est une séquence ininterrompue tournée par une caméra ou un caméscope en une seule prise de vues. Les imagettes affichées sont les premières images des plans séquences du reportages. D'autres techniques sont utilisables. Par exemple, le navigateur peut choisir de prendre l'image médiane dans le plan séquence, c'est-à-dire l'image qui est au milieu du plan. Une autre technique consiste à extraire les images correspondant à un minimum d'activité. La mesure d'activité est une technique connue de l'Homme du métier, elle est généralement basée sur le mouvement dans les images. Il est également possible de sélectionner les imagettes contenant des visages en gros plans. D'autres techniques reposant sur l'analyse sémantique du contenu vidéo peuvent être également utilisées.
Selon un mode préféré de réalisation, les imagettes sont une photo inanimée extraite du reportage. Ce mode est facile à produire avec des moyens simples d'incrustation. En variante, une imagette est un plan séquence sélectionné dans le reportage. De ce fait, au début du reportage et pendant que le présentateur introduit le sujet, les plans séquences apparaissent les uns après les autres donnant ainsi une impression de mouvement. Le plan séquence disparaît de l'écran lorsqu'il se termine, Quelques secondes plus tard, un autre plan séquence apparaît à un autre endroit ou à un autre. L'apparition et la disparition des images animées ajoutent un coté ludique à l'apparence d'écran. Des tests ont montré que trois ou quatre visualisations de plans séquences offrent un bon compromis entre l'occupation de l'écran et la quantité d'information visuelle offerte à l'utilisateur.
La première partie d'un journal télévisé est généralement constituée d'un sommaire au cours duquel le présentateur présente les principaux reportages qui vont être développés dans le reste du journal. Selon une variante, le récepteur 1 modifie l'apparence des séquences vidéo du sommaire en rajoutant des imagettes afin que l'utilisateur perçoive plus d'informations sur les sujets que les informations données uniquement par le présentateur. Selon cette variante, un reportage est découpé en deux : la séquence vidéo du sommaire où le présentateur introduit le sujet du reportage, et le corps du reportage qui apparaît ensuite au cours du journal, et d'où sont extraits les imagettes.
La figure 4 présente un organigramme des étapes d'analyse d'un document vidéo enregistré permettant de générer une liste des liens entre le sommaire et les reportages et d'afficher les imagettes, pour la mise en œuvre de perfectionnement. A l'étape 4.1 , le document vidéo est enregistré dans le récepteur audiovisuel 1 . Il est par exemple reçu d'un réseau de diffusion. A l'étape 4.2, le document vidéo est segmenté en reportages. De nombreuses méthodes de la littérature proposent des solutions à ce problème. Par exemple, une technique possible consiste, suite à un découpage en plans de la vidéo à repérer les plans récurrents montrant une image déterminée, typiquement le présentateur du journal télévisé. Les différents plans présents entre les deux apparitions du présentateur sont regroupés au sein d'un même segment vidéo caractérisant un reportage. Dans un autre exemple, la vidéo est découpée en plans, puis, les plans sont regroupés en scènes en se basant sur la ressemblance visuelle des contenus des plans et leur proximité temporelle. On peut observer la composante audio en analysant l'ambiance sonore (un reportage sur un match de football, sur un documentaire écologique ou sur la dernière intervention d'un homme politique présentent des caractéristiques différentes), ou la continuité de la voix d'un même journaliste commentant son reportage. Les différents plans présents entre les deux apparitions du présentateur sont regroupés au sein d'un même segment vidéo caractérisant un reportage. Nous obtenons donc en sortie de ce module une liste de reportages ainsi qu'une liste de plans contenant le présentateur.
A l'étape 4.3, le navigateur analyse le document pour déterminer le sommaire. Typiquement, le sommaire se situe au début, plus rarement à la fin du document. Le sommaire peut être un seul plan séquence montrant un présentateur de face. Eventuellement, une musique déterminée est détectable en fond sonore du commentaire. La recherche des images du sommaire peut s'opérer suivant différentes hypothèses, par exemple :
- les images du sommaire contiennent des vignettes rectangulaires généralement fixes en haut à gauche ou en bas à droite du présentateur,
- le sommaire est diffusé au début du journal avant l'apparition du présentateur sous forme d'une succession de clips vidéo. D'autres techniques de reconnaissance visuelle existent. Par exemple, une sélection de l'ensemble des plans précédant le premier reportage est d'abord effectuée. Sur l'ensemble de ces plans, une détection de vignettes est mise en œuvre sur l'ensemble des images de chaque plan. Cette détection peut s'appuyer sur le fait que les vignettes apparaissent dans une partie de l'image, le reste de l'image demeurant quasi fixe. On peut utiliser par exemple un algorithme basé sur l'utilisation des images résultant de la différence entre images successives associée à une détection de forme rectangulaire par morphologie mathématique. Si le sommaire est diffusé en début de journal et que les images de reportages n'apparaissent pas en médaillon dans l'image mais en plein écran, il est possible d'utiliser une méthode de détection s'appuyant sur le fait que :
- le présentateur donne le résumé oral accompagnant le sommaire, ce qui peut permettre d'utiliser une segmentation en locuteur puis de sélectionner les images où le présentateur parle mais n'est pas visible ;
- le sommaire est généralement compris entre le générique et la première apparition du présentateur ; dans ce cas là, la détection du générique s'appuyant sur une détection des plages de musique ou sur une connaissance a priori du générique permet de retrouver le sommaire comme étant tout ce qui n'est pas générique.
Une fois le sommaire détecté, l'étape suivante 4.4 consiste à détecter les similitudes existant entre chaque portion du sommaire et chaque reportage. La méthode consiste ici à venir comparer les images du sommaire avec les images des reportages. Des techniques classiques d'extraction d'attributs caractéristiques de l'image associée à une mesure de distance permettent de fournir une mesure de similarité permettant de remonter à l'association des images sommaires et reportages. Dans de nombreux cas, on peut considérer que le sommaire est constitué de résumés vidéo des reportages associés, l'invention pourra avantageusement utiliser la composante temporelle pour rendre le processus de mise en correspondance d'images plus robuste. Par exemple, l'ordre de présentation des reportages dans le sommaire est généralement le même que celui des reportages du journal. La mesure de similarité est ainsi renforcée si les deux images présentant des similitudes se présentent dans le même ordre, les unes étant dans le sommaire, les autres dans les reportages.
Une fois cette étape réalisée, des couples formés d'une partie du sommaire et d'un reportage sont élaborés. Grâce à une interface utilisateur adaptée, ces associations vont maintenant être exploitées afin de donner plus d'information visuelle aux images du sommaire.
La figure 5 illustre le découpage d'un document et la détermination des similitudes entre des parties de sommaire et des reportages sur un journal télévisé. A la suite de la segmentation, le programme de traitement a déterminé que le sommaire comporte cinq parties et que le journal comporte cinq reportages. En analysant les similitudes entre les parties de sommaire et les reportages, le programme de traitement a pu établir quatre similitudes : la première partie du sommaire et le premier reportage, la seconde partie du sommaire et le second reportage, la troisième partie du sommaire et le quatrième reportage et la quatrième partie du sommaire avec le cinquième reportage. Dans l'exemple illustré par la figure 5, le troisième reportage n'a pas été annoncé dans le sommaire, ce reportage ne peut donc pas être indexé par une partie du sommaire, il vu au moment de la visualisation intégrale du journal enregistré.
A l'étape 4.5, l'utilisateur a demandé de visualiser le document, le sommaire est affiché dans un premier temps. Le navigateur affiche une image composite 2.1 en insérant dans les images de parties du sommaire, des images extraites du reportage associé. Les images extraites du reportage associé sont incrustées dans une fenêtre d'écran en haut à droite de l'écran. Les techniques d'incrustation étant bien connues de l'homme du métier, il n'est pas utile de les expliciter ici. De cette manière, l'utilisateur perçoit en plus du contenu sonore produit par le présentateur un contenu visuel lui informant de l'objet du reportage associé. Le même exemple d'image que celui montré à la figure 2 est ainsi généré.
L'utilisateur perçoit des informations à la fois sonores et visuelles résumant le contenu du reportage et lui permettant de la guider dans son choix de voir un reportage déterminé. Pendant la visualisation de cette partie du sommaire associé à ce reportage, le récepteur 1 émet le son du sommaire. Si l'utilisateur appuie sur la touche « OK » de la télécommande 8 au cours de la visualisation de cette partie de sommaire, le récepteur 1 extrait de la mémoire le reportage associé à cette partie et affiche en plein écran la vidéo de ce reportage en commençant par le début. A la fin de la vidéo, la visualisation revient automatiquement à la partie suivante du sommaire.
Selon un perfectionnement, l'utilisateur appuie sur la touche sommaire, la visualisation de la vidéo s'arrête, et la première imagette du reportage correspondante est mise graphiquement en évidence. L'utilisateur peut alors naviguer sur les imagettes à l'aide des touches de direction. Après en avoir sélectionné une, en appuyant sur « OK », le récepteur 1 extrait de la mémoire la séquence du reportage qui commence par l'imagette sélectionné et l'affiche à l'écran. De même que précédemment, à la fin du reportage, la visualisation revient automatiquement à la partie suivante du sommaire.
Selon un perfectionnement, les imagettes de l'image composite 2.1 servent d'index pour accéder à la partie du reportage les contenant. Lorsque l'image composite 2.1 est affichée, l'utilisateur appuie sur la touche « STOP » ce qui fige l'image de l'écran, l'image du présentateur étant alors mise graphiquement en évidence. En utilisant les touches de navigation, l'utilisateur navigue sur les imagettes et en met une en évidence. Puis, en appuyant sur la touche « OK », l'utilisateur déclenche la visualisation du plan séquence du reportage contenant l'image ainsi sélectionnée. Lorsque la fin du plan séquence est atteinte, l'écran affiche de nouveau l'image composite 2.1 au moment où sa visualisation a été arrêtée.
Selon un perfectionnement, le document comporte en association des données audiovisuelles, des informations textuelles. Typiquement ces informations sont diffusées pour les personnes mal entendantes et affichées en bas de l'écran sur requête de l'utilisateur. Ces informations textuelles contenues dans des métadonnées, sont associées à des reportages. Lorsque l'utilisateur affiche l'image composite 2.1 créée par le récepteur 1 , une zone de l'écran affiche au moins une partie du texte contenu dans ces informations supplémentaires. En variante, le récepteur 1 dispose d'un moyen de reconnaissance vocale permettant d'analyser la parole du présentateur au cours du reportage et de la convertir en texte. Le texte transcrit à partir des signaux audio est affiché pendant la visualisation du sommaire. Selon un autre perfectionnement, la visualisation d'une image composite 2.1 comme présentée par la figure 2 s'effectue au cours d'une durée déterminée. En effet, au début de la partie du sommaire correspondant à un reportage, le présentateur introduit le sujet mais à la fin de cette partie, l'utilisateur est bien au courant du reportage et n'a plus besoin d'être informé par les imagettes. De sorte que, ces imagettes peuvent être enlevées et l'image du présentateur peut apparaître seul en plein écran. Des tests ont montré qu'au bout de dix secondes, le sujet est bien introduit et les imagettes apportent peu d'informations en plus de ce qui a été dit.
Bien que la présente invention ait été décrite en référence aux modes de réalisation particuliers illustrés, celle-ci n'est nullement limitée par ces modes de réalisation, mais ne l'est que par les revendications annexées. On notera que des changements ou des modifications pourront être apportés par l'Homme du métier.

Claims

Revendications
1. Procédé de création d'un nouveau document audiovisuel à partir d'un document audiovisuel enregistré dans un appareil, le document enregistré comportant une séquence vidéo (2.2) présentant une caractéristique particulière, tel que l'image d'un présentateur ; caractérisé en ce qu'il comporte les étapes suivantes :
- création d'une séquence vidéo composite (2.1 ) composée des images extraites de la séquence vidéo enregistrée combinées à au moins une image extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré.
2. Procédé de création selon la revendication 1 , le document comportant un sommaire composé d'une pluralité de séquences vidéo (2.2) présentant ladite caractéristique particulière et une pluralité de reportages dont certain au moins est associé à une séquence vidéo (2.2) ; caractérisé en ce qu'il comporte au sein de l'appareil les étapes suivantes :
- découpage du document (4.2) enregistré en une pluralité de reportages, - découpage du sommaire (4.3) en séquences vidéo et association de chaque séquence vidéo avec le reportage correspondant (4.4)
- création d'autant de séquences vidéo composite (2.1 ) que de séquences vidéo extraites du document enregistré, chaque séquence vidéo composite étant composée d'images extraites de la séquence vidéo enregistrée combinées à au moins une image extraite du reportage associé.
3. Procédé de création selon la revendication 2 ; caractérisé en ce qu'il comporte en outre une étape d'introduction d'une commande lors de l'affichage de la séquence vidéo composite déclenchant la visualisation plein écran du reportage associé.
4. Procédé de création selon l'une quelconque des revendications 2 et 3 ; caractérisé en ce qu'il comporte une étape d'introduction d'une commande d'interruption de l'affichage de la séquence vidéo composite, déclenchant une nouvelle étape d'affichage de la séquence vidéo composite correspondant au reportage suivant.
5. Procédé de création selon l'une quelconque des revendications précédentes ; caractérisé en ce qu'il comporte une étape d'introduction d'une commande de sélection d'une image (2.3) extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré, déclenchant une étape de visualisation du plan séquence dont est extraite ladite image sélectionnée.
6. Procédé de création selon l'une quelconque des revendications précédentes ; caractérisé en ce qu'il comporte une étape d'affichage d'une séquence vidéo composite (2.1 ) d'une durée déterminée au début de la séquence vidéo (2.2) présentant une caractéristique particulière.
7. Procédé de création selon l'une quelconque des revendications précédentes ; caractérisé en ce que l'étape de création comporte le rajout d'informations textuelles diffusées dans des informations de services et associées au document.
8. Procédé de création selon l'une quelconque des revendications précédentes ; caractérisé en ce que l'étape de création comporte le rajout d'une indication horaire associée à un image extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré, l'indication horaire identifiant le moment d'apparition au sein du document de cette image.
9. Récepteur audiovisuel (1 ) comprenant une unité centrale (3), un moyen de reproduction (10) d'au moins une partie d'un document audiovisuel enregistré dans un moyen de stockage (9), le document comportant au moins une première séquence vidéo présentant une caractéristique particulière, tel que l'image d'un présentateur ; caractérisé en ce qu'il comporte un moyen de création (3, 12) d'une séquence vidéo composite (2.1 ) composée des images (2.2) extraites de la séquence vidéo enregistrée combinées à au moins une image (2.3) extraite du document à un moment n'appartenant pas à la séquence vidéo enregistrée.
10. Récepteur audiovisuel (1 ) selon la revendication 9, le document comportant un sommaire composé d'une pluralité de séquences vidéo (2.2) présentant ladite caractéristique particulière et une pluralité de reportages dont certain au moins est associé à une séquence vidéo (2.2) ; caractérisé en ce qu'il comporte :
- un moyen de découpage (3, 12) en une pluralité de reportages du document enregistré dans le moyen de stockage (9),
- un moyen de découpage du sommaire (4.3) en séquences vidéo et un moyen d'association de chaque séquence vidéo avec le reportage correspondant (4.4), le moyen de création créant autant de séquences vidéo composite (2.1 ) que de séquences vidéo extraites du document enregistré, chaque séquence vidéo composite étant composée d'images extraites de la séquence vidéo enregistrée combinées à au moins une image extraite du reportage associé.
11. Récepteur audiovisuel (1 ) selon la revendication 10 ; caractérisé en ce qu'il comporte un moyen d'introduction (7,8) d'une commande déclenchant lors de l'affichage de la séquence vidéo composite la visualisation plein écran du reportage associé.
12. Récepteur audiovisuel (1 ) selon l'une quelconque des revendications 10 et 11 ; caractérisé en ce qu'il comporte un moyen d'introduction (7,8) d'une commande interrompant l'affichage de la séquence vidéo composite, et déclenchant l'affichage de la séquence vidéo composite correspondant au reportage suivant.
13. Récepteur audiovisuel (1 ) selon l'une quelconque des revendications 9 à 12 ; caractérisé en ce qu'il comporte un moyen d'introduction (7,8) d'une commande de sélection d'une image (2.3) extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré, déclenchant l'affichage du plan séquence dont est extraite ladite image sélectionnée.
14. Récepteur audiovisuel (1 ) selon l'une quelconque des revendications 9 à 13 ; caractérisé en ce que le moyen de reproduction (10) affiche la séquence vidéo composite (2.1 ) au cours d'une durée déterminée au début de la séquence vidéo (2.2) présentant une caractéristique particulière.
15. Récepteur audiovisuel (1 ) selon l'une quelconque des revendications 9 à 14 ; caractérisé en ce que le moyen de création (3,12) rajoute à la séquence vidéo composite des informations textuelles diffusées dans des informations de services et associées au document.
16. Récepteur audiovisuel (1 ) selon l'une quelconque des revendications 9 à 15 ; caractérisé en ce que le moyen de création (3,12) rajoute à la séquence composite une indication horaire associée à une image extraite du document à un moment n'appartenant pas à la séquence vidéo enregistré, l'indication horaire identifiant le moment d'apparition au sein du document de cette image.
PCT/EP2007/051650 2006-03-03 2007-02-21 Procede d'affichage d'informations extraites d'un document compose de reportages et recepteur mettant en œuvre le procede WO2007099050A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR06/50747 2006-03-03
FR0650747A FR2898235A1 (fr) 2006-03-03 2006-03-03 Procede d'affichage d'informations extraites d'un document compose de reportages et recepteur mettant en oeuvre le procede

Publications (1)

Publication Number Publication Date
WO2007099050A1 true WO2007099050A1 (fr) 2007-09-07

Family

ID=37467620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/051650 WO2007099050A1 (fr) 2006-03-03 2007-02-21 Procede d'affichage d'informations extraites d'un document compose de reportages et recepteur mettant en œuvre le procede

Country Status (2)

Country Link
FR (1) FR2898235A1 (fr)
WO (1) WO2007099050A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
US20030108334A1 (en) * 2001-12-06 2003-06-12 Koninklijke Philips Elecronics N.V. Adaptive environment system and method of providing an adaptive environment
US20040197088A1 (en) * 2003-03-31 2004-10-07 Ferman Ahmet Mufit System for presenting audio-video content
US20050193408A1 (en) * 2000-07-24 2005-09-01 Vivcom, Inc. Generating, transporting, processing, storing and presenting segmentation information for audio-visual programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
US20050193408A1 (en) * 2000-07-24 2005-09-01 Vivcom, Inc. Generating, transporting, processing, storing and presenting segmentation information for audio-visual programs
US20030108334A1 (en) * 2001-12-06 2003-06-12 Koninklijke Philips Elecronics N.V. Adaptive environment system and method of providing an adaptive environment
US20040197088A1 (en) * 2003-03-31 2004-10-07 Ferman Ahmet Mufit System for presenting audio-video content

Also Published As

Publication number Publication date
FR2898235A1 (fr) 2007-09-07

Similar Documents

Publication Publication Date Title
EP2104937B1 (fr) Procede de creation d&#39;un nouveau sommaire d&#39;un document audiovisuel comportant deja un sommaire et des reportages et recepteur mettant en oeuvre le procede
CA2924065C (fr) Segmentation de contenu video basee sur un contenu
KR100915847B1 (ko) 스트리밍 비디오 북마크들
KR102091414B1 (ko) 방송되는 미디어 관련 전자 메시징 향상
CN101150699B (zh) 信息处理装置和信息处理方法
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US20090007202A1 (en) Forming a Representation of a Video Item and Use Thereof
EP2507729A1 (fr) Dispositif multimédia multifonction
EP1859614A1 (fr) Procede de selection de parties d&#39;une emission audiovisuelle et dispositif mettant en uvre le procede
EP2443566B1 (fr) Procede de selection de versions d&#39;un document parmi une pluralite de versions reçues a la suite d&#39;une recherche, et recepteur associe
US20100259688A1 (en) method of determining a starting point of a semantic unit in an audiovisual signal
CN101553814A (zh) 用于产生视频数据流摘要的方法和设备
EP2524324B1 (fr) Procede de navigation parmi des identificateurs places dans des zones et recepteur mettant en oeuvre le procede
EP2489185B1 (fr) Procede pour rajouter un contenu vocal a un contenu video et dispositif mettant en oeuvre le procede
EP1958202B1 (fr) Procede d&#39;identification d&#39;un document enregistre par affichage et selection d&#39;images clefs, et recepteur associe
WO2007099050A1 (fr) Procede d&#39;affichage d&#39;informations extraites d&#39;un document compose de reportages et recepteur mettant en œuvre le procede
FR2889016A1 (fr) Procede de creation d&#39;un resume d&#39;un document en fonction de criteres introduits par l&#39;utilisateur, et dispositif audiovisuel associe au procede
EP2581909A1 (fr) Procédé de détermination d&#39;identificateurs de segments constituant un document audiovisuel et récepteur mettant en oeuvre le procédé
FR2880462A1 (fr) Procede de reproduction de documents comprenant des sequences alterees et, dispositif de reproduction associe
WO2011036040A2 (fr) Procede de navigation par pages dans une liste ordonnee de documents, et appareil mettant en oeuvre le procede
FR2947412A1 (fr) Procede de selection et de reproduction d&#39;un document possedant une sequence particuliere et recepteurs et serveurs associes
FR2845181A1 (fr) Procede de selection d&#39;elements dans une liste avec insertion automatique d&#39;elements et dispositif mettant en oeuvre le procede
FR2839233A1 (fr) Procede de navigation affichant un document, recepteur mettant en oeuvre le procede, et interface graphique pour la presentation du procede

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07712260

Country of ref document: EP

Kind code of ref document: A1