FR3049418A1 - Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants - Google Patents
Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants Download PDFInfo
- Publication number
- FR3049418A1 FR3049418A1 FR1652630A FR1652630A FR3049418A1 FR 3049418 A1 FR3049418 A1 FR 3049418A1 FR 1652630 A FR1652630 A FR 1652630A FR 1652630 A FR1652630 A FR 1652630A FR 3049418 A1 FR3049418 A1 FR 3049418A1
- Authority
- FR
- France
- Prior art keywords
- audio
- content
- video
- terminal
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000004590 computer program Methods 0.000 title claims description 9
- 238000009877 rendering Methods 0.000 claims abstract description 13
- 238000004458 analytical method Methods 0.000 claims description 20
- 230000001360 synchronised effect Effects 0.000 claims description 12
- 230000005236 sound signal Effects 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 8
- 238000012986 modification Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 239000003086 colorant Substances 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 208000016354 hearing loss disease Diseases 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 230000003304 psychophysiological effect Effects 0.000 description 3
- 230000000276 sedentary effect Effects 0.000 description 3
- 235000019640 taste Nutrition 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 208000029257 vision disease Diseases 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004393 visual impairment Effects 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 241001678235 Hister Species 0.000 description 1
- 239000004783 Serene Substances 0.000 description 1
- 230000001944 accentuation Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001337 psychedelic effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- MTCFGRXMJLQNBG-UHFFFAOYSA-N serine Chemical compound OCC(N)C(O)=O MTCFGRXMJLQNBG-UHFFFAOYSA-N 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4852—End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
L'invention concerne un procédé de contrôle du réglage d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en œuvre, pour un contenu audio et/ou vidéo à restituer, la réception (E1) d'un signal audio et/ou vidéo correspondant audit contenu, ledit procédé étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en œuvre ce qui suit: - analyse (E2) d'au moins une caractéristique du signal audio et/ou vidéo reçu: - réglage (E3) d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
Description
Procédé et dispositif de contrôle du réglage d’au moins un paramètre audio et/ou vidéo, terminal et programme d’ordinateur correspondants
Domaine de l'invention
Le domaine de l'invention est celui de la restitution de contenus par un terminal utilisateur. Un tel contenu peut être du texte, du son (ou de l'audio), des images, des vidéos, des applications/services ou encore toute combinaison de ces différents éléments. L’invention s’applique aussi bien à des contenus diffusés en temps réel sur un terminal utilisateur, qu’à des contenus préalablement enregistrés dans ce dernier.
De façon plus particulière, l’invention s’applique au contrôle du réglage des paramètres audio et/ou vidéo du terminal lors de la restitution du contenu. L'invention peut notamment être mise en œuvre dans un terminal doté d’une interface utilisateur et d’une interface graphique, par exemple une tablette, un téléphone portable, un smartphone (« téléphone intelligent »), un ordinateur personnel, une télévision connectée à un réseau de communication, etc...
Présentation de l’art antérieur
Aujourd’hui, pour régler les paramètres audio et/ou vidéo d’un terminal de restitution, par exemple un téléviseur, l’utilisateur accède, via un menu qui s’affiche sur son téléviseur, à une interface de réglage de ces paramètres.
Préalablement à la restitution d’un contenu ou bien durant la restitution du contenu, l’utilisateur peut ainsi régler manuellement les paramètres audio et vidéo dont certains peuvent être prédéfinis ou non.
De tels paramètres vidéo sont par exemple la couleur, le contraste, la nuance, la luminosité, etc...De tels paramètres audio sont par exemple le volume, la balance des sons, la fréquence audio, etc....
Ce type de réglage n’est pas forcément aisé pour un utilisateur non technophile qui ne sait pas toujours comment accéder rapidement à l’interface de réglage et quels paramètres régler. Il est en outre fastidieux compte tenu du grand nombre de paramètres audio et/ou vidéo susceptibles d’être réglés. De ce fait, il est assez rare que l’utilisateur intervienne sur les réglages de son téléviseur après l’achat de ce dernier.
Un autre inconvénient des interfaces de réglage de paramètres audio et/ou vidéo actuelles est qu’une fois le réglage effectué par l’utilisateur, ce réglage s’applique automatiquement à tous les contenus qui seront restitués par la suite sur le téléviseur et de façon uniforme sur toute la durée du contenu restituée.
Il existe donc un besoin d’une solution permettant de régler automatiquement les paramètres audio et/ou vidéo en fonction du contenu qui est restitué, sans intervention particulière de l’utilisateur, et d’adapter le réglage de ces paramètres en temps réel, durant toute la durée de restitution du contenu.
Objet et résumé de l’invention
Un des buts de l'invention est de remédier à des inconvénients de l'état de la technique précité. A cet effet, un objet de la présente invention concerne un procédé de contrôle d’au moins un paramètre audio et/ou vidéo d’un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en oeuvre, pour un contenu audio et/ou vidéo à restituer, la réception d’un signal audio et/ou vidéo correspondant au contenu.
Un tel procédé est remarquable en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en oeuvre ce qui suit: - analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu, - réglage d’au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
Une telle disposition permet avantageusement, au fur et à mesure de la restitution d’un contenu donné, une adaptation dynamique des paramètres audio et/ou vidéo du terminal de restitution en fonction de ce contenu. Une telle adaptation ne nécessite pas d’intervention particulière de l’utilisateur sur les réglages audio et/ou vidéo du terminal, préalablement à la restitution du contenu ou bien en cours de restitution du contenu.
Il en résulte une amélioration des conditions de visualisation et/ou d’écoute pendant toute la durée de restitution du contenu. En particulier, la sensation d’immersion de l’utilisateur par rapport au contenu est nettement plus marquée en comparaison avec les procédés de réglage audio et/ou vidéo de l’art antérieur.
On entend par restitution, soit la visualisation d’un contenu, soit l’écoute d’un contenu, soit les deux en même temps.
Le procédé de contrôle selon l’invention est par exemple mis en œuvre dans un terminal, tel qu’une set-top-box ou encore dans un terminal connecté à la set-top-box, tel que par exemple une tablette, un téléviseur, etc....
Selon un mode de réalisation particulier, le signal audio et/ou vidéo ayant été décomposé préalablement en une pluralité de séquences temporelles successives, l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante de la pluralité, une identification d’au moins une caractéristique du signal audio et/ou vidéo associée à la séquence temporelle courante.
Une telle disposition permet d’associer automatiquement à chaque séquence temporelle composant le signal audio et/ou vidéo un ou plusieurs réglages audio et/ou vidéo qui soient pertinents par rapport à la portion de contenu restituée correspondant à chaque séquence temporelle.
Si par exemple, le contenu considéré est un film dont certaines scènes se passent la nuit et d’autres le jour, le signal audio/vidéo est préalablement décomposé en séquences temporelles correspondant chacune à un enchaînement de scènes de jour et de nuit. Ainsi, par exemple, lors de la restitution du film sur le terminal : - s’agissant des scènes de nuit, les paramètres audio et/ou vidéo du terminal sont modifiés de façon synchronisée avec la restitution du contenu de façon à afficher les scènes de nuit par exemple en noir et blanc, avec une luminosité faible, tout en diminuant éventuellement les niveaux sonores des personnages apparaissant à l’écran, - s’agissant des scènes de jour, les paramètres audio et/ou vidéo du terminal sont modifiés de façon synchronisée avec la restitution du contenu de façon à afficher les scènes de jour par exemple en couleurs, avec un contraste et une luminosité augmentés, tout en augmentant éventuellement les niveaux sonores des personnages apparaissant à l’écran.
Selon encore un autre mode de réalisation particulier, l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu comprend une identification en continu d’au moins une information caractérisant le signal audio et/ou vidéo.
Une telle disposition permet d’associer automatiquement et dynamiquement à un instant courant de restitution du contenu, un ou plusieurs réglages audio et/ou vidéo qui soient pertinents par rapport aux caractéristiques du contenu restitué à cet instant courant.
Le contrôle du réglage des paramètres audio et/ou vidéo ainsi mis en oeuvre permet d’augmenter la cadence de modification de ces paramètres de façon à s’adapter de façon la plus fidèle possible à la nature du contenu restitué à un instant courant, dans le but d’optimiser les conditions de visualisation et/ou d’écoute, ainsi que la sensation d’immersion de l’utilisateur par rapport au contenu.
Selon encore un autre mode de réalisation particulier, la caractéristique du signal audio et/ou vidéo est une métadonnée caractérisant le contenu à un instant courant de restitution du contenu.
Une telle métadonnée diffère des métadonnées attribuées classiquement aux contenus dans leur globalité, en ce qu’elle précise un certain degré d’émotion ou de ressenti de l’utilisateur par rapport à une séquence du contenu restituée à un instant courant.
Ainsi, une telle métadonnée consiste par exemple dans : - le type de séquence du contenu : violent, calme, lent, rapide, etc..., - une sous-catégorie du genre de contenu : les actions les plus fortes et les commentaires les plus pertinents associés au genre « sport », les séquences les plus angoissantes ou les plus sanglantes associées au genre « horreur », les séquences de gags associées au genre « comédie », etc... - l’émotion procurée par le contenu : stress, calme, sensations fortes, angoisse, etc...
Le réglage des paramètres audio et/ou vidéo du terminal est particulièrement enrichi et évolutif par rapport aux quelques réglages fixes proposés dans l’art antérieur, puisqu’il peut être mis en œuvre en fonction de nombreuses informations caractérisant le contenu, dont certaines varient au cours de la restitution du contenu.
Selon encore un autre mode de réalisation particulier, la caractéristique du signal audio et/ou vidéo est respectivement au moins une portion d’image et/ou au moins une composante du son.
Une telle disposition permet de régler les paramètres audio et/ou vidéo grâce à une analyse fine intra contenu, au fur et à mesure de la restitution du contenu.
Une analyse intra contenu consiste par exemple à détecter en relation avec l’image courante : - une forme particulière, tel que par exemple un ballon dans le cas où le contenu est par exemple un match de football, - et/ou une ou plusieurs couleurs particulières, - et/ou une ou plusieurs fréquences sonores, tels que par exemple, la fréquence sonore de la voix d’un personnage ou du cri d’un animal, - et/ou le volume sonore d’une musique, - et/ou la balance des sons d’un bruit de fond, - etc...
Une adaptation des paramètres audio et/ou vidéo du terminal de restitution est alors mise en œuvre suite à cette analyse dans le but d’améliorer le confort visuel et/ou d’écoute de l’utilisateur.
Selon encore un autre mode de réalisation particulier, le réglage dudit au moins un paramètre audio et/ou vidéo du terminal, qui a été mis en œuvre en fonction de la caractéristique analysée, est modifié en fonction d’au moins un critère lié à l’utilisateur du terminal.
Une telle disposition permet avantageusement de compléter l’adaptation des paramètres audio et/ou vidéo en fonction du contenu restitué, par une adaptation de ces paramètres en fonction de critères propres à l’utilisateur du terminal.
Ainsi les paramètres audio et/ou vidéo qui sont dans un premier temps réglés en fonction du contenu conformément à l’invention peuvent être modifiés de façon personnalisée, c'est-à-dire par exemple, en tenant compte des goûts, des habitudes, des contraintes de l’utilisateur (ex : déficience auditive ou visuelle), de l’environnement de l’utilisateur, tel que par exemple le lieu (bruyant ou calme) où le contenu est restitué, le type de périphériques vidéo et/ou audio du terminal de restitution (taille et forme d’écrans, d’enceintes/haut-parleurs), le jour et/ou l’heure de restitution du contenu, etc....
Selon encore un autre mode de réalisation particulier, la modification comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère l’utilisateur du terminal, de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé.
Une telle modulation permet avantageusement d’accentuer ou bien d’atténuer, selon des critères propres à l’utilisateur, le réglage des paramètres audio et/ou vidéo qui a été mis en œuvre en fonction du contenu.
La modulation mise en œuvre par rapport à un seuil prédéterminé consiste par exemple : - en l’application de coefficients multiplicateurs prédéterminés aux valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, - en l’incrémentation ou en la décrémentation d’une valeur n prédéterminée (ex : n=1) des valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, le nombre d’incrémentations ou de décrémentations à effectuer étant lui aussi éventuellement prédéterminé en fonction du profil de l’utilisateur.
Selon encore un autre mode de réalisation particulier, la modification comprend un remplacement de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé par une autre valeur qui est fonction dudit au moins un critère lié à l’utilisateur du terminal.
Une telle disposition a pour avantage de permettre de remplacer automatiquement, de façon ponctuelle ou non, une ou plusieurs valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, en fonction d’un critère propre à l’utilisateur et préalablement connu.
Dans le cas par exemple où l’utilisateur sait qu’un contenu contient des scènes susceptibles de heurter la sensibilité des enfants (ex : contenant des propos vulgaires, des scènes violentes,..), l’utilisateur peut de sa propre initiative, préalablement à la restitution du contenu, sélectionner, via une interface dédiée, des règles de modification automatique de la restitution audio et/ou vidéo du contenu pour certaines scènes et/ou paroles sensibles. Ainsi, par exemple, le son pourra être coupé (volume à zéro) et/ou un écran noir (luminosité à zéro) pourra être visualisé, de façon à ce que les enfants n’entendent pas les propos prononcés dans certaines scènes, ni ne voient ces scènes.
Les différents modes ou caractéristiques de réalisation précités peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, au procédé de contrôle défini ci-dessus. L’invention concerne également un dispositif de contrôle du réglage d’au moins un paramètre audio et/ou vidéo d’un terminal qui est apte à restituer un contenu audio et/ou vidéo, un tel dispositif comprenant un circuit de traitement qui, pour un contenu audio et/ou vidéo à restituer, est agencé pour mettre en œuvre la réception d’un signal audio et/ou vidéo correspondant au contenu, un tel dispositif étant adapté pour mettre en œuvre le procédé de contrôle de réglage précité.
Un tel dispositif de contrôle de réglage est remarquable en ce que de façon synchronisée avec la restitution du contenu par le terminal, le circuit de traitement est agencé en outre pour mettre en œuvre ce qui suit: - analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu: - réglage d’au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée. L’invention concerne également un terminal comprenant le dispositif de contrôle d’affichage mentionné ci-dessus.
Un tel terminal est par exemple une set-top-box ou bien un terminal connecté à la set-top-box, tel que par exemple une tablette, un téléviseur, etc.... L'invention concerne encore un programme d'ordinateur comportant des instructions pour mettre en œuvre le procédé de contrôle de réglage selon l'invention, lorsqu'il est exécuté sur un terminal ou plus généralement sur un ordinateur.
Chacun de ces programmes peut utiliser n’importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable. L’invention vise également un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur, ce programme comportant des instructions adaptées à la mise en œuvre du procédé de contrôle de réglage selon l'invention, tel que décrit ci-dessus.
Un tel support d'enregistrement peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, une clé USB, ou encore un moyen d'enregistrement magnétique, par exemple un disque dur. D'autre part, un tel support d'enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé de contrôle d’affichage précité.
Le dispositif de contrôle de réglage, le terminal et le programme d'ordinateur correspondants précités présentent au moins les mêmes avantages que ceux conférés par le procédé de contrôle de réglage selon la présente invention.
Liste des figures D'autres avantages et caractéristiques de l'invention apparaîtront plus clairement à la lecture de la description suivante de plusieurs modes de réalisation particuliers de l'invention, donnés à titre de simples exemples illustratifs et non limitatifs, et des dessins annexés, parmi lesquels : la figure 1 présente de façon schématique une architecture dans laquelle est mis en oeuvre le procédé de contrôle de réglage selon l’invention ; la figure 2 présente la structure simplifiée d’un dispositif de contrôle du réglage des paramètres audio et/ou vidéo selon un mode de réalisation de l’invention ; la figure 3 présente de façon schématique les étapes d’un procédé de contrôle du réglage des paramètres audio et/ou vidéo selon l’invention ; les figures 4A à 4D représentent différents exemples de caractéristiques de signal audio et/ou vidéo analysées lors de la mise en oeuvre du procédé de contrôle de réglage de la figure 3, ainsi que la façon dont ces caractéristiques sont associées au signal audio et/ou vidéo ; les figures 5A à 5C représentent différents exemples d’analyse de caractéristiques, tels que mis en oeuvre dans le procédé de contrôle de réglage de la figure 3, la figure 6 représente un exemple d’interface de définition de règles propres à l’utilisateur qui sont prises en compte lors de la mise en oeuvre du procédé de contrôle de réglage de la figure 3.
Description de modes de réalisation particuliers de l'invention
En relation avec la figure 1, on présente une architecture dans laquelle est mis en oeuvre le procédé de contrôle du réglage d’au moins un paramètre audio et/ou vidéo selon l’invention.
Une telle architecture comprend un terminal TER d’accès à des contenus proposés par une plateforme de service PFS, via un réseau de communication RC, tel que par exemple de type IP (abréviation anglaise de « Internet Protocol »). La plateforme de service PFS propose différents contenus à l’utilisateur UT du terminal TER, tels que par exemple: - des contenus télévisuels TV, notamment ceux à diffusion programmée dans une grille de programmes, - des catalogues VOD, - des catalogues de vidéos et/ou d’images et/ou de photos, - des catalogues de musique, - des catalogues de podcasts, - des catalogues de livres numériques, - des catalogues d’applications et/ou de services. L’architecture précitée permet à l’utilisateur UT du terminal TER d’avoir accès aux contenus proposés aussi bien en situation de mobilité qu’en situation de sédentarité.
En situation de mobilité, le terminal TER est par exemple un téléphone portable, un smartphone (« téléphone intelligent »), une tablette, un ordinateur portable, etc...
En situation de sédentarité, le terminal TER pourrait être un ordinateur personnel de type PC.
Toujours en situation de sédentarité, et comme représenté sur la figure 1, le terminal TER se compose par exemple : - d’un terminal d’accès STB qui est apte à recevoir et traiter les contenus en provenance de la plateforme PFS, - d’un terminal de restitution, par exemple un téléviseur TLV tel que représenté sur la figure 1, apte à restituer à l’utilisateur UT les contenus traités par le terminal d’accès STB.
Dans un exemple de réalisation, le terminal d’accès et le terminal de restitution sont regroupés en un seul terminal. Il pourrait par exemple s’agir d’un téléviseur contenant un décodeur de type set-top-box, Dans un autre exemple, le terminal d’accès STB est une set-top-box et le terminal de restitution TER est une tablette faisant office de terminal de restitution connecté à la set-top-box au moyen d’un réseau local, par exemple sans fil, en particulier du type WiFi ou CPL (abréviation de « courants porteurs en ligne »). Selon d’autres exemples non représentés, le terminal TER pourrait être un téléphone portable, un smartphone (« téléphone intelligent »), le téléviseur TLV ou une radio connectée à un réseau de communication, etc... L’utilisateur UT peut interagir avec le terminal d’accès STB à l’aide d’une télécommande classique ou à l’aide du terminal TER qui comprend à cet effet une application logicielle adaptée de télécommande. Le terminal TER a alors la possibilité d’afficher une interface contenant des touches dédiées à des commandes préenregistrées. Ainsi, le terminal TER présente les mêmes fonctions qu’une télécommande classique de téléviseur. Par exemple, l’utilisateur peut demander la sélection d’un contenu reçu en provenance de la plateforme de services PFS, par simple pression des touches directionnelles «<— >,j «_> >,j «| »; « | » dans un menu associé à la visualisation et/ou à l’écoute des contenus reçus. L’utilisateur peut aussi valider le contenu sélectionné en pressant la touche «OK». Lorsque l’utilisateur active une touche de sa télécommande, un message comprenant la commande associée à cette touche est envoyé au terminal d’accès STB selon un protocole de communication adapté au réseau local utilisé.
Le terminal d’accès STB, de même que la terminal TER, comprennent en outre des moyens de connexion au réseau de communication RC qui peuvent être, par exemple, de type x-DSL, fibre ou encore 3G et 4G.
En relation avec la figure 2, on considère maintenant la structure simplifiée d’un dispositif 100 de contrôle du réglage des paramètres audio et/ou vidéo d’un terminal TER de restitution de contenu, selon un exemple de réalisation de l’invention. Un tel dispositif de contrôle de réglage est adapté pour mettre en œuvre le procédé de contrôle de réglage selon l’invention qui va être décrit ci-dessous.
Par exemple, le dispositif 100 comprend des ressources physiques et/ou logicielles, en particulier un circuit de traitement CT pour mettre en œuvre le procédé de réglage des paramètres audio et/ou vidéo selon l'invention, le circuit de traitement CT contenant un processeur PROC piloté par un programme d'ordinateur PG. A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire RAM, notée MR, avant d'être exécutées par le circuit de traitement CT.
Conformément à l’invention, pour un contenu audio et/ou vidéo à restituer par le terminal TER, le circuit de traitement CT est agencé pour mettre en œuvre : - la réception, via une interface de réception RCV, d’un signal S audio et/ou vidéo correspondant au contenu à restituer, tel que par exemple transmis par la plateforme PFS, et, de façon synchronisée avec la restitution du contenu, - l’analyse, via un analyseur ANA, d’au moins une caractéristique du signal audio et/ou vidéo S, - l’envoi au terminal TER, via une interface de communication COM, d’une instruction de réglage de paramètre audio et/ou vidéo, le réglage étant alors fonction de ladite caractéristique analysée.
Selon un premier exemple de réalisation, la caractéristique du signal audio et/ou vidéo est la valeur d’un paramètre audio et/ou vidéo qui est directement véhiculée dans le signal audio et/ou vidéo S.
Un paramètre audio courant PA, appartient à un ensemble de paramètres audio prédéterminés ΡΑ-ι, PA2, ..., ΡΑ,,..., PAm, tel que 1<i<M. Chacun de ces paramètres est associée à une valeur pour le paramètre audio PA-ι, VA2 pour le paramètre audio PA2, ...VAi pour le paramètre audio VAi,..., VAm pour le paramètre audio VAm.
Selon un exemple de réalisation, un tel ensemble contient trois paramètres audio, tels que: - le niveau sonore PAi, - la fréquence sonore PA2, - la balance des sons graves et aigus PA3.
Un paramètre vidéo courant PVj appartient à un ensemble de paramètres vidéo prédéterminés PV1, PV2, ..., PVj,..., PVn, tel que 1<j<N. Chacun de ces paramètres est associé à une valeur VV1 pour le paramètre vidéo PV1, VV2 pour le paramètre vidéo PV2, ...VVj pour le paramètre vidéo VVj,..., VVn pour le paramètre vidéo VVn-
Selon un exemple de réalisation, un tel ensemble contient trois paramètres vidéo, tels que : - le contraste PV-i, - la luminosité PV2, - la saturation des couleurs PV3.
Préalablement à la transmission du contenu vers le terminal TER en provenance de la plateforme PFS, le contenu est d’abord édité de façon à lui associer, sur toute sa durée, une ou plusieurs métadonnées caractérisant non pas le contenu dans sa globalité comme c’est le cas dans l’état de l’art, mais certaines séquences dudit contenu, ces métadonnées pouvant varier d’un instant à l’autre dans ledit contenu et/ou être présentes à certains endroits seulement du contenu.
Ces nouvelles métadonnées viennent préciser, par exemple par rapport à un type de contenu, un genre de contenu, un lieu associé à un contenu, etc... le niveau (très faible, faible, moyen, élevé, très élevé) de l’émotion ou du ressenti de l’utilisateur par rapport à un passage du contenu restitué à un instant courant.
De telles métadonnées consistent par exemple dans : - le type de séquence du contenu : violent, calme, lent, rapide, etc..., - le type de sous-catégories venant préciser le genre de contenu : par exemple pour le genre « sport », les actions les plus fortes, les commentaires les plus volubiles, pour le genre « horreur », les scènes à grands frissons et les scènes les plus sanglantes, pour le genre « comédie », les séquences de gags les plus hilarantes, pour le genre « romantique », les séquences de baisers, pour le genre « pop-rock », les séquences où on entend un riff ou des guitares saturées sur un morceau musical, etc..., - un instant particulier du contenu qui se passe dans la journée ou dans l’année, ou encore une atmosphère dans la journée ou le soir, etc..., - le type de lieu associé à une séquence du contenu : intérieur, extérieur, ville, campagne, mer, montagne, etc..., - l’émotion procurée par le contenu : stress, calme, sensations fortes, angoisse, etc...
En ce qui concerne la métadonnée « émotion », cette dernière est obtenue préalablement à partir d’une mesure de paramètres psychophysiologiques (rythme cardiaque, pression artérielle, température corporelle, conductance cutanée, etc.) ressentis par un panel de personnes à qui est restitué le contenu. Ces paramètres traduisent également les variations de ces émotions pendant la visualisation (ou toute autre forme de restitution visuelle et/ou sonore) du contenu. Un enregistrement de référence est alors généré, par combinaison des enregistrements obtenus avec les personnes de référence du panel. La combinaison consiste par exemple en une moyenne normalisée pour chaque instant d’une partie ou de la totalité de la durée contenu. Afin que cette moyenne normalisée soit représentative de la population, le panel comprend un nombre suffisant de personnes sans problème de santé particulier et les captures de valeurs sont effectuées dans des conditions stables de restitution du contenu.
Une fois la caractérisation du contenu effectuée, pour un instant ou une séquence temporelle considérée du contenu, au moins une des métadonnées associées à cet instant ou à cette séquence temporelle est elle-même associée à au moins une valeur d’un paramètre audio et/ou vidéo, telle que sélectionnée dans une plage s’étendant par exemple de 1 à 10.
Selon un deuxième exemple de réalisation, la caractéristique du signal audio et/ou vidéo S est un indicateur d’une métadonnée préalablement associée à un instant ou à une séquence temporelle du contenu. Comme cela sera détaillé plus loin dans la description, un tel indicateur est véhiculé dans un sous-flux synchronisé avec le signal audio et/ou vidéo.
La mise en oeuvre de ce deuxième mode de réalisation nécessite la construction au préalable d’une table de correspondance TC, dont un exemple non exhaustif est représenté ci-dessous.
Comme représenté sur la figure 2, la table de correspondance TC est externe au dispositif de contrôle de réglage 100, le(s) paramètre(s) audio et/ou vidéo étant délivrés sur requête du dispositif 100, via le réseau de communication RC, à chaque fois que ce dernier analyse le signal audio et/ou vidéo S considéré. En variante, la table TC pourrait être stockée dans une mémoire dédiée du dispositif 100.
Selon un troisième exemple de réalisation, la caractéristique du signal audio et/ou vidéo S est soit au moins une portion d’image courante, soit au moins une composante courante du son, soit au moins une portion d’image courante et au moins une composante courante du son.
Une portion d’image courante est par exemple : - une forme particulière, telle que par exemple un ballon dans le cas où le contenu est par exemple un match de football, - et/ou une ou plusieurs couleurs particulières, - etc...
Une composante courante du son est par exemple : - une ou plusieurs fréquences sonores, telles que par exemple, la fréquence sonore de la voix d’un personnage ou du cri d’un animal, - et/ou le volume sonore d’une musique, - et/ou la balance des sons d’un bruit de fond, - etc...
En relation avec la figure 3, on présente maintenant les étapes du procédé de contrôle de réglage d’au moins un paramètre audio et/ou vidéo conformément à un mode de réalisation selon l’invention. Dans le mode de réalisation représenté, ledit procédé de contrôle de réglage est mis en oeuvre par le dispositif 100 représenté sur la figure 2.
Au cours d’une étape E1 représentée à la figure 3, l’interface RCV de la figure 2 reçoit un signal audio et/ou vidéo S correspondant à un contenu à restituer par un terminal TER de l’utilisateur UT, tel que par exemple une tablette.
De façon synchronisée avec la restitution du contenu par le terminal TER : - au cours d’une étape E2 représentée à la figure 3, l’analyseur ANA procède à l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu, - au cours d’une étape E3 représentée à la figure 3, l’interface de communication COM envoie au terminal TER, selon un protocole de communication adapté au réseau local, une instruction IRG de réglage d’au moins un paramètre audio et/ou vidéo, dont la valeur est fonction de la caractéristique analysée.
Ainsi, de façon particulièrement avantageuse, les paramètres audio et/ou vidéo sont modifiés dynamiquement pendant la durée de restitution du contenu, sans que l’utilisateur ne procède de lui-même à un réglage de son terminal TER, préalablement à la restitution du contenu ou bien en cours de restitution de ce dernier. La qualité de la restitution du contenu est ainsi plus élevée que dans les dispositifs de restitution audio et/ou vidéo de l’art antérieur. La sensation d’immersion de l’utilisateur dans le contenu est aussi rendue plus forte et plus réaliste.
Selon un premier exemple de réalisation représenté sur la figure 4A, le signal audio et/ou vidéo S ayant été décomposé préalablement à la transmission du contenu, en une pluralité de séquences temporelles successives STi, ST2,..., STU,..., STr, tel que 1^u^R, l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante STU de ladite pluralité, une identification d’au moins une caractéristique C1U du signal audio et/ou vidéo associée à ladite séquence temporelle courante.
Sur la figure 4A, chaque séquence temporelle présente un instant de début et de fin. La séquence temporelle ST1 présente un instant de début, 0, et un instant de fin, t1. La séquence temporelle ST2 présente un instant de début, t1, et un instant de fin, t2, etc....
Les séquences temporelles ne sont pas obligatoirement de la même durée. Dans le cas par exemple où le contenu est un film, chaque séquence peut se composer d’un enchaînement de scènes correspondant à une action particulière du film. Dans le cas par exemple où le contenu est une chanson, chaque séquence temporelle peut se composer du premier couplet, du second couplet, du refrain, etc...
Préalablement à la transmission du contenu, pour au moins une séquence temporelle STU considérée, est associée au moins une caractéristique C1U de la portion de signal audio et/ou vidéo correspondant à cette séquence temporelle courante.
Dans l’exemple de la figure 4A, la caractéristique C1U est : - soit la valeur VA, d’un paramètre audio PA, appartenant à l’ensemble précité de paramètres audio prédéterminés PAi, PA2, PAj,..., PAm, - soit la valeur VVj d’un paramètre vidéo PVj appartenant à l’ensemble précité de paramètres vidéo prédéterminés PV1; PV2, PVj,..., PVN.
Une telle caractéristique est véhiculée directement dans le signal audio et/ou vidéo S, sous la forme d’un nombre d’octets dépendant de la valeur du paramètre audio et/ou vidéo considéré.
Dans l’exemple représenté, il existe une ou plusieurs valeurs de paramètres audio et/ou vidéo par séquence temporelle.
Pour chaque portion de contenu restituée correspondant à chaque séquence temporelle considérée, le terminal TER applique les valeurs de paramètres audio et/ou vidéo transmises dans l’instruction de réglage IRG envoyée par le dispositif 100 de la figure 2. Les valeurs d’autres types de paramètres audio et/ou vidéo non présentes dans l’instruction de réglage IRG sont appliquées par le terminal par défaut, de façon similaire à l’état de l’art.
Par exemple, s’agissant de la séquence temporelle ST2, l’instruction de réglage IRG contient la valeur VV3=8 qui, dans l’exemple représenté, correspond à la valeur de saturation des couleurs. Lors de la restitution de la portion de contenu correspondant à la séquence temporelle ST2, le terminal TER applique cette valeur VV3 de réglage et applique les valeurs des autres paramètres audio et/ou vidéo définis par défaut dans le terminal TER ou bien définis au préalable par l’utilisateur UT. A titre d’alternative à ce premier exemple de réalisation, selon un deuxième exemple représenté à la figure 4B, la caractéristique C1u est une métadonnée décrivant la portion de contenu associée à la séquence temporelle STU.
Si par exemple la séquence temporelle STU est associée à des scènes de violence sur un navire de guerre, les trois caractéristiques suivantes sont par exemple associées à cette séquence : - C1U = métadonnée « mer », - C2U = métadonnée « violence », - C3U = métadonnée « guerre ».
Conformément à l’invention, comme représenté sur la figure 4B, de telles caractéristiques sont véhiculées dans un sous-flux SF synchronisé avec le signal audio et/ou vidéo S. Ainsi, les caractéristiques C1u, C2U et C3U sont contenues dans une portion du sous-flux SF, notée SFU, qui est synchronisée avec la séquence temporelle STU.
Toujours à titre d’exemple, si la première séquence temporelle STi est associée à des scènes romantiques se passant pendant la deuxième guerre mondiale, les deux caractéristiques suivantes sont par exemple associées à cette séquence : - C11= métadonnée « passion », - C2i= métadonnée « guerre ».
Conformément au deuxième mode de réalisation de la figure 4B, comme représenté sur la figure 5A, l’analyse E2 du signal audio et/ou vidéo S, tel que mise en oeuvre à la figure 3, consiste, pour une séquence temporelle STU considérée, à : - en E20a, détecter dans le sous-flux correspondant SFU une ou plusieurs caractéristiques C1u, C2U,..., CKU, avec K>1, - pour chacune des caractéristiques détectées, en E21a, requérir dans la table de correspondance TC, la valeur d’un paramètre audio et/ou vidéo qui lui est associée, - en E22a, affecter à chaque caractéristique détectée, la valeur du paramètre audio et/ou vidéo qui lui est associée.
Selon un troisième exemple de réalisation représenté sur la figure 4C, le signal audio et/ou vidéo S n’est pas décomposé en plusieurs séquences temporelles. Il est simplement associé en continu à au moins une information caractérisant celui-ci.
Dans l’exemple de la figure 4C, une telle information est : - soit la valeur VA, d’un paramètre audio PA, appartenant à l’ensemble précité de paramètres audio prédéterminés PAi, PA2, ..., PA,,..., PAm, - soit la valeur VVj d’un paramètre vidéo PVj appartenant à l’ensemble précité de paramètres vidéo prédéterminés PV1; PV2, ..., PVj,..., PVN.
Une telle caractéristique est véhiculée directement dans le signal audio et/ou vidéo S, sous la forme d’un nombre d’octets dépendant de la valeur du paramètre audio et/ou vidéo considéré.
Dans l’exemple représenté, au fur et à mesure de la restitution du contenu par le terminal TER, l’analyseur ANA du dispositif 100 de la figure 2 lit, dans le signal S, chaque valeur de paramètre audio et/ou vidéo l’une après l’autre.
Le terminal TER applique alors directement chaque valeur de paramètres audio et/ou vidéo transmise dans chaque instruction de réglage IRG envoyée par le dispositif 100 de la figure 2. Dans l’exemple représenté sur la figure 4C, il s’agit des valeurs VA2=3, puis VV3=8, puis νν^θ , puis VA3=7, puis VV2=6, puis VVi=4, etc.... Les valeurs d’autres types de paramètres audio et/ou vidéo non présentes dans l’instruction de réglage IRG sont appliquées par le terminal par défaut, de façon similaire à l’état de l’art. A titre d’alternative à ce troisième exemple de réalisation, selon un quatrième mode de réalisation représenté à la figure 4D, l’information caractérisant en continu le signal audio et/ou vidéo S est un enregistrement de référence de l’évolution, au cours de la restitution préalable du contenu, d’un paramètre psycho-physiologique tel que par exemple le rythme cardiaque, la pression artérielle, la température corporelle, conductance cutanée, etc...
Conformément à l’invention, comme représenté sur la figure 4D, un tel enregistrement est véhiculé dans un sous-flux SF synchronisé avec le signal audio et/ou vidéo S.
Bien entendu, plusieurs sous-flux différents peuvent être synchronisés avec le signal audio et/ou vidéo S. Ainsi, le signal audio et/ou vidéo S pourrait être synchronisé par exemple avec un premier sous-flux transportant l’enregistrement du rythme cardiaque et un deuxième sous-flux transportant l’enregistrement de la pression artérielle.
Comme représenté sur la figure 5B, l’analyse E2 du signal audio et/ou vidéo S, tel que mise en œuvre à la figure 3, consiste alors, de façon continue et synchronisée avec la restitution du contenu par le terminal TER, à : - en E20b, détecter dans le sous-flux SF les valeurs du paramètre psycho-physiologique, - pour chacune des valeurs détectées, en E21b, attribuer une métadonnée correspondante, telle que « stress », « calme », « angoisse », etc..., - en E22b, requérir dans la table de correspondance TC, la valeur d’un paramètre audio et/ou vidéo associée à chaque métadonnée correspondante, - en E23b, affecter à chaque métadonnée correspondante, la valeur du paramètre audio et/ou vidéo qui lui est associée.
Selon un cinquième mode de réalisation représenté sur la figure 5C, l’analyseur ANA procède à une analyse intra-contenu. A cet effet, l’analyse E2 du signal audio et/ou vidéo S, tel que mise en œuvre à la figure 3, consiste alors, de façon continue et synchronisée avec la restitution du contenu par le terminal TER, à : - en E20c, détecter au moins une portion d’image et/ou une composante du son qui sont, de préférence, récurrentes tout au long du contenu, - en E21c, affecter une valeur VVj ou VA, d’au moins un paramètre audio et/ou vidéo, en correspondance avec la portion d’image et/ou la composante du son détectée.
Dans le cas par exemple où le contenu est un match de football, une portion d’image courante est par exemple le ballon, lequel est détecté par un algorithme de reconnaissance de forme. L’analyseur ANA affectera par exemple une valeur VVi de contraste bien plus élevée sur le ballon que celle préalablement programmée dans le terminal TER. A titre d’alternative, le contraste plus élevé peut être appliqué sur toute l’image et non pas uniquement sur le ballon.
Dans le cas par exemple où le contenu est une chanson interprétée en duo par un chanteur et une chanteuse, une composant audio est l’une des pistes audio correspondant respectivement à la voix du chanteur et à la voix de la chanteuse. L’analyseur ANA affectera par exemple une valeur particulière VA2 de fréquence sonore à la piste audio correspondant par exemple à la voix de la chanteuse, de façon à rendre la restitution audio du contenu plus saisissante ou plus confortable.
Les différents modes de réalisation qui viennent d’être décrits en référence aux figures 4A à 4D et 5A à 5C peuvent bien sûr être combinés ensemble pour un enrichissement toujours plus élevé de paramètres audio et/ou vidéo à régler automatiquement.
En outre, le réglage des paramètres audio et/ou vidéo mis en œuvre à l’aide de ces différents modes de réalisation peut être modifié en fonction d’au moins un critère lié à l’utilisateur UT.
Ainsi les paramètres audio et/ou vidéo qui sont dans un premier temps réglés en fonction du contenu conformément aux différents modes de réalisations décrits ci-dessus peuvent être modifiés de façon personnalisée, c'est-à-dire par exemple, en tenant compte des goûts, des habitudes, des contraintes de l’utilisateur (ex : déficience auditive ou visuelle), de l’environnement de l’utilisateur, tel que par exemple le lieu (bruyant ou calme) où le contenu est restitué, le type de périphériques vidéo et/ou audio du terminal de restitution TER (taille et forme d’écrans, d’enceintes/haut-parleurs), le jour et/ou l’heure de restitution du contenu, etc.... A cet effet, préalablement à la restitution d’un contenu, la plateforme PFS récupère ces différents critères utilisateur.
Une telle récupération est par exemple mise en oeuvre en extrayant des informations d’un historique de visualisation/écoute de contenu de l’utilisateur UT qui est remonté vers la plateforme PFS via le réseau de communication RC de la figure 1.
Selon un autre exemple, sur requête de l’utilisateur UT auprès de la plateforme PFS, ce dernier a la possibilité, via une interface dédiée qui s’affiche sur son terminal TER ou son téléviseur TLV, de déclarer manuellement ses goûts, ses habitudes et ses contraintes. Par exemple, l’utilisateur UT peut indiquer qu’il regarde la télévision dans sa chambre entre 20h et 22h, sur son téléviseur TLV ayant un écran Haute-Définition de 26 pouces. Selon un autre exemple, l’utilisateur UT peut indiquer qu’il est daltonien ou bien gêné par certaines fréquences sonores, etc....
Suite à la récupération des critères de l’utilisateur, en référence à la figure 3, à la suite de la mise en œuvre de l’étape d’analyse E2, il est procédé, en E’2, à une modification des valeurs de réglage des paramètres audio et/ou vidéo, en fonction des critères de l’utilisateur récupérés par la plateforme PFS. L’étape E’2 étant optionnelle, elle est représentée en pointillé sur la figure 3.
Selon un premier mode de réalisation, la modification E’2 comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère l’utilisateur du terminal, de la valeur du ou des paramètres audio et/ou vidéo qui ont été réglés à l’issue de l’étape E2.
La modulation mise en œuvre par rapport à un seuil prédéterminé consiste par exemple : - en l’application de coefficients multiplicateurs prédéterminés aux valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, - en l’incrémentation ou en la décrémentation d’une valeur n prédéterminée (ex : n=1 ) des valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, le nombre d’incrémentations ou de décrémentations à effectuer étant lui aussi éventuellement prédéterminé en fonction du profil de l’utilisateur.
Par exemple, si l’utilisateur UT a déclaré préalablement à la plateforme PFS qu’il est déficient auditif, la valeur VA-i attribuée au paramètre PAi de niveau sonore est augmentée automatiquement de n=3 avant l’envoi, en E3, de l’instruction de réglage IRG.
Selon un autre exemple, si l’utilisateur UT a déclaré préalablement à la plateforme PFS qu’il est déficient visuel, si par exemple deux valeurs VVi et VV3 ont été respectivement attribuées à l’étape E2 aux paramètres vidéo PV1 de contraste et PV3 de saturation des couleurs, deux coefficients multiplicateurs prédéterminés sont appliqués aux valeurs VV1 et VV3 avant l’envoi, en E3, de l’instruction de réglage IRG.
Selon un deuxième mode de réalisation, la modification E’2 comprend un remplacement de la valeur du ou des paramètres audio et/ou vidéo qui ont été réglés à l’issue de l’étape E2, par une autre valeur qui est fonction d’au moins un critère lié à l’utilisateur du terminal.
Par exemple, dans le cas de l’analyse des caractéristiques du signal audio et/ou vidéo telle que mise en œuvre à la figure 5C, si l’utilisateur UT a déclaré préalablement à la plateforme PFS qu’il était daltonien, avant l’envoi, en E3, de l’instruction de réglage IRG, les zones de couleur que ce dernier ne parvient pas à percevoir dans l’image courante sont remplacées respectivement par des zones de couleur qu’il réussit à percevoir.
Selon un autre exemple, toujours dans le cas de l’analyse des caractéristiques du signal audio et/ou vidéo telle que mise en œuvre à la figure 5C, si l’utilisateur UT a déclaré préalablement à la plateforme PFS qu’il était gêné par les hautes-fréquences, si de telles hautes-fréquences sont présentes dans certaines composantes (pistes) du signal audio, elles sont remplacées par des fréquences plus basses du spectre avant l’envoi, en E3, de l’instruction de réglage IRG.
On va maintenant décrire, en relation avec la figure 6, un exemple d’interface Ul, à l’aide de laquelle l’utilisateur UT déclare des critères qui lui sont propres et qui vont influer sur l’analyse mise en oeuvre par l’analyseur ANA de la figure 2.
Dans l’exemple représenté, ces critères se présentent sous la forme de règles qui viennent compléter ou se substituer aux réglages automatiques mis en oeuvre dans le dispositif 100 de la figure 2.
Dans l’exemple représenté, quatre règles sont définies : - Réglages automatiques, - Filtrage pour les petits, - Augmente le contraste pour les scènes sombres, - Améliore la perception des voix féminines. S’agissant de la règle « filtrage pour les petits >>, l’utilisateur peut imposer au dispositif 100 une valeur de réglage de certains paramètres audio/vidéo, par exemple le volume et la luminosité. Les valeurs de réglage sont sélectionnées par l’utilisateur en déplaçant par exemple un curseur associé à chaque paramètre. S’agissant de la règle « augmente le contraste pour les scènes sombres >>, l’utilisateur peut imposer au dispositif 100 une valeur de contraste qu’il a la possibilité d’incrémenter ou de décrémenter selon ses besoins. S’agissant de la règle « améliore la perception des voix féminines >>, l’utilisateur peut imposer au dispositif 100 une valeur de fréquences graves et une valeur de fréquences aigües, qu’il a la possibilité d’incrémenter ou de décrémenter selon ses besoins.
Ces règles peuvent par ailleurs être ou non adaptés automatiquement en fonction des usages et habitudes de l’utilisateur.
Chaque nouvelle règle vient s’empiler au-dessus de la précédente à l’aide du bouton « ajouter >>.
Il est possible de supprimer une règle à l’aide du bouton « supprimer >> et de modifier l’ordre des règles.
Dans l’exemple représenté, les règles sont analysées de haut en bas, c’est à dire (de la plus à la moins prioritaire). Dès que la définition d’une règle correspond au contenu visionné, la règle s’applique. L’invention qui vient d’être décrite ci-dessus présente ainsi de nombreux avantages, tels que par exemple : - améliorer le confort audiovisuel propre à certains types de contenus, comme par exemple : - améliorer le contraste, la couleur verte de la pelouse et la bande de fréquences de la voix pour profiter pleinement d'un match de football, visualiser mieux le ballon et maximiser la compréhension des commentaires, - améliorer un concert musical : balance des sons et couleurs un peu saturées (ambiance psychédélique),... - intensifier certaines scènes, par exemple en : - augmentant le son des scènes avec du suspens ou très tendues, - en saturant les couleurs pour les scènes d’horreur, - en améliorant le contraste pour les scènes sombres, - diminuer l'impact de certaines scènes dans le cas où le contenu est restitué à des personnes sensibles, par exemple en : - combinant contraste et luminosité, voire le volume sonore, pour diminuer la visibilité des scènes difficiles (violentes, d’horreur,...), - adaptant les couleurs pour les personnes daltoniennes : sur chaque image, remplacement de couleurs mal perçues par d’autres qui permettent de mieux ressentir la scène.
Exemples illustratifs :
Agnès a une petite déficience auditive sur une bande de fréquences particulière. Agnès configure son système afin que les fréquences vocales des contenus qui interviendraient dans cette bande soit décalées afin qu’elle les entende mieux.
Martin ne fait pas entièrement confiance aux contenus dits « tous publics » pour ses enfants. Il configure alors son système afin que toutes les scènes non adaptées soient artificiellement occultées par une adaptation automatique du volume (son coupé) et de la luminosité de l’image (écran noir). Martin est ainsi plus serein et rassuré.
Le dernier film vu par Paul était une suite d’allers-retours entre des scènes romantiques et des scènes avec du suspens et de l’angoisse. Le sujet était certes un peu compliqué mais grâce aux accentuations de contraste, les réglages son atténués ou amplifiés tout au long du film. Paul a ainsi l’impression d’avoir ressenti des émotions vraiment fortes, proches de celles qu’il ressent dans la réalité.
Il va de soi que les modes de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l’homme de l’art sans pour autant sortir du cadre de l’invention.
Claims (12)
- REVENDICATIONS1. Procédé de contrôle du réglage d’au moins un paramètre audio et/ou vidéo d’un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en oeuvre, pour un contenu audio et/ou vidéo à restituer, la réception (E1) d’un signal audio et/ou vidéo (S) correspondant audit contenu, ledit procédé étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en oeuvre ce qui suit: - analyse (E2) d’au moins une caractéristique du signal audio et/ou vidéo reçu: - réglage (E3) d’au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
- 2. Procédé selon la revendication 1, dans lequel le signal audio et/ou vidéo ayant été décomposé préalablement en une pluralité de séquences temporelles successives, l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante de ladite pluralité, une identification (E20a) d’au moins une caractéristique du signal audio et/ou vidéo associée à ladite séquence temporelle courante.
- 3. Procédé selon la revendication 1, dans lequel l’analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu comprend une identification en continu (E20b) d’au moins une information caractérisant le signal audio et/ou vidéo.
- 4. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la caractéristique du signal audio et/ou vidéo est une métadonnée caractérisant le contenu à un instant courant de restitution du contenu.
- 5. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la caractéristique du signal audio et/ou vidéo est respectivement au moins une portion d’image et/ou au moins une composante du son.
- 6. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel le réglage dudit au moins un paramètre audio et/ou vidéo du terminal, qui a été mis en œuvre en fonction de la caractéristique analysée, est modifié (E’2) en fonction d’au moins un critère lié à l’utilisateur du terminal.
- 7. Procédé selon la revendication 6, dans lequel la modification comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère l’utilisateur du terminal, de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé.
- 8. Procédé selon la revendication 6, dans lequel la modification comprend un remplacement de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé par une autre valeur qui est fonction dudit au moins un critère lié à l’utilisateur du terminal.
- 9. Dispositif (100) de contrôle du réglage d’au moins un paramètre audio et/ou vidéo d’un terminal qui est apte à restituer un contenu audio et/ou vidéo, ledit dispositif comprenant un circuit de traitement (CT) qui, pour un contenu audio et/ou vidéo à restituer, est agencé pour mettre en œuvre la réception d’un signal audio et/ou vidéo correspondant audit contenu, le dispositif étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le circuit de traitement est agencé en outre pour mettre en œuvre ce qui suit: - analyse d’au moins une caractéristique du signal audio et/ou vidéo reçu: - réglage d’au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
- 10. Terminal (TER) apte à contenir un dispositif (100) de contrôle selon la revendication 9.
- 11. Programme d'ordinateur comportant des instructions de code de programme pour l’exécution des étapes du procédé de contrôle selon l’une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté sur un ordinateur.
- 12. Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes du procédé de contrôle selon l’une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté par un ordinateur.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1652630A FR3049418A1 (fr) | 2016-03-25 | 2016-03-25 | Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants |
PCT/FR2017/050661 WO2017162980A1 (fr) | 2016-03-25 | 2017-03-21 | Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants |
EP17716960.4A EP3434022A1 (fr) | 2016-03-25 | 2017-03-21 | Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants |
US16/088,025 US20200304882A1 (en) | 2016-03-25 | 2017-03-21 | Method and device for controlling the setting of at least one audio and/or video parameter, corresponding terminal and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1652630A FR3049418A1 (fr) | 2016-03-25 | 2016-03-25 | Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3049418A1 true FR3049418A1 (fr) | 2017-09-29 |
Family
ID=56372983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1652630A Pending FR3049418A1 (fr) | 2016-03-25 | 2016-03-25 | Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200304882A1 (fr) |
EP (1) | EP3434022A1 (fr) |
FR (1) | FR3049418A1 (fr) |
WO (1) | WO2017162980A1 (fr) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TR201721653A2 (tr) * | 2017-12-25 | 2019-07-22 | Arcelik As | Bi̇r televi̇zyon |
US10314477B1 (en) | 2018-10-31 | 2019-06-11 | Capital One Services, Llc | Systems and methods for dynamically modifying visual content to account for user visual impairment |
GB2580938A (en) | 2019-01-31 | 2020-08-05 | Sony Corp | System and method of setting selection for the presentation of AV content |
CN111263190A (zh) * | 2020-02-27 | 2020-06-09 | 游艺星际(北京)科技有限公司 | 视频处理方法及装置、服务器、存储介质 |
US12114038B2 (en) * | 2021-04-02 | 2024-10-08 | Rovi Guides, Inc. | Methods and systems for providing dynamic content based on user preferences |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110095875A1 (en) * | 2009-10-23 | 2011-04-28 | Broadcom Corporation | Adjustment of media delivery parameters based on automatically-learned user preferences |
EP2916557A1 (fr) * | 2014-03-05 | 2015-09-09 | Samsung Electronics Co., Ltd | Appareil d'affichage et son procédé de commande |
US20150302819A1 (en) * | 2014-04-22 | 2015-10-22 | Lenovo (Singapore) Pte. Ltd. | Updating an attribute used for displaying video content based on video content type |
-
2016
- 2016-03-25 FR FR1652630A patent/FR3049418A1/fr active Pending
-
2017
- 2017-03-21 WO PCT/FR2017/050661 patent/WO2017162980A1/fr active Application Filing
- 2017-03-21 EP EP17716960.4A patent/EP3434022A1/fr active Pending
- 2017-03-21 US US16/088,025 patent/US20200304882A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110095875A1 (en) * | 2009-10-23 | 2011-04-28 | Broadcom Corporation | Adjustment of media delivery parameters based on automatically-learned user preferences |
EP2916557A1 (fr) * | 2014-03-05 | 2015-09-09 | Samsung Electronics Co., Ltd | Appareil d'affichage et son procédé de commande |
US20150302819A1 (en) * | 2014-04-22 | 2015-10-22 | Lenovo (Singapore) Pte. Ltd. | Updating an attribute used for displaying video content based on video content type |
Also Published As
Publication number | Publication date |
---|---|
EP3434022A1 (fr) | 2019-01-30 |
WO2017162980A1 (fr) | 2017-09-28 |
US20200304882A1 (en) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3434022A1 (fr) | Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants | |
US7698238B2 (en) | Emotion controlled system for processing multimedia data | |
US7610260B2 (en) | Methods and apparatus for selecting and providing content data using content data status information | |
KR20060123074A (ko) | 콘텐트 정보의 사용자 프로파일 제어 렌더링 | |
JP2021505046A (ja) | 会話との関連でコンテンツを推奨する方法およびシステム | |
US11477525B2 (en) | Creative intent scalability via physiological monitoring | |
US20200021630A1 (en) | Multi-deterministic dynamic content streaming | |
KR20020027358A (ko) | 그래픽 사용자 인터페이스를 적응시키기 위한 방법 및 장치 | |
CN114125566B (zh) | 互动方法、系统及电子设备 | |
US20220167052A1 (en) | Dynamic, user-specific content adaptation | |
US20130132521A1 (en) | Presenting alternative media content based on environmental factors | |
CN117376596B (zh) | 基于智能数字人模型的直播方法、装置及存储介质 | |
Jumisko et al. | Effect of TV content in subjective assessment of video quality on mobile devices | |
KR101585830B1 (ko) | 시청자 감정에 따른 스토리 전개 시스템 및 방법 | |
CN110324702B (zh) | 视频播放过程中的信息推送方法和装置 | |
JP2014123085A (ja) | カラオケにおいて歌唱に合わせて視聴者が行う身体動作等をより有効に演出し提供する装置、方法、およびプログラム | |
FR3090256A1 (fr) | Procédé de reproduction sur un terminal d’un contenu principal en restituant un contenu secondaire associé à un objet affiché, terminal, serveur, et programme d’ordinateur correspondants. | |
KR20030065719A (ko) | 데이터 방송 서비스장치 및 방법 | |
AU743455B2 (en) | Environment adaptive multimedia presentation | |
FR3035989A1 (fr) | Procede de reglage du niveau de definition des images d'un programme multimedia | |
US20240267572A1 (en) | Content modification system and method | |
US20220174358A1 (en) | Content moderation for extended reality media | |
US12075115B2 (en) | Supplemental audio generation system in an audio-only mode | |
US20220109911A1 (en) | Method and apparatus for determining aggregate sentiments | |
JP5156666B2 (ja) | コンテンツ提示システム及びコンテンツ提示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170929 |