EP3434022A1 - Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants - Google Patents

Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants

Info

Publication number
EP3434022A1
EP3434022A1 EP17716960.4A EP17716960A EP3434022A1 EP 3434022 A1 EP3434022 A1 EP 3434022A1 EP 17716960 A EP17716960 A EP 17716960A EP 3434022 A1 EP3434022 A1 EP 3434022A1
Authority
EP
European Patent Office
Prior art keywords
audio
content
video
terminal
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP17716960.4A
Other languages
German (de)
English (en)
Inventor
Martinho Dos Santos
Chantal Guionnet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Publication of EP3434022A1 publication Critical patent/EP3434022A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the field of the invention is that of the return of content by a user terminal.
  • content may be text, sound (or audio), images, videos, applications / services or any combination of these elements.
  • the invention applies both to content broadcast in real time on a user terminal, as content previously recorded in the latter.
  • the invention applies to the control of the adjustment of the audio and / or video parameters of the terminal during the return of the content.
  • the invention can in particular be implemented in a terminal with a user interface and a graphical interface, for example a tablet, a mobile phone, a smartphone ("smart phone"), a personal computer, a connected television to a communication network, etc.
  • a terminal with a user interface and a graphical interface for example a tablet, a mobile phone, a smartphone ("smart phone"), a personal computer, a connected television to a communication network, etc.
  • a rendering terminal for example a television
  • the user accesses, via a menu that appears on his television, an interface for setting these parameters.
  • the user can manually adjust the audio and video parameters some of which may be predefined or not.
  • Such video parameters are, for example, color, contrast, hue, brightness, etc.
  • Such audio parameters are for example the volume, the balance of sounds, the audio frequency, etc.
  • One of the aims of the invention is to overcome disadvantages of the state of the art mentioned above.
  • an object of the present invention concerns a method for controlling at least one audio and / or video parameter of a terminal that is capable of rendering audio and / or video content, implementing, for a content audio and / or video to be rendered, the reception of an audio and / or video signal corresponding to the content.
  • Such an arrangement advantageously makes it possible, as and when the restoration of a given content, a dynamic adaptation of the parameters audio and / or video of the rendering terminal according to this content.
  • Such an adaptation does not require any particular intervention of the user on the audio and / or video settings of the terminal, prior to the return of the content or during playback of the content.
  • Restitution means viewing a content, listening to content, or both at the same time.
  • control method according to the invention is for example implemented in a terminal, such as a set-top-box or in a terminal connected to the set-top box, such as for example a tablet, a television set. , etc ....
  • the audio and / or video signal having been previously decomposed into a plurality of successive temporal sequences
  • the analysis of at least one characteristic of the received audio and / or video signal comprises, for a current time sequence of the plurality, an identification of at least one characteristic of the audio and / or video signal associated with the current time sequence.
  • Such an arrangement makes it possible to automatically associate with each time sequence that makes up the audio and / or video signal one or more audio and / or video settings that are relevant with respect to the portion of content returned corresponding to each time sequence.
  • the audio / video signal is first broken down into time sequences each corresponding to a sequence of day and night scenes.
  • the audio / video signal is first broken down into time sequences each corresponding to a sequence of day and night scenes.
  • the audio and / or video parameters of the terminal are modified synchronously with the return of the content to display the night scenes for example in black and white, with low brightness, while possibly decreasing the sound levels of the characters appearing on the screen,
  • the audio and / or video parameters of the terminal are modified synchronously with the reproduction of the content so as to display the day scenes, for example in color, with increased contrast and brightness, all by possibly increasing the sound levels of the characters appearing on the screen.
  • the analysis of at least one characteristic of the received audio and / or video signal comprises a continuous identification of at least one information characterizing the audio and / or video signal.
  • Such an arrangement makes it possible to associate automatically and dynamically at a current instant of reproduction of the content, one or more audio and / or video settings that are relevant to the characteristics of the content restored at this current time.
  • control of the adjustment of the audio and / or video parameters thus implemented makes it possible to increase the rate of modification of these parameters so as to adapt as closely as possible to the nature of the content restored at a current time, in the goal of optimizing viewing and / or listening conditions, as well as the user's feeling of immersion in relation to the content.
  • the characteristic of the audio and / or video signal is a metadata characterizing the content at a current moment of restitution of the content.
  • Such a metadata differs from the metadata conventionally attributed to the contents as a whole, in that it specifies a certain degree of emotion or feeling of the user with respect to a sequence of content restored at a current time.
  • Such a metadata consists for example in:
  • the adjustment of the audio and / or video parameters of the terminal is particularly enriched and scalable with respect to the few fixed adjustments proposed in the prior art, since it can be implemented depending on the many information characterizing the content, some of which vary from time to time. during the restitution of the content.
  • the characteristic of the audio and / or video signal is respectively at least one image portion and / or at least one component of the sound.
  • Such an arrangement makes it possible to adjust the audio and / or video parameters thanks to a fine intra-content analysis, as and when the content is returned.
  • An intra-content analysis consists, for example, in detecting in relation to the current image:
  • a particular form such as for example a balloon in the case where the content is for example a football match,
  • an adaptation of the audio and / or video parameters of the rendering terminal is then implemented following this analysis in order to improve the visual comfort and / or listening of the user.
  • the adjustment of said at least one audio and / or video parameter of the terminal which has been implemented as a function of the analyzed characteristic, is modified according to at least one criterion related to the terminal user.
  • Such an arrangement advantageously makes it possible to complete the adaptation of the audio and / or video parameters as a function of the content rendered, by an adaptation of these parameters according to criteria specific to the user of the terminal.
  • the audio and / or video parameters that are initially adjusted according to the content according to the invention can be modified in a personalized way, that is to say for example, taking into account the tastes, habits, user constraints (eg hearing or visual impairment), the user's environment, such as the location (noisy or quiet) where the content is rendered, the type of video and / or audio devices the rendering terminal (size and shape of screens, speakers / speakers), the day and / or the time of return of the content, etc.
  • tastes, habits eg hearing or visual impairment
  • user constraints eg hearing or visual impairment
  • the user's environment such as the location (noisy or quiet) where the content is rendered
  • the type of video and / or audio devices the rendering terminal size and shape of screens, speakers / speakers
  • the day and / or the time of return of the content etc.
  • the modification comprises a modulation, with respect to a predetermined threshold which is a function of said at least one criterion related to the user of the terminal, of the value of said at least one audio and / or video parameter. which has been settled.
  • Such a modulation advantageously makes it possible to accentuate or to attenuate, according to criteria specific to the user, the adjustment of the audio and / or video parameters that has been implemented as a function of the content.
  • the modulation implemented with respect to a predetermined threshold consists, for example:
  • n 1
  • the values of the audio and / or video parameters adjusted according to the content the number of increments or decrements to be made being also possibly predetermined according to the profile of the user.
  • the modification comprises a replacement of the value of said at least one audio and / or video parameter which has been adjusted by another value which is a function of said at least one criterion related to the user of the terminal .
  • Such an arrangement has the advantage of allowing to automatically replace, in a timely manner or not, one or more values of the audio and / or video parameters set according to the content, according to a criterion specific to the user and previously known.
  • the user can on his own initiative, previously when rendering the content, select, via a dedicated interface, rules for automatically modifying the audio and / or video reproduction of the content for certain scenes and / or sensitive lyrics.
  • the sound can be cut (volume to zero) and / or a black screen (brightness to zero) can be visualized, so that children do not hear the words spoken in certain scenes, or see these scenes.
  • the invention also relates to a device for controlling the adjustment of at least one audio and / or video parameter of a terminal that is capable of rendering audio and / or video content, such a device comprising a processing circuit which, for audio and / or video content to be reproduced, is arranged to implement the reception of an audio signal and / or video corresponding to the content, such a device being adapted to implement the aforementioned control adjustment method.
  • Such a control adjustment device is remarkable in that synchronized with the reproduction of the content by the terminal, the circuit of processing is further arranged to implement the following:
  • the invention also relates to a terminal comprising the display control device mentioned above.
  • Such a terminal is for example a set-top box or a terminal connected to the set-top box, such as for example a tablet, a TV, etc.
  • the invention also relates to a computer program comprising instructions for implementing the adjustment control method according to the invention, when it is executed on a terminal or more generally on a computer.
  • Each of these programs can use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in a partially compiled form, or in any form what other form is desirable.
  • the invention also relates to a computer-readable recording medium on which a computer program is recorded, this program including instructions adapted to the implementation of the control control method according to the invention, as described herein. -above.
  • Such a recording medium may be any entity or device capable of storing the program.
  • the medium may comprise storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, a USB key, or a magnetic recording means, for example a hard disk.
  • such a recording medium may be a transmissible medium such as an electrical or optical signal, which may be conveyed via an electrical or optical cable, by radio or by other means.
  • the program according to the invention can be downloaded in particular on an Internet type network.
  • the recording medium may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the aforementioned display control method.
  • the aforementioned adjustment control device, the terminal and the corresponding computer program have at least the same advantages as those conferred by the control control method according to the present invention.
  • FIG. 1 schematically shows an architecture in which is implemented the control control method according to the invention
  • FIG. 2 presents the simplified structure of a device for controlling the adjustment of the audio and / or video parameters according to one embodiment of the invention
  • FIG. 3 schematically shows the steps of a method for controlling the adjustment of the audio and / or video parameters according to the invention
  • FIGS. 4A to 4D show various examples of audio and / or video signal characteristics analyzed during the implementation of the control control method of FIG. 3, as well as the way in which these characteristics are associated with the audio signal and / or video ;
  • FIGS. 5A to 5C show various examples of characteristics analysis, as implemented in the control control method of FIG. 3,
  • FIG. 6 represents an example of a user-specific definition interface that is taken into account when implementing the adjustment control method of FIG. 3. Description of particular embodiments of the invention
  • FIG. 1 an architecture is presented in which the method for controlling the adjustment of at least one audio and / or video parameter according to the invention is implemented.
  • Such an architecture comprises a TER terminal for accessing content offered by a PFS service platform, via an RC communication network, such as for example of the IP (abbreviation of "Internet Protocol") type.
  • the service platform PFS offers different contents to the user UT of the terminal TER, such as for example:
  • the aforementioned architecture allows the user UT terminal TER to have access to content offered both in a situation of mobility in a sedentary situation.
  • the TER terminal is for example a mobile phone, a smartphone ("smart phone"), a tablet, a laptop, etc.
  • the TER terminal could be a PC-type personal computer.
  • the TER terminal is composed for example of:
  • an access terminal STB which is able to receive and process the contents coming from the platform PFS,
  • a reproduction terminal for example a television TLV as represented in FIG. 1, able to restore to the user UT the contents processed by the access terminal STB.
  • the access terminal and the rendering terminal are grouped into a single terminal. It could for example be a TV containing a set-top-box decoder.
  • the access terminal STB is a set-top-box and the restitution terminal TER is a tablet serving as a restitution terminal connected to the set-top-box by means of a local network, for example. wireless example, in particular of the WiFi or CPL type (abbreviation of "line carrier currents").
  • the TER terminal could be a mobile phone, a smartphone ("smart phone"), the TV TLV or a radio connected to a communication network, etc.
  • the user UT can interact with the access terminal STB using a conventional remote control or using the terminal TER which includes for this purpose a suitable software application remote control.
  • the TER terminal then has the possibility of displaying an interface containing keys dedicated to prerecorded commands.
  • the TER terminal has the same functions as a conventional TV remote control.
  • the user can request the selection of content received from the PFS service platform, by simply pressing the direction keys " ⁇ -", “ ⁇ ", " ⁇ ", "l” in an associated menu viewing and / or listening to received content.
  • the user can also validate the selected content by pressing the "OK" key.
  • a message comprising the command associated with this key is sent to the access terminal STB according to a communication protocol adapted to the local network used.
  • the access terminal STB as well as the terminal TER, furthermore comprise means of connection to the communication network RC which may be, for example, of the x-DSL, fiber or 3G and 4G type.
  • the communication network RC may be, for example, of the x-DSL, fiber or 3G and 4G type.
  • the device 100 comprises physical and / or software resources, in particular a processing circuit CT for implementing the method for adjusting the audio and / or video parameters according to the invention, the processing circuit CT containing a processor PROC driven by a PG computer program.
  • the code instructions of the computer program PG are for example loaded into a RAM, denoted MR, before being executed by the processing circuit CT.
  • the processing circuit CT is arranged to implement:
  • the characteristic of the audio and / or video signal is the value of an audio and / or video parameter that is directly conveyed in the audio and / or video signal S.
  • a current audio parameter PA belongs to a set of predetermined audio parameters PA-i, PA 2 , PA ,, ..., PA M , such that 1 ⁇ i ⁇ M.
  • Each of these parameters is associated with a value VA for the audio parameter PA-i, VA 2 for the audio parameter PA 2 , ... VA, for the audio parameter VA, ..., VA M for the audio parameter VA M.
  • such an assembly contains three audio parameters, such as:
  • a current video parameter PV j belongs to a set of predetermined video parameters PV ; PV 2 , PV j , ..., PV N , such that 1 ⁇ j ⁇ N.
  • Each of these parameters is associated with a value VVi for the video parameter PV-i, VV 2 for the video parameter PV 2 ,, ... VV j for the video parameter VV j , ..., VV N for the video parameter VV N.
  • such an assembly contains three video parameters, such as:
  • the content Prior to the transmission of the content to the TER terminal from the PFS platform, the content is first edited so as to associate, throughout its duration, one or more metadata characterizing not the entire content as it is. is the case in the state of the art, but certain sequences of said content, these metadata may vary from one moment to another in said content and / or be present in only some places of the content.
  • These new metadata come to specify, for example in relation to a type of content, a kind of content, a place associated with content, etc.
  • Such metadata consist for example in:
  • the latter is obtained beforehand from a measurement of psychophysiological parameters (heart rate, blood pressure, body temperature, cutaneous conductance, etc.) felt by a panel of people to whom is returned the contents. These parameters also reflect the variations of these emotions during the visualization (or any other form of visual and / or sound reproduction) of the content.
  • a reference record is then generated, by combining the recordings obtained with the reference persons of the panel.
  • the combination consists for example of a standardized average for each moment of part or all of the duration contained.
  • the panel includes a sufficient number of people without any particular health problem and the catches of values are carried out under stable conditions of restitution of the content.
  • At least one of the metadata associated with this instant or with this temporal sequence is itself associated with at least one value of an audio parameter and / or video, as selected in a range extending for example from 1 to 10.
  • the characteristic of the audio and / or video signal S is an indicator of a metadata previously associated with a time or a temporal sequence of the content. As will be detailed later in the description, such an indicator is conveyed in a substream synchronized with the audio signal and / or video.
  • the correspondence table TC is external to the control device 100, the audio and / or video parameter (s) being delivered on request from the device 100, via the communication network RC. each time the latter analyzes the audio signal and / or video signal S considered.
  • the table TC could be stored in a dedicated memory of the device 100.
  • the characteristic of the audio and / or video signal S is either at least one current image portion, or at least one current component of the sound, or at least one image portion. current and at least one current component of the sound.
  • a current image portion is for example:
  • a particular form such as for example a balloon in the case where the content is for example a football match,
  • a common component of sound is for example:
  • one or more sound frequencies such as, for example, the sound frequency of the voice of a character or the cry of an animal
  • the RCV interface of FIG. 2 receives an audio and / or video signal S corresponding to a content to be restored by a TER terminal of the user UT, such as, for example a tablet.
  • ANA analyzes at least one characteristic of the received audio and / or video signal
  • the communication interface COM sends to the terminal TER, according to a communication protocol adapted to the local network, an adjustment command IRG of minus an audio and / or video parameter, whose value is a function of the analyzed characteristic.
  • the audio and / or video parameters are dynamically modified during the duration of rendering of the content, without the user himself making an adjustment of his TER terminal, prior to the return of the content. or in the course of restitution of the latter.
  • the quality of the playback of the content is thus higher than in the audio and / or video reproduction devices of the prior art.
  • the user's feeling of immersion in the content is also made stronger and more realistic.
  • the audio and / or video signal S having been decomposed prior to the transmission of the content, in a plurality of successive time sequences ST- ⁇ , ST 2 , ..., ST U , ..., ST R , such that 1 ⁇ u ⁇ R, the analysis of at least one characteristic of the received audio and / or video signal comprises, for a current time sequence ST U of said plurality, an identification of at least one characteristic C1 u of the audio and / or video signal associated with said current time sequence.
  • each time sequence has a start and end time.
  • the time sequence ST- ⁇ has a start time, 0, and an end time, t1.
  • the time sequence ST 2 has a start time, t1, and an end time, t2, etc.
  • Time sequences are not necessarily the same duration.
  • each sequence can consist of a sequence of scenes corresponding to a particular action of the film.
  • each time sequence may consist of the first verse, the second verse, the chorus, etc.
  • At least one time sequence ST U considered Prior to the transmission of the content, for at least one time sequence ST U considered, is associated at least one characteristic C1 u of the audio and / or video signal portion corresponding to this current time sequence.
  • the characteristic C1 u is:
  • Such a characteristic is conveyed directly in the audio and / or video signal S, in the form of a number of bytes depending on the value of the audio and / or video parameter considered.
  • the terminal TER applies the values of audio and / or video parameters transmitted in the adjustment instruction IRG sent by the device 100 of FIG. 2. Values of other types audio and / or video parameters not present in the IRG setting instruction are applied by the default terminal, similar to the state of the art.
  • the terminal TER applies this adjustment value VV 3 and applies the values of the other audio and / or video parameters defined by default in the terminal TER or else defined in FIG. beforehand by the user UT.
  • the characteristic C1 u is a metadata describing the portion of content associated with the temporal sequence ST U. If, for example, the temporal sequence ST U is associated with scenes of violence on a warship, the following three characteristics are for example associated with this sequence:
  • such characteristics are conveyed in a sub-flux SF synchronized with the audio and / or video signal S.
  • the characteristics C1 u , C2 U and C3 U are contained in FIG. a portion of the SF sub-stream, denoted SF U , which is synchronized with the temporal sequence ST U.
  • the analysis E2 of the audio and / or video signal S as implemented in FIG. 3, consists, for a time sequence ST U considered , at :
  • the audio and / or video signal S is not broken down into several sequences time. It is simply associated continuously with at least one information characterizing it.
  • such information is:
  • Such a characteristic is conveyed directly in the audio and / or video signal S, in the form of a number of bytes depending on the value of the audio and / or video parameter considered.
  • the analyzer ANA of the device 100 of FIG. 2 reads, in the signal S, each audio and / or video parameter value. one after the other.
  • the terminal TER then directly applies each value of audio and / or video parameters transmitted in each adjustment instruction I RG sent by the device 100 of FIG. 2.
  • the values of other types of audio and / or video parameters not present in the I RG setting instruction are applied by the default terminal, similarly to the state of the art.
  • the information characterizing continuously the audio and / or video signal S is a reference record of the evolution, during the prior restitution of the content, a psychophysiological parameter such as, for example, heart rate, blood pressure, body temperature, cutaneous conductance, etc.
  • a psychophysiological parameter such as, for example, heart rate, blood pressure, body temperature, cutaneous conductance, etc.
  • FIG. 4D such a recording is conveyed in a sub-stream SF synchronized with the audio and / or video signal S.
  • the audio and / or video signal S could be synchronized with, for example, a first sub-stream carrying the recording of the cardiac rhythm and a second sub-stream carrying the record of blood pressure.
  • the analysis E2 of the audio and / or video signal S as implemented in FIG. 3, then consists, in a continuous manner and synchronized with the return of the content by the terminal TER, to:
  • the ANA analyzer performs an intra-content analysis.
  • the analysis E2 of the audio and / or video signal S as implemented in FIG. 3, then consists, in a continuous manner and synchronized with the return of the content by the terminal TER, to:
  • E20c detecting at least a portion of an image and / or a component of the sound which are preferably recurrent throughout the content, in E21c, assigning a value VVj or VA of at least one audio and / or video parameter in correspondence with the image portion and / or the component of the sound detected.
  • a portion of the current image is, for example, the balloon, which is detected by a pattern recognition algorithm.
  • the analyzer ANA will affect for example a much higher contrast value VVi on the balloon than that previously programmed in the terminal TER.
  • the higher contrast can be applied to the entire image and not just to the balloon.
  • an audio component is one of the audio tracks corresponding respectively to the voice of the singer and the voice of the singer.
  • the analyzer ANA will assign a particular value VA 2 of sound frequency to the audio track corresponding for example to the voice of the singer, so as to make the audio reproduction of the content more striking or more comfortable.
  • the setting of the audio and / or video parameters implemented using these different embodiments can be modified according to at least one criterion related to the user UT.
  • the audio and / or video parameters which are initially adjusted according to the content according to the different embodiments described above can be modified in a personalized way, that is to say for example, taking into account the tastes, habits, constraints of the user (eg hearing or visual impairment), the user's environment, such as the place (noisy or quiet) where the content is returned, the type of device video and / or audio TER restitution terminal (size and shape of screens, speakers / speakers), the day and / or the time of return of the content, etc.
  • the tastes, habits, constraints of the user eg hearing or visual impairment
  • the user's environment such as the place (noisy or quiet) where the content is returned
  • the type of device video and / or audio TER restitution terminal size and shape of screens, speakers / speakers
  • the day and / or the time of return of the content etc.
  • the PFS platform retrieves these different user criteria.
  • Such a recovery is for example implemented by extracting information from a history of viewing / listening content of the user UT which is sent back to the platform PFS via the communication network RC of FIG.
  • the latter on request of the user UT with the platform PFS, the latter has the possibility, via a dedicated interface that is displayed on his terminal TER or his TV TLV, to manually declare his tastes, his habits and its constraints.
  • the UT user may indicate that he is watching television in his room between 8pm and 10pm on his TLV TV with a 26 "High Definition Display.
  • the user UT can indicate that it is color-blind or hindered by certain sound frequencies, etc.
  • the values of E2 are modified by adjustment of the audio and / or video parameters, according to the user criteria retrieved by the PFS platform.
  • Step E'2 being optional, it is shown in dashed line in FIG.
  • the modification E'2 comprises a modulation, with respect to a predetermined threshold which is a function of said at least one user criterion of the terminal, of the value of the audio and / or video parameter (s) that have been set at the end of step E2.
  • the modulation implemented with respect to a predetermined threshold consists, for example:
  • n predetermined 1 values of the audio and / or video parameters set according to the content
  • the number of increments or decrementations to be performed is also possibly predetermined according to the profile of the user.
  • the user UT has previously declared to the platform PFS that it is visually impaired, if for example two values VV and VV 3 were respectively allocated in step E2 to the contrast video parameters PV1 and PV 3 of color saturation, two predetermined multiplication coefficients are applied to the values VVi and VV 3 before sending, at E3, the adjustment instruction IRG.
  • the modification E'2 comprises a replacement of the value of the audio and / or video parameter or parameters which have been set at the end of the step E2, by another value which is a function of at least one criterion related to the user of the terminal.
  • these criteria are in the form of rules that complement or replace the automatic adjustments implemented in the device 100 of FIG.
  • the user can impose on the device 100 a setting value of certain audio / video parameters, for example the volume and the brightness.
  • the adjustment values are selected by the user by moving for example a cursor associated with each parameter.
  • the user can impose on the device 100 a contrast value that he has the possibility of incrementing or decrementing according to his needs.
  • the user can impose on the device 100 a value of low frequencies and a value of high frequencies, that he has the possibility of incrementing or decrementing according to his needs .
  • Agnes has a small hearing loss on a particular frequency band. Agnippo configures her system so that the vocal frequencies of the contents that intervene in this band are shifted so that she can hear them better. Martin does not fully trust so-called "all-public" content for his children. He then configures his system so that all the unsuitable scenes are artificially masked by an automatic adaptation of the volume (cut sound) and the brightness of the image (black screen). Martin is thus more serene and reassured.

Abstract

L'invention concerne un procédé de contrôle du réglage d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en œuvre, pour un contenu audio et/ou vidéo à restituer, la réception (E1) d'un signal audio et/ou vidéo correspondant audit contenu, ledit procédé étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en œuvre ce qui suit: - analyse (E2) d'au moins une caractéristique du signal audio et/ou vidéo reçu: - réglage (E3) d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.

Description

Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants
Domaine de l'invention
Le domaine de l'invention est celui de la restitution de contenus par un terminal utilisateur. Un tel contenu peut être du texte, du son (ou de l'audio), des images, des vidéos, des applications/services ou encore toute combinaison de ces différents éléments.
L'invention s'applique aussi bien à des contenus diffusés en temps réel sur un terminal utilisateur, qu'à des contenus préalablement enregistrés dans ce dernier.
De façon plus particulière, l'invention s'applique au contrôle du réglage des paramètres audio et/ou vidéo du terminal lors de la restitution du contenu.
L'invention peut notamment être mise en œuvre dans un terminal doté d'une interface utilisateur et d'une interface graphique, par exemple une tablette, un téléphone portable, un smartphone (« téléphone intelligent »), un ordinateur personnel, une télévision connectée à un réseau de communication, etc ..
Présentation de l'art antérieur
Aujourd'hui, pour régler les paramètres audio et/ou vidéo d'un terminal de restitution, par exemple un téléviseur, l'utilisateur accède, via un menu qui s'affiche sur son téléviseur, à une interface de réglage de ces paramètres.
Préalablement à la restitution d'un contenu ou bien durant la restitution du contenu, l'utilisateur peut ainsi régler manuellement les paramètres audio et vidéo dont certains peuvent être prédéfinis ou non.
De tels paramètres vidéo sont par exemple la couleur, le contraste, la nuance, la luminosité, etc .. De tels paramètres audio sont par exemple le volume, la balance des sons, la fréquence audio, etc....
Ce type de réglage n'est pas forcément aisé pour un utilisateur non technophile qui ne sait pas toujours comment accéder rapidement à l'interface de réglage et quels paramètres régler. Il est en outre fastidieux compte tenu du grand nombre de paramètres audio et/ou vidéo susceptibles d'être réglés. De ce fait, il est assez rare que l'utilisateur intervienne sur les réglages de son téléviseur après l'achat de ce dernier.
Un autre inconvénient des interfaces de réglage de paramètres audio et/ou vidéo actuelles est qu'une fois le réglage effectué par l'utilisateur, ce réglage s'applique automatiquement à tous les contenus qui seront restitués par la suite sur le téléviseur et de façon uniforme sur toute la durée du contenu restituée.
II existe donc un besoin d'une solution permettant de régler automatiquement les paramètres audio et/ou vidéo en fonction du contenu qui est restitué, sans intervention particulière de l'utilisateur, et d'adapter le réglage de ces paramètres en temps réel, durant toute la durée de restitution du contenu.
Objet et résumé de l'invention
Un des buts de l'invention est de remédier à des inconvénients de l'état de la technique précité.
A cet effet, un objet de la présente invention concerne un procédé de contrôle d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en œuvre, pour un contenu audio et/ou vidéo à restituer, la réception d'un signal audio et/ou vidéo correspondant au contenu.
Un tel procédé est remarquable en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en œuvre ce qui suit:
- analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu,
- réglage d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
Une telle disposition permet avantageusement, au fur et à mesure de la restitution d'un contenu donné, une adaptation dynamique des paramètres audio et/ou vidéo du terminal de restitution en fonction de ce contenu. Une telle adaptation ne nécessite pas d'intervention particulière de l'utilisateur sur les réglages audio et/ou vidéo du terminal, préalablement à la restitution du contenu ou bien en cours de restitution du contenu.
II en résulte une amélioration des conditions de visualisation et/ou d'écoute pendant toute la durée de restitution du contenu. En particulier, la sensation d'immersion de l'utilisateur par rapport au contenu est nettement plus marquée en comparaison avec les procédés de réglage audio et/ou vidéo de l'art antérieur.
On entend par restitution, soit la visualisation d'un contenu, soit l'écoute d'un contenu, soit les deux en même temps.
Le procédé de contrôle selon l'invention est par exemple mis en œuvre dans un terminal, tel qu'une set-top-box ou encore dans un terminal connecté à la set-top-box, tel que par exemple une tablette, un téléviseur, etc....
Selon un mode de réalisation particulier, le signal audio et/ou vidéo ayant été décomposé préalablement en une pluralité de séquences temporelles successives, l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante de la pluralité, une identification d'au moins une caractéristique du signal audio et/ou vidéo associée à la séquence temporelle courante.
Une telle disposition permet d'associer automatiquement à chaque séquence temporelle composant le signal audio et/ou vidéo un ou plusieurs réglages audio et/ou vidéo qui soient pertinents par rapport à la portion de contenu restituée correspondant à chaque séquence temporelle.
Si par exemple, le contenu considéré est un film dont certaines scènes se passent la nuit et d'autres le jour, le signal audio/vidéo est préalablement décomposé en séquences temporelles correspondant chacune à un enchaînement de scènes de jour et de nuit. Ainsi, par exemple, lors de la restitution du film sur le terminal :
- s'agissant des scènes de nuit, les paramètres audio et/ou vidéo du terminal sont modifiés de façon synchronisée avec la restitution du contenu de façon à afficher les scènes de nuit par exemple en noir et blanc, avec une luminosité faible, tout en diminuant éventuellement les niveaux sonores des personnages apparaissant à l'écran,
- s'agissant des scènes de jour, les paramètres audio et/ou vidéo du terminal sont modifiés de façon synchronisée avec la restitution du contenu de façon à afficher les scènes de jour par exemple en couleurs, avec un contraste et une luminosité augmentés, tout en augmentant éventuellement les niveaux sonores des personnages apparaissant à l'écran.
Selon encore un autre mode de réalisation particulier, l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu comprend une identification en continu d'au moins une information caractérisant le signal audio et/ou vidéo.
Une telle disposition permet d'associer automatiquement et dynamiquement à un instant courant de restitution du contenu, un ou plusieurs réglages audio et/ou vidéo qui soient pertinents par rapport aux caractéristiques du contenu restitué à cet instant courant.
Le contrôle du réglage des paramètres audio et/ou vidéo ainsi mis en œuvre permet d'augmenter la cadence de modification de ces paramètres de façon à s'adapter de façon la plus fidèle possible à la nature du contenu restitué à un instant courant, dans le but d'optimiser les conditions de visualisation et/ou d'écoute, ainsi que la sensation d'immersion de l'utilisateur par rapport au contenu.
Selon encore un autre mode de réalisation particulier, la caractéristique du signal audio et/ou vidéo est une métadonnée caractérisant le contenu à un instant courant de restitution du contenu.
Une telle métadonnée diffère des métadonnées attribuées classiquement aux contenus dans leur globalité, en ce qu'elle précise un certain degré d'émotion ou de ressenti de l'utilisateur par rapport à une séquence du contenu restituée à un instant courant.
Ainsi, une telle métadonnée consiste par exemple dans :
- le type de séquence du contenu : violent, calme, lent, rapide, etc . ,
- une sous-catégorie du genre de contenu : les actions les plus fortes et les commentaires les plus pertinents associés au genre « sport », les séquences les plus angoissantes ou les plus sanglantes associées au genre « horreur », les séquences de gags associées au genre « comédie », etc ..
- l'émotion procurée par le contenu : stress, calme, sensations fortes, angoisse, etc ..
Le réglage des paramètres audio et/ou vidéo du terminal est particulièrement enrichi et évolutif par rapport aux quelques réglages fixes proposés dans l'art antérieur, puisqu'il peut être mis en œuvre en fonction de nombreuses informations caractérisant le contenu, dont certaines varient au cours de la restitution du contenu.
Selon encore un autre mode de réalisation particulier, la caractéristique du signal audio et/ou vidéo est respectivement au moins une portion d'image et/ou au moins une composante du son.
Une telle disposition permet de régler les paramètres audio et/ou vidéo grâce à une analyse fine intra contenu, au fur et à mesure de la restitution du contenu.
Une analyse intra contenu consiste par exemple à détecter en relation avec l'image courante :
- une forme particulière, tel que par exemple un ballon dans le cas où le contenu est par exemple un match de football,
- et/ou une ou plusieurs couleurs particulières,
- et/ou une ou plusieurs fréquences sonores, tels que par exemple, la fréquence sonore de la voix d'un personnage ou du cri d'un animal,
- et/ou le volume sonore d'une musique,
- et/ou la balance des sons d'un bruit de fond,
- etc ..
Une adaptation des paramètres audio et/ou vidéo du terminal de restitution est alors mise en œuvre suite à cette analyse dans le but d'améliorer le confort visuel et/ou d'écoute de l'utilisateur. Selon encore un autre mode de réalisation particulier, le réglage dudit au moins un paramètre audio et/ou vidéo du terminal, qui a été mis en œuvre en fonction de la caractéristique analysée, est modifié en fonction d'au moins un critère lié à l'utilisateur du terminal.
Une telle disposition permet avantageusement de compléter l'adaptation des paramètres audio et/ou vidéo en fonction du contenu restitué, par une adaptation de ces paramètres en fonction de critères propres à l'utilisateur du terminal.
Ainsi les paramètres audio et/ou vidéo qui sont dans un premier temps réglés en fonction du contenu conformément à l'invention peuvent être modifiés de façon personnalisée, c'est-à-dire par exemple, en tenant compte des goûts, des habitudes, des contraintes de l'utilisateur (ex : déficience auditive ou visuelle), de l'environnement de l'utilisateur, tel que par exemple le lieu (bruyant ou calme) où le contenu est restitué, le type de périphériques vidéo et/ou audio du terminal de restitution (taille et forme d'écrans, d'enceintes/haut-parleurs), le jour et/ou l'heure de restitution du contenu, etc....
Selon encore un autre mode de réalisation particulier, la modification comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère lié à l'utilisateur du terminal, de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé.
Une telle modulation permet avantageusement d'accentuer ou bien d'atténuer, selon des critères propres à l'utilisateur, le réglage des paramètres audio et/ou vidéo qui a été mis en œuvre en fonction du contenu.
La modulation mise en œuvre par rapport à un seuil prédéterminé consiste par exemple :
- en l'application de coefficients multiplicateurs prédéterminés aux valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu,
- en l'incrémentation ou en la décrémentation d'une valeur n prédéterminée (ex : n=1 ) des valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, le nombre d'incrémentations ou de décrémentations à effectuer étant lui aussi éventuellement prédéterminé en fonction du profil de l'utilisateur.
Selon encore un autre mode de réalisation particulier, la modification comprend un remplacement de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé par une autre valeur qui est fonction dudit au moins un critère lié à l'utilisateur du terminal.
Une telle disposition a pour avantage de permettre de remplacer automatiquement, de façon ponctuelle ou non, une ou plusieurs valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, en fonction d'un critère propre à l'utilisateur et préalablement connu.
Dans le cas par exemple où l'utilisateur sait qu'un contenu contient des scènes susceptibles de heurter la sensibilité des enfants (ex : contenant des propos vulgaires, des scènes violentes,..), l'utilisateur peut de sa propre initiative, préalablement à la restitution du contenu, sélectionner, via une interface dédiée, des règles de modification automatique de la restitution audio et/ou vidéo du contenu pour certaines scènes et/ou paroles sensibles. Ainsi, par exemple, le son pourra être coupé (volume à zéro) et/ou un écran noir (luminosité à zéro) pourra être visualisé, de façon à ce que les enfants n'entendent pas les propos prononcés dans certaines scènes, ni ne voient ces scènes.
Les différents modes ou caractéristiques de réalisation précités peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, au procédé de contrôle défini ci-dessus.
L'invention concerne également un dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, un tel dispositif comprenant un circuit de traitement qui, pour un contenu audio et/ou vidéo à restituer, est agencé pour mettre en œuvre la réception d'un signal audio et/ou vidéo correspondant au contenu, un tel dispositif étant adapté pour mettre en œuvre le procédé de contrôle de réglage précité.
Un tel dispositif de contrôle de réglage est remarquable en ce que de façon synchronisée avec la restitution du contenu par le terminal, le circuit de traitement est agencé en outre pour mettre en œuvre ce qui suit:
- analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu,
- réglage d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
L'invention concerne également un terminal comprenant le dispositif de contrôle d'affichage mentionné ci-dessus.
Un tel terminal est par exemple une set-top-box ou bien un terminal connecté à la set-top-box, tel que par exemple une tablette, un téléviseur, etc....
L'invention concerne encore un programme d'ordinateur comportant des instructions pour mettre en œuvre le procédé de contrôle de réglage selon l'invention, lorsqu'il est exécuté sur un terminal ou plus généralement sur un ordinateur.
Chacun de ces programmes peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.
L'invention vise également un support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur, ce programme comportant des instructions adaptées à la mise en œuvre du procédé de contrôle de réglage selon l'invention, tel que décrit ci-dessus.
Un tel support d'enregistrement peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, une clé USB, ou encore un moyen d'enregistrement magnétique, par exemple un disque dur.
D'autre part, un tel support d'enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet. Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé de contrôle d'affichage précité.
Le dispositif de contrôle de réglage, le terminal et le programme d'ordinateur correspondants précités présentent au moins les mêmes avantages que ceux conférés par le procédé de contrôle de réglage selon la présente invention.
Liste des figures
D'autres avantages et caractéristiques de l'invention apparaîtront plus clairement à la lecture de la description suivante de plusieurs modes de réalisation particuliers de l'invention, donnés à titre de simples exemples illustratifs et non limitatifs, et des dessins annexés, parmi lesquels :
la figure 1 présente de façon schématique une architecture dans laquelle est mis en œuvre le procédé de contrôle de réglage selon l'invention ; la figure 2 présente la structure simplifiée d'un dispositif de contrôle du réglage des paramètres audio et/ou vidéo selon un mode de réalisation de l'invention ;
la figure 3 présente de façon schématique les étapes d'un procédé de contrôle du réglage des paramètres audio et/ou vidéo selon l'invention ; les figures 4A à 4D représentent différents exemples de caractéristiques de signal audio et/ou vidéo analysées lors de la mise en œuvre du procédé de contrôle de réglage de la figure 3, ainsi que la façon dont ces caractéristiques sont associées au signal audio et/ou vidéo ;
- les figures 5A à 5C représentent différents exemples d'analyse de caractéristiques, tels que mis en œuvre dans le procédé de contrôle de réglage de la figure 3,
la figure 6 représente un exemple d'interface de définition de règles propres à l'utilisateur qui sont prises en compte lors de la mise en œuvre du procédé de contrôle de réglage de la figure 3. Description de modes de réalisation particuliers de l'invention
En relation avec la figure 1 , on présente une architecture dans laquelle est mis en œuvre le procédé de contrôle du réglage d'au moins un paramètre audio et/ou vidéo selon l'invention.
Une telle architecture comprend un terminal TER d'accès à des contenus proposés par une plateforme de service PFS, via un réseau de communication RC, tel que par exemple de type IP (abréviation anglaise de « Internet Protocol »). La plateforme de service PFS propose différents contenus à l'utilisateur UT du terminal TER, tels que par exemple:
- des contenus télévisuels TV, notamment ceux à diffusion programmée dans une grille de programmes,
- des catalogues VOD,
- des catalogues de vidéos et/ou d'images et/ou de photos,
- des catalogues de musique,
- des catalogues de podcasts,
- des catalogues de livres numériques,
- des catalogues d'applications et/ou de services.
L'architecture précitée permet à l'utilisateur UT du terminal TER d'avoir accès aux contenus proposés aussi bien en situation de mobilité qu'en situation de sédentarité.
En situation de mobilité, le terminal TER est par exemple un téléphone portable, un smartphone (« téléphone intelligent »), une tablette, un ordinateur portable, etc..
En situation de sédentarité, le terminal TER pourrait être un ordinateur personnel de type PC.
Toujours en situation de sédentarité, et comme représenté sur la figure 1 , le terminal TER se compose par exemple :
- d'un terminal d'accès STB qui est apte à recevoir et traiter les contenus en provenance de la plateforme PFS,
- d'un terminal de restitution, par exemple un téléviseur TLV tel que représenté sur la figure 1 , apte à restituer à l'utilisateur UT les contenus traités par le terminal d'accès STB.
Dans un exemple de réalisation, le terminal d'accès et le terminal de restitution sont regroupés en un seul terminal. Il pourrait par exemple s'agir d'un téléviseur contenant un décodeur de type set-top-box. Dans un autre exemple, le terminal d'accès STB est une set-top-box et le terminal de restitution TER est une tablette faisant office de terminal de restitution connecté à la set-top-box au moyen d'un réseau local, par exemple sans fil, en particulier du type WiFi ou CPL (abréviation de « courants porteurs en ligne »). Selon d'autres exemples non représentés, le terminal TER pourrait être un téléphone portable, un smartphone (« téléphone intelligent »), le téléviseur TLV ou une radio connectée à un réseau de communication, etc ..
L'utilisateur UT peut interagir avec le terminal d'accès STB à l'aide d'une télécommande classique ou à l'aide du terminal TER qui comprend à cet effet une application logicielle adaptée de télécommande. Le terminal TER a alors la possibilité d'afficher une interface contenant des touches dédiées à des commandes préenregistrées. Ainsi, le terminal TER présente les mêmes fonctions qu'une télécommande classique de téléviseur. Par exemple, l'utilisateur peut demander la sélection d'un contenu reçu en provenance de la plateforme de services PFS, par simple pression des touches directionnelles «<— », «→ », «† », « l » dans un menu associé à la visualisation et/ou à l'écoute des contenus reçus. L'utilisateur peut aussi valider le contenu sélectionné en pressant la touche « OK ». Lorsque l'utilisateur active une touche de sa télécommande, un message comprenant la commande associée à cette touche est envoyé au terminal d'accès STB selon un protocole de communication adapté au réseau local utilisé.
Le terminal d'accès STB, de même que la terminal TER, comprennent en outre des moyens de connexion au réseau de communication RC qui peuvent être, par exemple, de type x-DSL, fibre ou encore 3G et 4G. En relation avec la figure 2, on considère maintenant la structure simplifiée d'un dispositif 100 de contrôle du réglage des paramètres audio et/ou vidéo d'un terminal TER de restitution de contenu, selon un exemple de réalisation de l'invention. Un tel dispositif de contrôle de réglage est adapté pour mettre en œuvre le procédé de contrôle de réglage selon l'invention qui va être décrit ci-dessous.
Par exemple, le dispositif 100 comprend des ressources physiques et/ou logicielles, en particulier un circuit de traitement CT pour mettre en œuvre le procédé de réglage des paramètres audio et/ou vidéo selon l'invention, le circuit de traitement CT contenant un processeur PROC piloté par un programme d'ordinateur PG.
A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire RAM, notée MR, avant d'être exécutées par le circuit de traitement CT.
Conformément à l'invention, pour un contenu audio et/ou vidéo à restituer par le terminal TER, le circuit de traitement CT est agencé pour mettre en œuvre :
- la réception, via une interface de réception RCV, d'un signal S audio et/ou vidéo correspondant au contenu à restituer, tel que par exemple transmis par la plateforme PFS,
et, de façon synchronisée avec la restitution du contenu,
- l'analyse, via un analyseur ANA, d'au moins une caractéristique du signal audio et/ou vidéo S,
- l'envoi au terminal TER, via une interface de communication COM, d'une instruction de réglage de paramètre audio et/ou vidéo, le réglage étant alors fonction de ladite caractéristique analysée.
Selon un premier exemple de réalisation, la caractéristique du signal audio et/ou vidéo est la valeur d'un paramètre audio et/ou vidéo qui est directement véhiculée dans le signal audio et/ou vidéo S.
Un paramètre audio courant PA, appartient à un ensemble de paramètres audio prédéterminés PA-i , PA2, PA,,..., PAM, tel que 1 <i≤M. Chacun de ces paramètres est associé à une valeur VA pour le paramètre audio PA-i , VA2 pour le paramètre audio PA2, ...VA, pour le paramètre audio VA,, ..., VAM pour le paramètre audio VAM.
Selon un exemple de réalisation, un tel ensemble contient trois paramètres audio, tels que:
- le niveau sonore PA ;
- la fréquence sonore PA2,
- la balance des sons graves et aigus PA3.
Un paramètre vidéo courant PVj appartient à un ensemble de paramètres vidéo prédéterminés PV ; PV2, PVj, ..., PVN, tel que 1 <j≤N. Chacun de ces paramètres est associé à une valeur VVi pour le paramètre vidéo PV-i, VV2 pour le paramètre vidéo PV2, , ...VVj pour le paramètre vidéo VVj,..., VVN pour le paramètre vidéo VVN.
Selon un exemple de réalisation, un tel ensemble contient trois paramètres vidéo, tels que :
- le contraste PV ;
- la luminosité PV2,
- la saturation des couleurs PV3.
Préalablement à la transmission du contenu vers le terminal TER en provenance de la plateforme PFS, le contenu est d'abord édité de façon à lui associer, sur toute sa durée, une ou plusieurs métadonnées caractérisant non pas le contenu dans sa globalité comme c'est le cas dans l'état de l'art, mais certaines séquences dudit contenu, ces métadonnées pouvant varier d'un instant à l'autre dans ledit contenu et/ou être présentes à certains endroits seulement du contenu.
Ces nouvelles métadonnées viennent préciser, par exemple par rapport à un type de contenu, un genre de contenu, un lieu associé à un contenu, etc .. le niveau (très faible, faible, moyen, élevé, très élevé) de l'émotion ou du ressenti de l'utilisateur par rapport à un passage du contenu restitué à un instant courant.
De telles métadonnées consistent par exemple dans :
- le type de séquence du contenu : violent, calme, lent, rapide, etc ., - le type de sous-catégories venant préciser le genre de contenu : par exemple pour le genre « sport », les actions les plus fortes, les commentaires les plus volubiles, pour le genre « horreur », les scènes à grands frissons et les scènes les plus sanglantes, pour le genre « comédie », les séquences de gags les plus hilarantes, pour le genre « romantique », les séquences de baisers, pour le genre « pop-rock », les séquences où on entend un riff ou des guitares saturées sur un morceau musical, etc .,
- un instant particulier du contenu qui se passe dans la journée ou dans l'année, ou encore une atmosphère dans la journée ou le soir, etc .,
- le type de lieu associé à une séquence du contenu : intérieur, extérieur, ville, campagne, mer, montagne, etc .,
- l'émotion procurée par le contenu : stress, calme, sensations fortes, angoisse, etc .
En ce qui concerne la métadonnée « émotion », cette dernière est obtenue préalablement à partir d'une mesure de paramètres psychophysiologiques (rythme cardiaque, pression artérielle, température corporelle, conductance cutanée, etc.) ressentis par un panel de personnes à qui est restitué le contenu. Ces paramètres traduisent également les variations de ces émotions pendant la visualisation (ou toute autre forme de restitution visuelle et/ou sonore) du contenu. Un enregistrement de référence est alors généré, par combinaison des enregistrements obtenus avec les personnes de référence du panel. La combinaison consiste par exemple en une moyenne normalisée pour chaque instant d'une partie ou de la totalité de la durée contenu. Afin que cette moyenne normalisée soit représentative de la population, le panel comprend un nombre suffisant de personnes sans problème de santé particulier et les captures de valeurs sont effectuées dans des conditions stables de restitution du contenu.
Une fois la caractérisation du contenu effectuée, pour un instant ou une séquence temporelle considérée du contenu, au moins une des métadonnées associées à cet instant ou à cette séquence temporelle est elle-même associée à au moins une valeur d'un paramètre audio et/ou vidéo, telle que sélectionnée dans une plage s'étendant par exemple de 1 à 10.
Selon un deuxième exemple de réalisation, la caractéristique du signal audio et/ou vidéo S est un indicateur d'une métadonnée préalablement associée à un instant ou à une séquence temporelle du contenu. Comme cela sera détaillé plus loin dans la description, un tel indicateur est véhiculé dans un sous-flux synchronisé avec le signal audio et/ou vidéo.
La mise en œuvre de ce deuxième mode de réalisation nécessite la construction au préalable d'une table de correspondance TC, dont un exemple non exhaustif est représenté ci-dessous.
Comme représenté sur la figure 2, la table de correspondance TC est externe au dispositif de contrôle de réglage 100, le(s) paramètre(s) audio et/ou vidéo étant délivrés sur requête du dispositif 100, via le réseau de communication RC, à chaque fois que ce dernier analyse le signal audio et/ou vidéo S considéré. En variante, la table TC pourrait être stockée dans une mémoire dédiée du dispositif 100.
Selon un troisième exemple de réalisation, la caractéristique du signal audio et/ou vidéo S est soit au moins une portion d'image courante, soit au moins une composante courante du son, soit au moins une portion d'image courante et au moins une composante courante du son.
Une portion d'image courante est par exemple :
- une forme particulière, telle que par exemple un ballon dans le cas où le contenu est par exemple un match de football,
- et/ou une ou plusieurs couleurs particulières,
- etc ..
Une composante courante du son est par exemple :
- une ou plusieurs fréquences sonores, telles que par exemple, la fréquence sonore de la voix d'un personnage ou du cri d'un animal,
- et/ou le volume sonore d'une musique,
- et/ou la balance des sons d'un bruit de fond,
- etc ..
En relation avec la figure 3, on présente maintenant les étapes du procédé de contrôle de réglage d'au moins un paramètre audio et/ou vidéo conformément à un mode de réalisation selon l'invention. Dans le mode de réalisation représenté, ledit procédé de contrôle de réglage est mis en œuvre par le dispositif 100 représenté sur la figure 2.
Au cours d'une étape E1 représentée à la figure 3, l'interface RCV de la figure 2 reçoit un signal audio et/ou vidéo S correspondant à un contenu à restituer par un terminal TER de l'utilisateur UT, tel que par exemple une tablette.
De façon synchronisée avec la restitution du contenu par le terminal
TER :
- au cours d'une étape E2 représentée à la figure 3, l'analyseur
ANA procède à l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu,
- au cours d'une étape E3 représentée à la figure 3, l'interface de communication COM envoie au terminal TER, selon un protocole de communication adapté au réseau local, une instruction IRG de réglage d'au moins un paramètre audio et/ou vidéo, dont la valeur est fonction de la caractéristique analysée.
Ainsi, de façon particulièrement avantageuse, les paramètres audio et/ou vidéo sont modifiés dynamiquement pendant la durée de restitution du contenu, sans que l'utilisateur ne procède de lui-même à un réglage de son terminal TER, préalablement à la restitution du contenu ou bien en cours de restitution de ce dernier. La qualité de la restitution du contenu est ainsi plus élevée que dans les dispositifs de restitution audio et/ou vidéo de l'art antérieur. La sensation d'immersion de l'utilisateur dans le contenu est aussi rendue plus forte et plus réaliste.
Selon un premier exemple de réalisation représenté sur la figure 4A, le signal audio et/ou vidéo S ayant été décomposé préalablement à la transmission du contenu, en une pluralité de séquences temporelles successives ST-\ , ST2, ..., STU, ..., STR, tel que 1 <u≤R, l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante STU de ladite pluralité, une identification d'au moins une caractéristique C1 u du signal audio et/ou vidéo associée à ladite séquence temporelle courante.
Sur la figure 4A, chaque séquence temporelle présente un instant de début et de fin. La séquence temporelle ST-\ présente un instant de début, 0, et un instant de fin, t1 . La séquence temporelle ST2 présente un instant de début, t1 , et un instant de fin, t2, etc....
Les séquences temporelles ne sont pas obligatoirement de la même durée. Dans le cas par exemple où le contenu est un film, chaque séquence peut se composer d'un enchaînement de scènes correspondant à une action particulière du film. Dans le cas par exemple où le contenu est une chanson, chaque séquence temporelle peut se composer du premier couplet, du second couplet, du refrain, etc ..
Préalablement à la transmission du contenu, pour au moins une séquence temporelle STU considérée, est associée au moins une caractéristique C1 u de la portion de signal audio et/ou vidéo correspondant à cette séquence temporelle courante.
Dans l'exemple de la figure 4A, la caractéristique C1 u est :
- soit la valeur VA, d'un paramètre audio PA, appartenant à l'ensemble précité de paramètres audio prédéterminés PA-i , PA2, PA,, ...,
PAM,
- soit la valeur VVj d'un paramètre vidéo PVj appartenant à l'ensemble précité de paramètres vidéo prédéterminés PV ; PV2, PVj, ..., PVN.
Une telle caractéristique est véhiculée directement dans le signal audio et/ou vidéo S, sous la forme d'un nombre d'octets dépendant de la valeur du paramètre audio et/ou vidéo considéré.
Dans l'exemple représenté, il existe une ou plusieurs valeurs de paramètres audio et/ou vidéo par séquence temporelle.
Pour chaque portion de contenu restituée correspondant à chaque séquence temporelle considérée, le terminal TER applique les valeurs de paramètres audio et/ou vidéo transmises dans l'instruction de réglage IRG envoyée par le dispositif 100 de la figure 2. Les valeurs d'autres types de paramètres audio et/ou vidéo non présentes dans l'instruction de réglage IRG sont appliquées par le terminal par défaut, de façon similaire à l'état de l'art.
Par exemple, s'agissant de la séquence temporelle ST2, l'instruction de réglage IRG contient la valeur VV3=8 qui, dans l'exemple représenté, correspond à la valeur de saturation des couleurs. Lors de la restitution de la portion de contenu correspondant à la séquence temporelle ST2, le terminal TER applique cette valeur VV3 de réglage et applique les valeurs des autres paramètres audio et/ou vidéo définis par défaut dans le terminal TER ou bien définis au préalable par l'utilisateur UT.
A titre d'alternative à ce premier exemple de réalisation, selon un deuxième exemple représenté à la figure 4B, la caractéristique C1 u est une métadonnée décrivant la portion de contenu associée à la séquence temporelle STU. Si par exemple la séquence temporelle STU est associée à des scènes de violence sur un navire de guerre, les trois caractéristiques suivantes sont par exemple associées à cette séquence :
- C1 U = métadonnée « mer »,
- C2U = métadonnée « violence »,
- C3U = métadonnée « guerre ».
Conformément à l'invention, comme représenté sur la figure 4B, de telles caractéristiques sont véhiculées dans un sous-flux SF synchronisé avec le signal audio et/ou vidéo S. Ainsi, les caractéristiques C1 u, C2U et C3U sont contenues dans une portion du sous-flux SF, notée SFU, qui est synchronisée avec la séquence temporelle STU.
Toujours à titre d'exemple, si la première séquence temporelle ST-\ est associée à des scènes romantiques se passant pendant la deuxième guerre mondiale, les deux caractéristiques suivantes sont par exemple associées à cette séquence :
- C1 i= métadonnée « passion »,
- métadonnée « guerre ».
Conformément au deuxième mode de réalisation de la figure 4B, comme représenté sur la figure 5A, l'analyse E2 du signal audio et/ou vidéo S, telle que mise en œuvre à la figure 3, consiste, pour une séquence temporelle STU considérée, à :
- en E20a, détecter dans le sous-flux correspondant SFU une ou plusieurs caractéristiques C1 u, C2U, CKU, avec K>1 ,
- pour chacune des caractéristiques détectées, en E21 a, requérir dans la table de correspondance TC, la valeur d'un paramètre audio et/ou vidéo qui lui est associée,
- en E22a, affecter à chaque caractéristique détectée, la valeur du paramètre audio et/ou vidéo qui lui est associée.
Selon un troisième exemple de réalisation représenté sur la figure 4C, le signal audio et/ou vidéo S n'est pas décomposé en plusieurs séquences temporelles. Il est simplement associé en continu à au moins une information caractérisant celui-ci.
Dans l'exemple de la figure 4C, une telle information est :
- soit la valeur VA, d'un paramètre audio PA, appartenant à l'ensemble précité de paramètres audio prédéterminés PA-i , PA2, PA,, ...,
PAM,
- soit la valeur VVj d'un paramètre vidéo PVj appartenant à l'ensemble précité de paramètres vidéo prédéterminés PV ; PV2, PVj, ..., PVN.
Une telle caractéristique est véhiculée directement dans le signal audio et/ou vidéo S, sous la forme d'un nombre d'octets dépendant de la valeur du paramètre audio et/ou vidéo considéré.
Dans l'exemple représenté, au fur et à mesure de la restitution du contenu par le terminal TER, l'analyseur ANA du dispositif 100 de la figure 2 lit, dans le signal S, chaque valeur de paramètre audio et/ou vidéo l'une après l'autre.
Le terminal TER applique alors directement chaque valeur de paramètres audio et/ou vidéo transmise dans chaque instruction de réglage I RG envoyée par le dispositif 100 de la figure 2. Dans l'exemple représenté sur la figure 4C, il s'agit des valeurs VA2=3, puis VV3=8, puis VV1 =6 , puis VA3=7, puis VV2=6, puis etc.... Les valeurs d'autres types de paramètres audio et/ou vidéo non présentes dans l'instruction de réglage I RG sont appliquées par le terminal par défaut, de façon similaire à l'état de l'art.
A titre d'alternative à ce troisième exemple de réalisation, selon un quatrième mode de réalisation représenté à la figure 4D, l'information caractérisant en continu le signal audio et/ou vidéo S est un enregistrement de référence de l'évolution, au cours de la restitution préalable du contenu, d'un paramètre psycho-physiologique tel que par exemple le rythme cardiaque, la pression artérielle, la température corporelle, conductance cutanée, etc .. Conformément à l'invention, comme représenté sur la figure 4D, un tel enregistrement est véhiculé dans un sous-flux SF synchronisé avec le signal audio et/ou vidéo S.
Bien entendu, plusieurs sous-flux différents peuvent être synchronisés avec le signal audio et/ou vidéo S. Ainsi, le signal audio et/ou vidéo S pourrait être synchronisé par exemple avec un premier sous-flux transportant l'enregistrement du rythme cardiaque et un deuxième sous-flux transportant l'enregistrement de la pression artérielle.
Comme représenté sur la figure 5B, l'analyse E2 du signal audio et/ou vidéo S, telle que mise en œuvre à la figure 3, consiste alors, de façon continue et synchronisée avec la restitution du contenu par le terminal TER, à :
- en E20b, détecter dans le sous-flux SF les valeurs du paramètre psycho-physiologique,
- pour chacune des valeurs détectées, en E21 b, attribuer une métadonnée correspondante, telle que « stress », « calme », « angoisse », etc .,
- en E22b, requérir dans la table de correspondance TC, la valeur d'un paramètre audio et/ou vidéo associée à chaque métadonnée correspondante,
- en E23b, affecter à chaque métadonnée correspondante, la valeur du paramètre audio et/ou vidéo qui lui est associée.
Selon un cinquième mode de réalisation représenté sur la figure 5C, l'analyseur ANA procède à une analyse intra-contenu.
A cet effet, l'analyse E2 du signal audio et/ou vidéo S, telle que mise en œuvre à la figure 3, consiste alors, de façon continue et synchronisée avec la restitution du contenu par le terminal TER, à :
- en E20c, détecter au moins une portion d'image et/ou une composante du son qui sont, de préférence, récurrentes tout au long du contenu, - en E21 c, affecter une valeur VVj ou VA, d'au moins un paramètre audio et/ou vidéo, en correspondance avec la portion d'image et/ou la composante du son détectée.
Dans le cas par exemple où le contenu est un match de football, une portion d'image courante est par exemple le ballon, lequel est détecté par un algorithme de reconnaissance de forme. L'analyseur ANA affectera par exemple une valeur VVi de contraste bien plus élevée sur le ballon que celle préalablement programmée dans le terminal TER.
A titre d'alternative, le contraste plus élevé peut être appliqué sur toute l'image et non pas uniquement sur le ballon.
Dans le cas par exemple où le contenu est une chanson interprétée en duo par un chanteur et une chanteuse, une composant audio est l'une des pistes audio correspondant respectivement à la voix du chanteur et à la voix de la chanteuse. L'analyseur ANA affectera par exemple une valeur particulière VA2 de fréquence sonore à la piste audio correspondant par exemple à la voix de la chanteuse, de façon à rendre la restitution audio du contenu plus saisissante ou plus confortable.
Les différents modes de réalisation qui viennent d'être décrits en référence aux figures 4A à 4D et 5A à 5C peuvent bien sûr être combinés ensemble pour un enrichissement toujours plus élevé de paramètres audio et/ou vidéo à régler automatiquement.
En outre, le réglage des paramètres audio et/ou vidéo mis en œuvre à l'aide de ces différents modes de réalisation peut être modifié en fonction d'au moins un critère lié à l'utilisateur UT.
Ainsi les paramètres audio et/ou vidéo qui sont dans un premier temps réglés en fonction du contenu conformément aux différents modes de réalisations décrits ci-dessus peuvent être modifiés de façon personnalisée, c'est-à-dire par exemple, en tenant compte des goûts, des habitudes, des contraintes de l'utilisateur (ex : déficience auditive ou visuelle), de l'environnement de l'utilisateur, tel que par exemple le lieu (bruyant ou calme) où le contenu est restitué, le type de périphériques vidéo et/ou audio du terminal de restitution TER (taille et forme d'écrans, d'enceintes/haut-parleurs), le jour et/ou l'heure de restitution du contenu, etc....
A cet effet, préalablement à la restitution d'un contenu, la plateforme PFS récupère ces différents critères utilisateur.
Une telle récupération est par exemple mise en œuvre en extrayant des informations d'un historique de visualisation/écoute de contenu de l'utilisateur UT qui est remonté vers la plateforme PFS via le réseau de communication RC de la figure 1 .
Selon un autre exemple, sur requête de l'utilisateur UT auprès de la plateforme PFS, ce dernier a la possibilité, via une interface dédiée qui s'affiche sur son terminal TER ou son téléviseur TLV, de déclarer manuellement ses goûts, ses habitudes et ses contraintes. Par exemple, l'utilisateur UT peut indiquer qu'il regarde la télévision dans sa chambre entre 20h et 22h, sur son téléviseur TLV ayant un écran Haute-Définition de 26 pouces. Selon un autre exemple, l'utilisateur UT peut indiquer qu'il est daltonien ou bien gêné par certaines fréquences sonores, etc....
Suite à la récupération des critères de l'utilisateur, en référence à la figure 3, à la suite de la mise en œuvre de l'étape d'analyse E2, il est procédé, en E'2, à une modification des valeurs de réglage des paramètres audio et/ou vidéo, en fonction des critères de l'utilisateur récupérés par la plateforme PFS.
L'étape E'2 étant optionnelle, elle est représentée en pointillé sur la figure 3.
Selon un premier mode de réalisation, la modification E'2 comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère utilisateur du terminal, de la valeur du ou des paramètres audio et/ou vidéo qui ont été réglés à l'issue de l'étape E2.
La modulation mise en œuvre par rapport à un seuil prédéterminé consiste par exemple :
- en l'application de coefficients multiplicateurs prédéterminés aux valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu,
- en l'incrémentation ou en la décrémentation d'une valeur n prédéterminée (ex : n=1 ) des valeurs des paramètres audio et/ou vidéo réglés en fonction du contenu, le nombre d'incrémentations ou de décrémentations à effectuer étant lui aussi éventuellement prédéterminé en fonction du profil de l'utilisateur.
Par exemple, si l'utilisateur UT a déclaré préalablement à la plateforme
PFS qu'il est déficient auditif, la valeur VA attribuée au paramètre PA de niveau sonore est augmentée automatiquement de n=3 avant l'envoi, en E3, de l'instruction de réglage IRG.
Selon un autre exemple, si l'utilisateur UT a déclaré préalablement à la plateforme PFS qu'il est déficient visuel, si par exemple deux valeurs VV et VV3 ont été respectivement attribuées à l'étape E2 aux paramètres vidéo PVi de contraste et PV3 de saturation des couleurs, deux coefficients multiplicateurs prédéterminés sont appliqués aux valeurs VVi et VV3 avant l'envoi, en E3, de l'instruction de réglage IRG.
Selon un deuxième mode de réalisation, la modification E'2 comprend un remplacement de la valeur du ou des paramètres audio et/ou vidéo qui ont été réglés à l'issue de l'étape E2, par une autre valeur qui est fonction d'au moins un critère lié à l'utilisateur du terminal.
Par exemple, dans le cas de l'analyse des caractéristiques du signal audio et/ou vidéo telle que mise en œuvre à la figure 5C, si l'utilisateur UT a déclaré préalablement à la plateforme PFS qu'il était daltonien, avant l'envoi, en E3, de l'instruction de réglage IRG, les zones de couleur que ce dernier ne parvient pas à percevoir dans l'image courante sont remplacées respectivement par des zones de couleur qu'il réussit à percevoir.
Selon un autre exemple, toujours dans le cas de l'analyse des caractéristiques du signal audio et/ou vidéo telle que mise en œuvre à la figure 5C, si l'utilisateur UT a déclaré préalablement à la plateforme PFS qu'il était gêné par les hautes-fréquences, si de telles hautes-fréquences sont présentes dans certaines composantes (pistes) du signal audio, elles sont remplacées par des fréquences plus basses du spectre avant l'envoi, en E3, de l'instruction de réglage IRG. On va maintenant décrire, en relation avec la figure 6, un exemple d'interface Ul, à l'aide de laquelle l'utilisateur UT déclare des critères qui lui sont propres et qui vont influer sur l'analyse mise en œuvre par l'analyseur ANA de la figure 2.
Dans l'exemple représenté, ces critères se présentent sous la forme de règles qui viennent compléter ou se substituer aux réglages automatiques mis en œuvre dans le dispositif 100 de la figure 2.
Dans l'exemple représenté, quatre règles sont définies :
- Réglages automatiques,
- Filtrage pour les petits,
- Augmente le contraste pour les scènes sombres,
- Améliore la perception des voix féminines.
S'agissant de la règle « filtrage pour les petits », l'utilisateur peut imposer au dispositif 100 une valeur de réglage de certains paramètres audio/vidéo, par exemple le volume et la luminosité. Les valeurs de réglage sont sélectionnées par l'utilisateur en déplaçant par exemple un curseur associé à chaque paramètre.
S'agissant de la règle « augmente le contraste pour les scènes sombres », l'utilisateur peut imposer au dispositif 100 une valeur de contraste qu'il a la possibilité d'incrémenter ou de décrémenter selon ses besoins.
S'agissant de la règle « améliore la perception des voix féminines », l'utilisateur peut imposer au dispositif 100 une valeur de fréquences graves et une valeur de fréquences aiguës, qu'il a la possibilité d'incrémenter ou de décrémenter selon ses besoins.
Ces règles peuvent par ailleurs être ou non adaptées automatiquement en fonction des usages et habitudes de l'utilisateur.
Chaque nouvelle règle vient s'empiler au-dessus de la précédente à l'aide du bouton « ajouter ».
II est possible de supprimer une règle à l'aide du bouton « supprimer » et de modifier l'ordre des règles. Dans l'exemple représenté, les règles sont analysées de haut en bas, c'est à dire (de la plus à la moins prioritaire). Dès que la définition d'une règle correspond au contenu visionné, la règle s'applique.
L'invention qui vient d'être décrite ci-dessus présente ainsi de nombreux avantages, tels que par exemple :
- améliorer le confort audiovisuel propre à certains types de contenus, comme par exemple :
- améliorer le contraste, la couleur verte de la pelouse et la bande de fréquences de la voix pour profiter pleinement d'un match de football, visualiser mieux le ballon et maximiser la compréhension des commentaires,
- améliorer un concert musical : balance des sons et couleurs un peu saturées (ambiance psychédélique), ...
- intensifier certaines scènes, par exemple en :
- augmentant le son des scènes avec du suspens ou très tendues,
- en saturant les couleurs pour les scènes d'horreur,
- en améliorant le contraste pour les scènes sombres,
- diminuer l'impact de certaines scènes dans le cas où le contenu est restitué à des personnes sensibles, par exemple en :
- combinant contraste et luminosité, voire le volume sonore, pour diminuer la visibilité des scènes difficiles (violentes, d'horreur, ...),
- adaptant les couleurs pour les personnes daltoniennes : sur chaque image, remplacement de couleurs mal perçues par d'autres qui permettent de mieux ressentir la scène.
Exemples illustratifs :
Agnès a une petite déficience auditive sur une bande de fréquences particulière. Agnès configure son système afin que les fréquences vocales des contenus qui interviendraient dans cette bande soit décalées afin qu'elle les entende mieux. Martin ne fait pas entièrement confiance aux contenus dits « tous publics » pour ses enfants. Il configure alors son système afin que toutes les scènes non adaptées soient artificiellement occultées par une adaptation automatique du volume (son coupé) et de la luminosité de l'image (écran noir). Martin est ainsi plus serein et rassuré.
Le dernier film vu par Paul était une suite d'allers-retours entre des scènes romantiques et des scènes avec du suspens et de l'angoisse. Le sujet était certes un peu compliqué mais grâce aux accentuations de contraste, les réglages son atténués ou amplifiés tout au long du film. Paul a ainsi l'impression d'avoir ressenti des émotions vraiment fortes, proches de celles qu'il ressent dans la réalité.
Il va de soi que les modes de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l'homme de l'art sans pour autant sortir du cadre de l'invention.

Claims

REVENDICATIONS
1 . Procédé de contrôle du réglage d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, mettant en œuvre, pour un contenu audio et/ou vidéo à restituer, la réception (E1 ) d'un signal audio et/ou vidéo (S) correspondant audit contenu,
ledit procédé étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le procédé met en œuvre ce qui suit:
- analyse (E2) d'au moins une caractéristique du signal audio et/ou vidéo reçu:
- réglage (E3) d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
2. Procédé selon la revendication 1 , dans lequel le signal audio et/ou vidéo ayant été décomposé préalablement en une pluralité de séquences temporelles successives, l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu comprend, pour une séquence temporelle courante de ladite pluralité, une identification (E20a) d'au moins une caractéristique du signal audio et/ou vidéo associée à ladite séquence temporelle courante.
3. Procédé selon la revendication 1 , dans lequel l'analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu comprend une identification en continu (E20b) d'au moins une information caractérisant le signal audio et/ou vidéo.
4. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel la caractéristique du signal audio et/ou vidéo est une métadonnée caractérisant le contenu à un instant courant de restitution du contenu.
5. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel la caractéristique du signal audio et/ou vidéo est respectivement au moins une portion d'image et/ou au moins une composante du son.
6. Procédé selon l'une quelconque des revendications 1 à 5, dans lequel le réglage dudit au moins un paramètre audio et/ou vidéo du terminal, qui a été mis en œuvre en fonction de la caractéristique analysée, est modifié (E'2) en fonction d'au moins un critère lié à l'utilisateur du terminal.
7. Procédé selon la revendication 6, dans lequel la modification comprend une modulation, par rapport à un seuil prédéterminé qui est fonction dudit au moins un critère lié à l'utilisateur du terminal, de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé.
8. Procédé selon la revendication 6, dans lequel la modification comprend un remplacement de la valeur dudit au moins un paramètre audio et/ou vidéo qui a été réglé par une autre valeur qui est fonction dudit au moins un critère lié à l'utilisateur du terminal.
9. Dispositif (100) de contrôle du réglage d'au moins un paramètre audio et/ou vidéo d'un terminal qui est apte à restituer un contenu audio et/ou vidéo, ledit dispositif comprenant un circuit de traitement (CT) qui, pour un contenu audio et/ou vidéo à restituer, est agencé pour mettre en œuvre la réception d'un signal audio et/ou vidéo correspondant audit contenu, le dispositif étant caractérisé en ce que de façon synchronisée avec la restitution du contenu par le terminal, le circuit de traitement est agencé en outre pour mettre en œuvre ce qui suit:
- analyse d'au moins une caractéristique du signal audio et/ou vidéo reçu,
- réglage d'au moins un paramètre audio et/ou vidéo du terminal en fonction de la caractéristique analysée.
10. Terminal (TER) apte à contenir un dispositif (1 00) de contrôle selon la revendication 9.
1 1 . Programme d'ordinateur comportant des instructions de code de programme pour l'exécution des étapes du procédé de contrôle selon l'une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté sur un ordinateur.
12. Support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé de contrôle selon l'une quelconque des revendications 1 à 8, lorsque ledit programme est exécuté par un ordinateur.
EP17716960.4A 2016-03-25 2017-03-21 Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants Pending EP3434022A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1652630A FR3049418A1 (fr) 2016-03-25 2016-03-25 Procede et dispositif de controle du reglage d'au moins un parametre audio et/ou video, terminal et programme d'ordinateur correspondants
PCT/FR2017/050661 WO2017162980A1 (fr) 2016-03-25 2017-03-21 Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants

Publications (1)

Publication Number Publication Date
EP3434022A1 true EP3434022A1 (fr) 2019-01-30

Family

ID=56372983

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17716960.4A Pending EP3434022A1 (fr) 2016-03-25 2017-03-21 Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants

Country Status (4)

Country Link
US (1) US20200304882A1 (fr)
EP (1) EP3434022A1 (fr)
FR (1) FR3049418A1 (fr)
WO (1) WO2017162980A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR201721653A2 (tr) * 2017-12-25 2019-07-22 Arcelik As Bi̇r televi̇zyon
US10314477B1 (en) 2018-10-31 2019-06-11 Capital One Services, Llc Systems and methods for dynamically modifying visual content to account for user visual impairment
GB2580938A (en) 2019-01-31 2020-08-05 Sony Corp System and method of setting selection for the presentation of AV content
CN111263190A (zh) * 2020-02-27 2020-06-09 游艺星际(北京)科技有限公司 视频处理方法及装置、服务器、存储介质
US20220321951A1 (en) * 2021-04-02 2022-10-06 Rovi Guides, Inc. Methods and systems for providing dynamic content based on user preferences

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110095875A1 (en) * 2009-10-23 2011-04-28 Broadcom Corporation Adjustment of media delivery parameters based on automatically-learned user preferences
KR102229156B1 (ko) * 2014-03-05 2021-03-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
US20150302819A1 (en) * 2014-04-22 2015-10-22 Lenovo (Singapore) Pte. Ltd. Updating an attribute used for displaying video content based on video content type

Also Published As

Publication number Publication date
FR3049418A1 (fr) 2017-09-29
WO2017162980A1 (fr) 2017-09-28
US20200304882A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
EP3434022A1 (fr) Procédé et dispositif de contrôle du réglage d&#39;au moins un paramètre audio et/ou vidéo, terminal et programme d&#39;ordinateur correspondants
US7698238B2 (en) Emotion controlled system for processing multimedia data
FR3059191B1 (fr) Dispositif a casque audio perfectionne
KR20060123074A (ko) 콘텐트 정보의 사용자 프로파일 제어 렌더링
US7610260B2 (en) Methods and apparatus for selecting and providing content data using content data status information
EP2403239B1 (fr) Procédé d&#39;affichage de contenus audiovisuels adaptés et serveur correspondant
JP2021505046A (ja) 会話との関連でコンテンツを推奨する方法およびシステム
US20200021630A1 (en) Multi-deterministic dynamic content streaming
KR20020027358A (ko) 그래픽 사용자 인터페이스를 적응시키기 위한 방법 및 장치
JP2008522532A (ja) コマーシャルのカスタマイズ化
Jumisko et al. Effect of TV content in subjective assessment of video quality on mobile devices
KR101585830B1 (ko) 시청자 감정에 따른 스토리 전개 시스템 및 방법
CN113821188A (zh) 调整音频播放速度的方法、装置、电子设备及存储介质
CN110324702B (zh) 视频播放过程中的信息推送方法和装置
US20220167052A1 (en) Dynamic, user-specific content adaptation
JP2008130215A (ja) 自動編集装置及び自動編集方法
KR20030065719A (ko) 데이터 방송 서비스장치 및 방법
FR3090256A1 (fr) Procédé de reproduction sur un terminal d’un contenu principal en restituant un contenu secondaire associé à un objet affiché, terminal, serveur, et programme d’ordinateur correspondants.
EP3292692A1 (fr) Procede de reglage du niveau de definition des images d&#39;un programme multimedia
EP1273166B1 (fr) Methode pour l&#39;affichage selectif de programmes televisuels
AU743455B2 (en) Environment adaptive multimedia presentation
JP7302804B1 (ja) ライブストリームをレコメンドするためのシステム、方法、及びコンピュータ可読媒体
US20220174358A1 (en) Content moderation for extended reality media
Hausman et al. Communicating the Message
CN117376596A (zh) 基于智能数字人模型的直播方法、装置及存储介质

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181023

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190923

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS