WO2017098111A1 - Navigation directe dans un extrait vidéo - Google Patents

Navigation directe dans un extrait vidéo Download PDF

Info

Publication number
WO2017098111A1
WO2017098111A1 PCT/FR2016/053129 FR2016053129W WO2017098111A1 WO 2017098111 A1 WO2017098111 A1 WO 2017098111A1 FR 2016053129 W FR2016053129 W FR 2016053129W WO 2017098111 A1 WO2017098111 A1 WO 2017098111A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
images
video
banner
video content
Prior art date
Application number
PCT/FR2016/053129
Other languages
English (en)
Inventor
Christophe RUFIN
Original Assignee
Orange
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange filed Critical Orange
Priority to US16/061,188 priority Critical patent/US11089374B2/en
Priority to EP16815614.9A priority patent/EP3387520A1/fr
Publication of WO2017098111A1 publication Critical patent/WO2017098111A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop

Definitions

  • the present invention belongs to the field of the rendering of video contents by a touch screen. It relates in particular to a method and a device for browsing video content.
  • This method is particularly advantageous for selecting video clips of a few seconds in video contents whose duration is less than two minutes.
  • Video content means any type of content capable of rendering animated images forming a video, accompanied or not by sound.
  • An example of video content is an avi or mpeg file. In the rest of the description, the terms “video content” and “video” will be used indiscriminately.
  • vigation in a video content means the possibility for a user to browse different moments of the video content, for example by launching the video from a given moment or by viewing an image corresponding to a given moment of the video.
  • touch screen means any type of screen that can be controlled by a movement of the user, this definition taking into account, in particular, the screen control by an analysis of the movements made in the vicinity, direct or more distant, of the screen.
  • Surface wave technology, capacitive, infrared, Near Field Imaging (NFI), and visual motion detection like the Kinect device, MARQUE DEPOSEE are examples of touch screens.
  • the navigation within a video restored by a touch screen is usually done using a progress bar inlaid or located near an area dedicated to the return of the video.
  • the zone dedicated to the rendering of the video "video content player” is called.
  • this method of navigation does not guide the user to help him select the precise moment of the video he seeks to achieve. Indeed, this method does not provide an overview of the video to the user. The latter must therefore grope by selecting many places in the progress bar to find a specific moment in the video. Such trial and error is particularly problematic in the case of a small touch screen where it is difficult to place a finger at a specific point of the progress bar.
  • thumbnails representing images of reduced size extracted from a passage of the video content.
  • Such thumbnails are for example five in number and are displayed under the video player.
  • the vignettes give the user a quick idea of the passage covered by the vignettes. The user can browse the entire video by scrolling thumbnails to select other passages. Once the appropriate thumbnail is found after scrolling, it can start playing the video from the image represented by the thumbnail by selecting this thumbnail.
  • the present invention improves the situation.
  • a first aspect of the invention relates to a method of navigation in a video content, the navigation being performed from a graphical user interface displayed by a touch screen, the user interface comprising:
  • a video player capable of rendering the video content
  • a strip comprising a fixed plurality of images extracted from the video content, the images extending in a direction parallel to the strip and in a chronological order;
  • graphical user interface any man-machine dialogue device, in which the objects to be manipulated are drawn in the form of pictograms on the screen, so that the user can use them by imitating the physical manipulation of these objects with a pointing device (fingers, stylus or mouse for example).
  • the graphical user interface may include a display of various components such as the video player and the banner, some components, or certain component areas being selectable by the user.
  • banner comprising a fixed plurality of images extracted from the video content any type of part of the graphical user interface capable of presenting at least one image, for example of reduced size.
  • the fact that the banner comprises only a fixed plurality of images means that it is not possible for the user to modify the images present in the banner: he can not scroll these images at within the banner to browse video content.
  • the plurality of images is fixed with respect to the video content in which the user wishes to navigate, the images included on the banner being different when the video content changes.
  • direction parallel to the headband a direction that follows a general movement of the headband.
  • parallel can therefore be considered equivalent to “tangent” here, especially in situations where the strip has a curved shape (circular, elliptical, etc. strip).
  • Touch of sliding type means any type of interaction, contact or proximity, the user with the screen comprising a movement movement.
  • the interaction of the user with the screen can be achieved by a physical contact or proximity, for example, between a member of the user (at least one finger, nose, chin, an arm, etc.) or any type stylus held by the user, for example, with the touch screen.
  • a type of touch is sometimes called “slide input” or “sliding input”.
  • video content player is meant a part of the graphical user interface capable of rendering the video content, typically by displaying the image sequence constituting the video.
  • the plurality of images included in the banner being fixed, the user does not have to scroll the images of the banner to browse the video content. For a sufficient number of images to be present in the banner and these images thus give a faithful representation of the totality of the video content, these images must be sufficiently small. This reduction in the size of the images is done here without loss of clarity for the user insofar as a successive display by the video player of the images corresponding respectively to the images of the strip successively affected during the sliding movement is provided. The user can therefore directly and easily access a portion of the video that interests him, without having to grope on a progress bar. It does not have to scroll images in the banner to achieve the portion of video content that interests him, even if the touch screen is small.
  • the playback of the video is triggered as soon as an interruption of the touch is detected further reduces the complexity of the navigation within the video content and reduces to a few seconds the time required for the user to access a video. relevant content. Indeed, a single gesture is enough to launch the video at the place precisely wanted by the user. Reducing the time and interactions with the touch screen usually required to launch the video at a specific time also has the effect of reducing the computing resources and battery required for such navigation.
  • Touch interruption means any type of interruption of the sliding movement. As detailed below, it may be a simple stop or slow motion as a physical separation between the user and the touch screen.
  • the sliding type touch is detected if it extends in a direction according to the chronological order of the images included in the banner.
  • the gesture used to browse the video content is instinctive which reduces the time required for the user to take control of the navigation method according to the first aspect of the invention.
  • the sliding type touch is detected if it extends in a direction according to the chronological or anti-chronological order of the images included in the banner.
  • the images of the banner extend in a chronological order from left to right.
  • the orientation of the images in a chronological order from left to right is instinctive.
  • Another direction may also be considered, especially in regions where it is more instinctive for users to represent a chronological order from right to left.
  • the video content has a duration of less than or equal to two minutes.
  • the present invention is indeed particularly advantageous in the case of short videos. Indeed, the shorter the video, the less the user will find it difficult to navigate the video from a small number of images extracted from the video.
  • the number of images to be included in the banner may be smaller in the case of short videos than in the case of longer videos.
  • a small number of images to be included in the banner improves the readability of the banner and further simplifies the use of the method according to the invention.
  • the size of the images included on the banner is defined so that said images can be displayed side by side in the banner.
  • the strip has at least one of the following features:
  • the band has a rectangular shape
  • a rectangular-shaped strip is adapted to a rectangular screen, for example in the 16/9 format, when a circular strip is more suitable for a square screen.
  • embedding the banner in the reader is for example particularly relevant when the constraints of congestion of the screen are strong (small screen).
  • the navigation is performed by a user of an electronic device, the touch screen being included on the electronic device.
  • the interruption of the touch corresponds to a separation between the touch screen and the user.
  • the term "separation between the touch screen and the user” means any physical separation between the touch screen and the user (at least one finger of the user, stylus maintained by the user, etc.).
  • the action of the user to implement the navigation method according to the present embodiment can be summarized as a simple gesture. The interactions between the user and the screen are thus reduced to a minimum, which has the effect of minimizing the energy consumption imposed on the electronic device by the touch screen.
  • the interruption of the touch corresponds to a stop slip.
  • This variant gives an additional degree of freedom to control the navigation in the video content. Indeed, if the stop of the slip corresponds to the launch of the video, it is possible to provide to associate other functions to a physical separation between the user and the touch screen (video pause, return to the beginning, etc. .).
  • the method further comprises the step of, on detecting a touch interruption confirmation, extracting an extract from the video content, the excerpt starting with the last image displayed by the reader. video and ending with the end of the video content.
  • the method further comprises the step of, on detecting a touch interrupt confirmation, extracting an extract from the video content, the extract starting with the last image displayed by the video player and presenting a predetermined duration.
  • the "touch interruption confirmation” is any type of interaction between the user and the touch screen that confirms the interruption of touch. As detailed below, this confirmation of interruption can for example consist of raising the finger of the touch screen (confirmation) after stopping the sliding movement (interruption of touch).
  • Two gestures are therefore enough to select and extract a part of a video.
  • the extract ends with the end of the video, the user is certain that the part of the video that interests him will be included in the extract.
  • the duration of the extract is fixed, the user defines the extract more precisely.
  • smartphones include sharing functions, for example on social networks, which rely heavily on software bricks for reading / selecting / extracting video content.
  • a second aspect of the invention relates to a computer program comprising instructions for implementing the method according to the first aspect of the invention, when these instructions are executed by a processor.
  • a third aspect of the invention relates to an electronic device capable of playing video content, the device comprising:
  • a microcontroller arranged to perform the following steps:
  • Display on the touch screen of a graphical user interface comprising a video player adapted to render the video content and a banner comprising a fixed plurality of images extracted from the video content, the images extending in a direction parallel to the banner and in chronological order; • sensing a touch of the touch screen by the user at the strip, the touch being sliding type extending in the direction parallel to the strip;
  • FIGS. 2A to 2C illustrate strips according to embodiments of the invention
  • Figures 3A and 3B are diagrams illustrating the steps of a method according to an embodiment of the invention
  • FIG. 4 illustrates a microcontroller, according to one embodiment of the invention.
  • the invention is described below in its non-limiting application to a smartphone-type electronic device comprising a touch screen controlled by at least one finger of a user.
  • Other applications such as a control of the touch screen of a tablet by a stylus or a motion detection control by a game console are also possible.
  • FIG. 1 represents an electronic device 1, the invention is described below for a smartphone-type electronic device, comprising a touch screen 26 displaying a graphical user interface 2.
  • the display of the user interface can be obtained when the user launches an application dedicated to playing a video.
  • Such an application can be integrated with another application using known software tools (plugins, APIs, etc.).
  • This application can also be called by another application (instruction to launch the video playback application by an application specific to a social network for example).
  • the application is started upon receipt (and possibly confirmation by the user) of a notification message received from a connected object.
  • the decoder can select an extract, called "video content” or "video” in the following description, of the video signal consulted by the user (typically no more than 2 minutes of the signal broadcast by a television channel) and transmit it (possibly via the box, "box", of termination of an operator) to the smartphone of the user.
  • the smartphone can inform the user by a notification.
  • the graphical user interface 2 described below may be displayed for the implementation of the method according to the first aspect of the invention, described in detail below.
  • the graphical user interface 2 comprises at least two parts, a video content player 3 and a banner 4.
  • the video content player 3 is able to display a reading of the video content.
  • the audio signal related to the video content can be broadcast simultaneously with the playback of the video content. As a variant, no sound signal is broadcast.
  • An example of a video in which a car 5 moves on a road is given for the rest of the description. It is admitted, in the following description, that the car moves from left to right and ends up stopping at a dipped beam at an intersection.
  • the banner 4 comprises a fixed plurality of images (27; 28; 29; 30; 31) extracted from the video content, the images extending in a direction parallel to the banner and in chronological order.
  • the images of the banner extend in a chronological order from left to right.
  • the size of the images included on the banner is defined so that said images can be displayed side by side in the banner.
  • the images may be superimposed, at least in part, to each other to be able to represent more images on a smaller space.
  • the strip 4 may have different shapes and be located at different points of the graphical user interface, as described below with reference to FIGS. 2A to 2C.
  • FIG. 2A illustrates a graphical user interface in which the strip 4 is attached to the right of the video player 3.
  • the sliding type touch made by a finger 6 of the user can here browse the banner from top to bottom, for example by following the chronological order of the images of the banner. Indeed, the images of the banner extend in a chronological order from the top to the bottom in FIG. 2A.
  • FIG. 2B illustrates the case where the strip 4 is attached to the top of the video player 3.
  • the sliding touch can also be performed from left to right, in a chronological order of the images.
  • FIG. 2C represents the case where the strip 4 is circular in shape and is at least partially embedded in the video player 3.
  • the sliding type of touch can here traverse the strip in a circular manner, for example in the clockwise direction.
  • the images of the strip can in this case also extend in a chronological order in the clockwise direction.
  • the sliding-type touch extending in a direction parallel to the headband means a touch according to the chronological order of the headband, that is to say here a circular movement in the clockwise direction.
  • Figures 3A and 3B illustrate the method of navigation in the video content.
  • the method may for example be implemented when the user receives a notification informing him that video content extracted from a TV decoder is available on his smartphone.
  • the user selects (clicks) on the notification, he can be redirected to the graphical user interface.
  • the user viewing the graphical user interface begins to perform a sliding-type touch at the strip 4, in a direction parallel to the strip (the strip being here rectangular in shape), in the direction chronological images of the strip (here from left to right) with his finger 6.
  • This sliding touch is then detected in a step 7 by a microcontroller, described below with reference to Figure 4.
  • the mechanisms involved in this detection are known to those skilled in the art, the duration and the number of user inputs (entry points detected by the touch screen) used for the detection may in particular be very small.
  • the detection may include an acceptable error rate for dealing with cases where the user's finger deviates from the direction for which the slip-like feel is to be detected.
  • a successive display, by the video player, of images respectively corresponding to the images of the strip successively affected during the sliding movement is provided in step 8.
  • This is represented by the illustrations 17 to 13.
  • the images displayed by the video player correspond to the images touched by the finger on the banner.
  • the finger selects the image 29 of the banner, where the car is located a little after the middle of the image. This image is then displayed by the video player so that the user can correctly view this image during its touch-type movement.
  • the step 8 of detection as the step 9 of successive display can be performed for a touch of sliding type extending in the chronological order of the images but also for a touch of sliding type extending in any order other than chronological order.
  • a sliding type of touch extending in an anti-chronological order is for example possible, the images displayed by the video player always corresponding respectively to the images touched by the finger of the user.
  • the touch can also pass from a first image of the banner to a second image of the banner, although other images, which are interposed from a chronological point of view, are situated between the first and second image ( passing through the inside of the circle, via a circle diameter per example).
  • Combinations of different touches are also possible, insofar as a successive display, by the video player, of images respectively corresponding to the images of the strip successively affected during the sliding movement is provided.
  • a step of detecting a touch interruption comprising the substeps of detecting slippage stop 10 and touch interrupt confirmation 11, is implemented.
  • the microcontroller detects that the user stops his sliding movement, without however raising the finger of the touch screen.
  • the finger is no longer in motion and is stopped in the image 30.
  • a test is performed to verify that the user wishes to notify the smartphone of a sliding-type touch interruption.
  • This confirmation can take the form of a finger lift 6 (physical separation between the touch screen and the user) or any other type of interaction of the user with the smartphone (confirmation by voice, by clicking on a pop-up window, etc.).
  • a confirmation request can be displayed on the screen by the smartphone, for example via the display of a notification stating: "If you wish to confirm the stop of the touch of type sliding, you can simply raise your finger of the screen ".
  • step 9 the process can resume in step 9 and the user can continue his touch of sliding type to resume the successive display of images by the video player, for example in another sense (anti-chronological sense to return to a previously touched image).
  • step 12 If the interruption of the touch is confirmed, a playback of the video content by the video player from the last image (image 30 here) displayed by the video player, corresponding to a last image (image 30 here) touched during the movement of the video. slip is implemented in step 12.
  • the video content is then simply read by the reader from the last image (image 30 here) displayed by this player.
  • extracting an extract from the video content is performed.
  • the snippet can then start with the last image displayed by the video player (image 30 here) and end with the end of the video content.
  • the extract can start with the last image displayed by the video player and have a predetermined duration (for example 15 seconds).
  • This extract can then be shared for example via a social network or via a plugin to transmit the extract by email.
  • step 12 Other actions can be envisaged in step 12, such as, for example, the display of metadata relating to the video, the opening of a video control window (read functions, fast forward, next chapter, etc.). etc.
  • the read / extract / other step 12 may be implemented as soon as a slip-type touch stop is detected, without any confirmation having to take place.
  • microcontroller 19 included in the electronic device 1, in particular, from which the steps are implemented the steps of the method described with reference to FIGS. 3A and 3B, in particular, is described here with reference to FIG. .
  • This microcontroller 19 may take the form of a housing comprising printed circuits, any type of computer or any type of subpart of the electronic device 1.
  • the microcontroller 19 comprises a random access memory 23 for storing instructions for the implementation by a processor 22 of the steps of the method described with reference to FIGS. 3A and 3B, in particular.
  • the device also comprises a mass memory 24 for storing data intended to be stored after the implementation of the method.
  • the microcontroller 19 may further comprise a digital signal processor (DSP) 21.
  • DSP 21 receives for example the video to format, demodulate and amplify, in a manner known per se this video.
  • the microcontroller 19 also includes an input interface 20 for receiving data such as video, input signals received from the touch screen, operating parameters, etc.
  • Microcontroller 19 further comprises an output interface 25 especially for the transmission of display data to the touch screen.
  • the sliding type touch is performed by a finger of the user.
  • This sliding-type touch can also be performed from multiple fingers, a stylus, or any type of pointing device on the touch screen.
  • the sliding type of touch can be detected and processed by the method described above for a movement performed near the touch screen.
  • the invention is in fact directly applicable to motion detection techniques (for example via a plurality of cameras) where the touch of sliding type can typically correspond to a rectilinear movement of a hand and the confirmation to an action of withdrawal of the hand.
  • slip type touch corresponded to a rectilinear motion.
  • the sliding type of touch may however correspond to any type of movement and thus include ripples or broken lines for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de navigation dans un contenu vidéo, la navigation s'effectuant à partir d'une interface utilisateur graphique (2) affichée par un écran tactile (26), l'interface utilisateur comprenant : · un lecteur vidéo (3) apte à lire le contenu vidéo; · un bandeau (4) comprenant une pluralité fixe d'images (27; 28; 29; 30; 31) extraites du contenu vidéo, les images s'étendant dans une direction parallèle au bandeau et dans un ordre chronologique.

Description

Navigation directe dans un extrait vidéo
La présente invention appartient au domaine de la restitution de contenus vidéo par un écran tactile. Elle concerne en particulier un procédé et un dispositif de navigation dans contenu vidéo.
Cette méthode est particulièrement avantageuse pour sélectionner des extraits vidéo de quelques secondes dans des contenus vidéo dont la durée est inférieure à deux minutes.
On entend par « contenu vidéo », tout type de contenu apte à restituer des images animées formant une vidéo, accompagnées ou non de son. Un exemple de contenu vidéo est un fichier avi ou mpeg. Dans la suite de la description, les termes « contenu vidéo » et « vidéo » seront indistinctement utilisés.
On entend par « navigation dans un contenu vidéo » la possibilité pour un utilisateur de parcourir différents instants du contenu vidéo, par exemple en lançant la vidéo à partir d'un instant donné ou en visualisant une image correspondant à un instant donné de la vidéo.
On entend par « écran tactile » tout type d'écran apte à être contrôlé par un mouvement de l'utilisateur, cette définition prenant notamment en compte le contrôle d'écran par une analyse des mouvements effectués à proximité, directe ou plus lointaine, de l'écran. Des écrans de technologie à ondes de surface, capacitive, à infrarouge, NFI (pour « Near Field Imaging », imagerie en champs proche en français), à détection visuelle de mouvements (comme le dispositif Kinect, MARQUE DEPOSEE) sont des exemples d'écrans tactiles.
La navigation au sein d'une vidéo restituée par un écran tactile s'effectue habituellement à l'aide d'une barre d'avancement incrustée ou située à proximité d'une zone dédiée à la restitution de la vidéo. On appelle la zone dédiée à la restitution de la vidéo « lecteur de contenu vidéo ».
Par exemple, il est possible de naviguer dans un contenu vidéo restitué (par exemple sur l'écran tactile d'une tablette) par la plateforme de streaming YouTube, MARQUE DEPOSEE, à l'aide d'une barre d'avancement située sous le lecteur de contenu vidéo. Pour ce faire, l'utilisateur peut placer son doigt sur un endroit précis de la barre d'avancement, l'endroit précis correspondant à un instant donné du contenu vidéo. Lorsqu'il place son doigt ainsi, le lecteur de contenu vidéo restitue la vidéo à partir de l'instant donné du contenu vidéo.
Si elle est simple et robuste, cette méthode de navigation ne guide toutefois pas l'utilisateur pour l'aider à sélectionner l'instant précis de la vidéo qu'il cherche à atteindre. En effet, cette méthode ne propose pas de vue d'ensemble de la vidéo à l'utilisateur. Ce dernier doit donc tâtonner en sélectionnant de nombreux endroits de la barre d'avancement pour arriver à trouver un instant précis de la vidéo. Un tel tâtonnement est particulièrement problématique dans le cas d'un écran tactile de petite taille où il est difficile de placer un doigt à un endroit précis de la barre d' avancement.
Pour faciliter la navigation, il a également pu être proposé d'afficher des vignettes représentant des images de taille réduite extraites d'un passage du contenu vidéo. De telles vignettes sont par exemple au nombre de cinq et sont affichées sous le lecteur de contenu vidéo. Les vignettes donnent ainsi à l'utilisateur une idée rapide du passage couvert par les vignettes. L'utilisateur peut parcourir la totalité de la vidéo en faisant défiler les vignettes pour sélectionner d'autres passages. Une fois la vignette appropriée trouvée suite au défilement, il peut lancer la lecture de la vidéo à partir de l'image représentée par la vignette en sélectionnant cette vignette.
Ceci est contraignant dans la mesure où un grand nombre d'opérations est nécessaire pour arriver au passage pertinent. En outre, une telle méthode multiplie le nombre d'entrées possibles (sélection image ; défilement image ; lecture vidéo, etc.) à intégrer à l'écran tactile ce qui est problématique d'un point de vue encombrement de l'écran tactile (cas des petits écrans) et accroît la complexité du logiciel de navigation (ressources de calcul et consommation d'énergie accrues).
La présente invention vient améliorer la situation.
A cet effet, un premier aspect de l'invention concerne un procédé de navigation dans un contenu vidéo, la navigation s'effectuant à partir d'une interface utilisateur graphique affichée par un écran tactile, l'interface utilisateur comprenant :
• un lecteur vidéo apte à restituer le contenu vidéo ;
• un bandeau comprenant une pluralité fixe d'images extraites du contenu vidéo, les images s 'étendant dans une direction parallèle au bandeau et dans un ordre chronologique ;
le procédé comportant les étapes de :
- détection d'un toucher de l'écran tactile par l'utilisateur au niveau du bandeau, le toucher étant de type glissement s 'étendant dans la direction parallèle au bandeau ;
- sur détection du toucher, affichage successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ;
- sur détection d'une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d'une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement. On entend par « interface utilisateur graphique », tout dispositif de dialogue homme- machine, dans lequel les objets à manipuler sont dessinés sous forme de pictogrammes à l'écran, de sorte que l'utilisateur peut les utiliser en imitant la manipulation physique de ces objets avec un dispositif de pointage (doigts, stylet ou encore souris par exemple). En particulier, l'interface utilisateur graphique peut comprendre un affichage de divers composants comme le lecteur vidéo et le bandeau, certains composants, ou certaines zones de composants, étant sélectionnables par l'utilisateur.
On entend par « bandeau comprenant une pluralité fixe d'images extraites du contenu vidéo » tout type de partie de l'interface graphique utilisateur apte à présenter au moins une image, par exemple de taille réduite. En particulier, le fait que le bandeau ne comprenne qu'une pluralité fixe d'image signifie ici qu'il n'est pas possible pour l'utilisateur de modifier les images présentes dans le bandeau : il ne peut pas faire défiler ces images au sein du bandeau pour parcourir le contenu vidéo. La pluralité d'image est fixe par rapport au contenu vidéo dans lequel souhaite naviguer l'utilisateur, les images comprises sur le bandeau étant différentes lorsque le contenu vidéo change.
On entend ici par « direction parallèle au bandeau » une direction qui suive un mouvement général du bandeau. Le terme « parallèle » peut donc ici être considéré équivalent à « tangent », en particulier dans les situations où le bandeau présente une forme courbe (bandeau de forme circulaire, elliptique, etc.).
On entend par « toucher de type glissement », tout type d'interaction, de contact ou de proximité, de l'utilisateur avec l'écran comprenant un mouvement de déplacement. L'interaction de l'utilisateur avec l'écran peut être réalisée par un contact physique ou de proximité, par exemple, entre un membre de l'utilisateur (au moins un doigt, nez, menton, un bras etc.) ou tout type de stylet tenu par l'utilisateur, par exemple, avec l'écran tactile. En anglais, un tel type de toucher est parfois appelé « slide input » ou « sliding input ».
On entend par « lecteur de contenu vidéo » une partie de l'interface utilisateur graphique apte à restituer le contenu vidéo, typiquement en affichant la suite d'image constituant la vidéo.
La pluralité d'images comprise dans le bandeau étant fixe, l'utilisateur n'a pas à faire défiler les images du bandeau pour parcourir le contenu vidéo. Pour qu'un nombre suffisant d'images soit présent dans le bandeau et que ces images donnent ainsi une représentation fidèle de la totalité du contenu vidéo, il faut que ces images soient suffisamment petites. Cette réduction de la taille des images se fait ici sans perte de clarté pour l'utilisateur dans la mesure où un affichage successif par le lecteur vidéo des images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu. L'utilisateur peut donc directement et facilement accéder à une partie de la vidéo qui l'intéresse, sans avoir à tâtonner sur une barre d'avancement. Il n'a en outre pas à faire défiler d'images dans le bandeau pour parvenir à la partie du contenu vidéo qui l'intéresse, même si l'écran tactile dont il dispose est de petite taille.
En outre, le fait que la lecture de la vidéo soit déclenchée dès qu'est détectée une interruption du toucher réduit encore la complexité de la navigation au sein du contenu vidéo et réduit à quelques secondes le temps nécessaire à l'utilisateur pour accéder à un contenu pertinent. En effet, un seul geste suffit à lancer la vidéo à l'endroit précisément voulu par l'utilisateur. La réduction du temps et des interactions avec l'écran tactile usuellement requis pour lancer la vidéo à un moment précis a également pour effet de réduire les ressources en calcul et en batterie nécessaires à une telle navigation.
On entend par « interruption du toucher » tout type d'interruption du mouvement de glissement. Comme détaillé ci-après, il peut s'agir d'un simple arrêt ou ralentissement du mouvement comme d'une séparation physique entre l'utilisateur et l'écran tactile.
Dans un mode de réalisation, le toucher de type glissement est détecté s'il s'étend dans un sens suivant l'ordre chronologique des images comprises dans le bandeau. Le geste utilisé pour parcourir le contenu vidéo est donc instinctif ce qui réduit le temps nécessaire à l'utilisateur pour prendre en main le procédé de navigation selon le premier aspect de l'invention. Dans un mode de réalisation, le toucher de type glissement est détecté s'il s'étend dans un sens suivant l'ordre chronologique ou anti-chronologique des images comprises dans le bandeau.
Dans un autre mode de réalisation, les images du bandeau s'étendent dans un ordre chronologique de la gauche vers la droite. Ici encore, l'orientation des images dans un ordre chronologique de la gauche vers la droite est instinctive. Une autre orientation pourra également être envisagée, notamment dans des régions où il est plus instinctif pour les utilisateurs de représenter un ordre chronologique de la droite vers la gauche.
Dans un mode de réalisation, le contenu vidéo a une durée inférieure ou égale à deux minutes. La présente invention est en effet particulièrement avantageuse dans le cas de courtes vidéos. En effet, plus la vidéo est courte, moins l'utilisateur aura de difficultés à se repérer dans la vidéo à partir d'un faible nombre d'images extraites de la vidéo. Ainsi, le nombre d'images à inclure dans le bandeau peut être plus faible dans le cas de courtes vidéos que dans le cas de vidéo plus longues. Or, un faible nombre d'image à inclure dans le bandeau améliore la lisibilité du bandeau et simplifie encore l'utilisation du procédé selon l'invention.
Dans un mode de réalisation, la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau. Une vision d'ensemble du contenu vidéo est ainsi garantie à l'utilisateur dans la mesure où la clarté des images du bandeau est assurée (aucun chevauchement d'image n'étant possible).
Dans un autre mode de réalisation, le bandeau présente l'une au moins des caractéristiques suivantes :
• le bandeau présente une forme rectangulaire ;
• le bandeau présente une forme carrée ;
• le bandeau présente une forme circulaire ;
• le bandeau est situé sous le lecteur de contenu vidéo ;
• le bandeau est situé sur le lecteur de contenu vidéo ;
• le bandeau est situé à droite du lecteur de contenu vidéo ;
• le bandeau est situé à gauche du lecteur de contenu vidéo ;
• le bandeau est incrusté dans le lecteur de contenu vidéo ;
• le bandeau est accolé au lecteur de contenu vidéo.
Les spécificités techniques et géométriques de l'écran tactile peuvent donc être prises en compte pour choisir la forme et la localisation du bandeau au sein de l'interface utilisateur graphique. Ainsi, un bandeau de forme rectangulaire est adapté à un écran rectangulaire, par exemple au format 16/9 ème, quand un bandeau circulaire est plus adapté à un écran carré. De la même manière, incruster le bandeau dans le lecteur est par exemple particulièrement pertinent quand les contraintes d'encombrement de l'écran sont fortes (écran de petite taille).
Dans un mode de réalisation, la navigation est effectuée par un utilisateur d'un dispositif électronique, l'écran tactile étant compris sur le dispositif électronique. Dans ce mode de réalisation, l'interruption du toucher correspond à une séparation entre l'écran tactile et l'utilisateur. On entend par « séparation entre l'écran tactile et l'utilisateur » toute séparation physique entre l'écran tactile et l'utilisateur (au moins un doigt de l'utilisateur, stylet maintenu par l'utilisateur, etc.). L'action de l'utilisateur pour mettre en œuvre le procédé de navigation selon le présent mode de réalisation se résume ainsi à un simple geste. Les interactions entre l'utilisateur et l'écran sont ainsi réduites au minimum, ce qui a pour effet de réduire au maximum la consommation en énergie imposée au dispositif électronique par l'écran tactile.
En variante, l'interruption du toucher correspond à un arrêt du glissement. Cette variante donne un degré de liberté supplémentaire pour contrôler la navigation dans le contenu vidéo. En effet, si l'arrêt du glissement correspond au lancement de la vidéo, il est possible de prévoir d'associer d'autres fonctions à une séparation physique entre l'utilisateur et l'écran tactile (pause vidéo, retour au début, etc.). Dans un autre mode de réalisation, le procédé comporte en outre l'étape de, sur détection d'une confirmation d'interruption du toucher, extraction d'un extrait du contenu vidéo, l'extrait débutant par la dernière image affichée par le lecteur vidéo et finissant par la fin du contenu vidéo.
En variante, le procédé comporte en outre l'étape de, sur détection d'une confirmation d'interruption de toucher, extraction d'un extrait du contenu vidéo, l'extrait débutant par la dernière image affichée par le lecteur vidéo et présentant une durée prédéterminée.
La « confirmation d'interruption du toucher » correspond à tout type d'interaction entre l'utilisateur et l'écran tactile ayant pour effet de confirmer l'interruption du toucher. Comme détaillé ci-après, cette confirmation d'interruption peut par exemple consister à lever le doigt de l'écran tactile (confirmation) après avoir arrêté le mouvement de glissement (interruption de toucher).
Deux gestes (glissement et confirmation d'arrêt de glissement) suffisent donc à sélectionner puis extraire une partie d'une vidéo. Lorsque l'extrait finit par la fin de la vidéo, l'utilisateur est certain que la partie de la vidéo qui l'intéresse sera comprise dans l'extrait. Dans le cas où la durée de l'extrait est fixe, l'utilisateur définit l'extrait de manière plus précise.
La mise en œuvre d'un tel procédé est particulièrement adaptée à l'utilisation de smartphone, pour « téléphone intelligent » en français. En effet, ces dispositifs, qui intègrent fréquemment des fonctions multimédia de lecture de vidéo, présentent des contraintes d'encombrement de l'écran et de consommation en ressources de calcul et en énergie qui rendent très pertinent un procédé simple et peu gourmand en ressources pour sélectionner et extraire une partie d'un contenu vidéo. En outre, les smartphones intègrent des fonctions de partage, par exemple sur des réseaux sociaux, qui font massivement appel à des briques logicielles de lecture/sélection/extraction de contenus vidéo.
Un deuxième aspect de l'invention concerne un programme informatique comportant des instructions pour la mise en œuvre du procédé selon le premier aspect de l'invention, lorsque ces instructions sont exécutées par un processeur.
Un troisième aspect de l'invention concerne un dispositif électronique apte à lire un contenu vidéo, le dispositif comportant :
- un écran tactile ;
-un microcontrôleur agencé pour effectuer les étapes suivantes :
• affichage sur l'écran tactile d'une interface utilisateur graphique comprenant un lecteur vidéo apte à restituer le contenu vidéo et un bandeau comprenant une pluralité fixe d'images extraites du contenu vidéo, les images s 'étendant dans une direction parallèle au bandeau et dans un ordre chronologique ; • détection d'un toucher de l'écran tactile par l'utilisateur au niveau du bandeau, le toucher étant de type glissement s 'étendant dans la direction parallèle au bandeau ;
• sur détection du toucher, affichage successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ;
• sur détection d'une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d'une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels:
la figure 1 illustre un contexte d'utilisation de l'invention, selon un mode de réalisation ; les figures 2A à 2C illustrent des bandeaux selon des modes de réalisation de l'invention ; les figures 3 A et 3B sont des diagrammes illustrant les étapes d'un procédé selon un mode de réalisation de l'invention ;
- la figure 4 illustre un microcontrôleur, selon un mode de réalisation de l'invention.
L'invention est décrite ci-après dans son application, non limitative, à un dispositif électronique de type smartphone comprenant un écran tactile contrôlé par au moins un doigt d'un utilisateur. D'autres applications telles qu'un contrôlé de l'écran tactile d'une tablette par un stylet ou encore un contrôle par détection de mouvements par une console de jeux sont également possibles.
La figure 1 représente un dispositif électronique 1, l'invention est décrite ci-après pour un dispositif électronique de type smartphone, comprenant un écran tactile 26 affichant une interface utilisateur graphique 2. L'affichage de l'interface utilisateur peut être obtenu lorsque l'utilisateur lance une application dédiée à la lecture d'une vidéo. Une telle application peut être intégrée à une autre application à l'aide d'outils logiciels connus (plugins, API, etc.). Cette application peut également être appelée par une autre application (instruction de lancement de l'application de lecture de vidéo par une application spécifique à un réseau social par exemple).
Dans un mode de réalisation, l'application est lancée sur réception (et éventuellement confirmation par l'utilisateur) d'un message de notification reçu d'un objet connecté. Par exemple, sur détection d'une instruction de l'utilisateur d'un décodeur TV, le décodeur peut sélectionner un extrait, appelé « contenu vidéo » ou « vidéo » dans la suite de la description, du signal vidéo consulté par l'utilisateur (typiquement au plus 2 min du signal diffusé par une chaîne de télévision) et le transmettre (éventuellement via le boitier, « box », de terminaison d'un opérateur) au smartphone de l'utilisateur. Une fois le contenu vidéo reçu par le smartphone, le smartphone peut informer l'utilisateur par une notification. Sur sélection de la notification, l'interface utilisateur graphique 2 décrite ci-après peut être affichée pour la mise en œuvre du procédé selon le premier aspect de l'invention, décrit en détail ci-après.
L'interface utilisateur graphique 2 comprend au moins deux parties, un lecteur de contenu vidéo 3 et un bandeau 4. Le lecteur de contenu vidéo 3 est apte à afficher une lecture du contenu vidéo. Le signal sonore lié au contenu vidéo peut être diffusé simultanément à la lecture du contenu vidéo. En variante, aucun signal sonore n'est diffusé. Un exemple de vidéo dans laquelle une voiture 5 se déplace sur une route est donné pour la suite de la description. Il est admis, dans la suite de la description, que la voiture se déplace de la gauche vers la droite et finit par s'arrêter à un feu de croisement au niveau d'une intersection.
Le bandeau 4 comprenant une pluralité fixe d'images (27 ; 28 ; 29 ; 30 ; 31) extraites du contenu vidéo, les images s 'étendant dans une direction parallèle au bandeau et dans un ordre chronologique. En particulier, dans un mode de réalisation, les images du bandeau s'étendent dans un ordre chronologique de la gauche vers la droite. De plus, dans un autre mode de réalisation, la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau. En variante, les images peuvent se superposer, au moins en partie, les unes aux autres afin de pouvoir représenter plus d'images sur un espace moindre.
Le bandeau 4 peut présenter différentes formes et être situé à différents endroits de l'interface graphique utilisateur, comme cela est décrit ci-après en référence aux figures 2 A à 2C.
La figure 2A illustre une interface utilisateur graphique dans laquelle le bandeau 4 est accolé à droite du lecteur vidéo 3. Le toucher de type glissement, effectué par un doigt 6 de l'utilisateur, et décrit ci-après en détail en référence aux figures 3A et 3B, peut ici parcourir le bandeau du haut vers le bas, par exemple en suivant l'ordre chronologique des images du bandeau. En effet, les images du bandeau s'étendent dans un ordre chronologique du haut vers le bas sur la figure 2A.
La figure 2B illustre le cas où le bandeau 4 est accolé en haut du lecteur vidéo 3. Dans cette situation, le toucher de type glissement peut être effectué également de la gauche vers la droite, en suivant un ordre chronologique des images.
La figure 2C représente quant à elle le cas où le bandeau 4 est de forme circulaire et est au moins partiellement incrusté au lecteur vidéo 3. Le toucher de type glissement peut ici parcourir le bandeau de manière circulaire, par exemple dans le sens horaire. Les images du bandeau peuvent dans ce cas s'étendre également dans un ordre chronologique dans le sens horaire. Comme indiqué ci-avant, dans ce cas, le toucher de type glissement s'étendant dans une direction parallèle au bandeau s'entend d'un toucher suivant l'ordre chronologique du bandeau, c'est-à-dire ici un mouvement circulaire dans le sens horaire. Ainsi, dans ce cas, il également possible de se référer à un toucher de type glissement s 'étendant dans une direction tangente au bandeau.
Les figures 3A et 3B illustrent le procédé de navigation dans le contenu vidéo.
Comme mentionné ci-avant, le procédé peut par exemple être mis en œuvre lorsque l'utilisateur reçoit une notification l'informant qu'un contenu vidéo extrait à partir d'un décodeur TV est disponible sur son smartphone. Lorsque l'utilisateur sélectionne (clic) sur la notification, il peut être redirigé vers l'interface utilisateur graphique.
Comme présenté par l'illustration 16, l'utilisateur visualisant l'interface utilisateur graphique commence à effectuer un toucher de type glissement au niveau du bandeau 4, dans une direction parallèle au bandeau (le bandeau étant ici de forme rectangulaire), dans le sens chronologique des images du bandeau (ici de la gauche vers la droite) avec son doigt 6. Ce toucher de type glissement est alors détecté à une étape 7 par un microcontrôleur, décrit ci-après en référence à la figure 4. Les mécanismes intervenant dans cette détection sont connus de l'homme du métier, la durée et le nombre d'entrées utilisateur (points d'entrée détectés par l'écran tactile) utilisés pour la détection pouvant notamment être très faible. De plus, la détection peut comporter un taux d'erreur acceptable pour traiter des cas où le doigt de l'utilisateur dévie de la direction pour laquelle le toucher de type glissement doit être détecté.
Une fois le toucher de type glissement détecté, un affichage successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu à l'étape 8. Ceci est représenté par les illustrations 17 à 13. En effet, à mesure que le doigt 6 de l'utilisateur se déplace sur le bandeau, les images affichées par le lecteur vidéo correspondent aux images touchées par le doigt sur le bandeau. Par exemple, à l'illustration 18, le doigt sélectionne l'image 29 du bandeau, où la voiture est située un peu après le milieu de l'image. Cette image est alors affichée par le lecteur vidéo pour que l'utilisateur puisse visualiser correctement cette image au cours de son mouvement de toucher de type glissement.
Il est ici précisé que l'étape 8 de détection comme l'étape 9 d'affichage successif peuvent être effectuées pour un toucher de type glissement s 'étendant en suivant l'ordre chronologique des images mais aussi pour un toucher de type glissement s 'étendant en suivant tout type d'ordre autre que chronologique. Un toucher de type glissement s 'étendant dans un ordre anti-chronologique est par exemple possible, les images affichées par le lecteur vidéo correspondant toujours respectivement aux images touchées par le doigt de l'utilisateur. Dans le cas du bandeau circulaire, le toucher peut également passer d'une première image du bandeau à une deuxième image du bandeau bien que d'autres images, intercalaires d'un point de vue chronologique, soit situées entre la première et deuxième image (passage par l'intérieur du cercle, via un diamètre du cercle par exemple). Des combinaisons de différents touchers sont également possibles, dans la mesure où un affichage successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement est prévu.
Ensuite, une étape de détection d'une interruption du toucher, comprenant les sous-étapes de détection d'un arrêt du glissement 10 et de confirmation d'interruption de toucher 11, est mise en œuvre.
A la sous-étape 10, le microcontrôleur détecte que l'utilisateur stoppe son mouvement de glissement, sans toutefois relever le doigt de l'écran tactile. Ainsi, à l'illustration 14, le doigt n'est plus en mouvement et est arrêté sur l'image 30.
A la sous-étape 11, un test est effectué pour vérifier que l'utilisateur souhaite bien notifier le smartphone d'une interruption du toucher de type glissement. Cette confirmation peut prendre la forme d'un lever du doigt 6 (séparation physique entre l'écran tactile et l'utilisateur) ou tout autre type d'interaction de l'utilisateur avec le smartphone (confirmation par la voix, par un clic sur une fenêtre pop-up, etc.). Une demande de confirmation peut être affichée à l'écran par le smartphone, par exemple via l'affichage d'une notification indiquant : « si vous souhaitez confirmer l'arrêt du toucher de type glissement, vous pouvez simplement relever votre doigt de l'écran ».
Si l'interruption du toucher n'est pas confirmée, le procédé peut reprendre à l'étape 9 et l'utilisateur peut continuer son toucher de type glissement pour reprendre l'affichage successif des images par le lecteur vidéo, par exemple dans un autre sens (sens anti-chronologique pour retourner à une image précédemment touchée).
Si l'interruption du toucher est confirmée, une lecture du contenu vidéo par le lecteur vidéo à partir de la dernière image (image 30 ici) affichée par le lecteur vidéo, correspondant à une dernière image (image 30 ici) touchée lors du mouvement de glissement est mise en œuvre à l'étape 12.
Sur détection d'une confirmation de l'interruption du toucher, plusieurs actions peuvent être mises en œuvre à l'étape 12. Dans un mode de réalisation, le contenu vidéo est alors simplement lu par le lecteur à partir de la dernière image (image 30 ici) affichée par ce lecteur. Dans un autre mode de réalisation, une extraction d'un extrait du contenu vidéo est effectuée. L'extrait peut alors débuter par la dernière image affichée par le lecteur vidéo (image 30 ici) et finir par la fin du contenu vidéo. En variante, l'extrait peut débuter par la dernière image affichée par le lecteur vidéo et présenter une durée prédéterminée (par exemple 15 secondes). Cet extrait peut ensuite être partagé par exemple via un réseau social ou via un plugin permettant de transmettre l'extrait par un email. D'autres actions sont envisageables à l'étape 12, comme par exemple l'affichage de métadonnées relatives à la vidéo, l'ouverture d'une fenêtre de contrôle de la vidéo (fonctions lecture, avance rapide, chapitre suivant, etc.), etc. En variante, l'étape 12 de lecture/extraction/autres peut être mise en œuvre dès qu'un arrêt du toucher de type glissement est détecté, sans qu'une confirmation n'ait à intervenir.
Le détail d'un microcontrôleur 19, compris dans le dispositif électronique 1, notamment, à partir duquel les étapes sont mise en œuvre les étapes du procédé décrit en référence aux figures 3A et 3B, notamment, est ici décrit en référence à la figure 4.
Ce microcontrôleur 19 peut prendre la forme d'un boîtier comprenant des circuits imprimé, de tout type d'ordinateur ou de tout type de sous-partie du dispositif électronique 1.
Le microcontrôleur 19 comprend une mémoire vive 23 pour stocker des instructions pour la mise en œuvre par un processeur 22 des étapes du procédé décrit en référence aux figures 3A et 3B, notamment. Le dispositif comporte aussi une mémoire de masse 24 pour le stockage de données destinées à être conservées après la mise en œuvre du procédé.
Le microcontrôleur 19 peut en outre comporter un processeur de signal numérique (DSP) 21. Ce DSP 21 reçoit par exemple la vidéo pour mettre en forme, démoduler et amplifier, de façon connue en soi cette vidéo.
Le microcontrôleur 19 comporte également une interface d'entrée 20 pour la réception de données telles que la vidéo, les signaux d'entrée reçus de l'écran tactile, des paramètres de fonctionnement, etc. Le microcontrôleur 19 comporte en outre une interface de sortie 25 notamment pour la transmission de données d'affichage à destination de l'écran tactile.
La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemples ; elle s'étend à d'autres variantes.
Ainsi, on a décrit ci-avant un mode de réalisation dans lequel le toucher de type glissement étant effectué par un doigt de l'utilisateur. Ce toucher de type glissement peut également être effectué à partir de plusieurs doigts, d'un stylet ou de tout type de dispositif de pointage sur l'écran tactile. En outre, le toucher de type glissement peut être détecté et traité par le procédé décrit ci- avant pour un mouvement effectué à proximité de l'écran tactile. L'invention est en effet directement applicable aux techniques de détection de mouvement (par exemple via une pluralité de caméra) où le toucher de type glissement peut typiquement correspondre à un mouvement rectiligne d'une main et la confirmation à une action de retrait de la main.
En outre, on a décrit ci-avant un mode de réalisation dans lequel le toucher de type glissement correspondait à un mouvement rectiligne. Le toucher de type glissement peut toutefois correspondre à tout type de mouvement et ainsi comprendre des ondulations ou des lignes brisées par exemple.

Claims

Revendications
1. Procédé de navigation dans un contenu vidéo, la navigation s' effectuant à partir d'une interface utilisateur graphique (2) affichée par un écran tactile, l'interface utilisateur comprenant :
· un lecteur vidéo (3) apte à restituer le contenu vidéo ;
• un bandeau (4) comprenant une pluralité fixe d'images (27 ; 28 ; 29 ; 30 ; 31) extraites du contenu vidéo, les images s 'étendant dans une direction parallèle au bandeau et dans un ordre chronologique ;
le procédé comportant les étapes de :
- détection (8) d'un toucher de l'écran tactile par l'utilisateur au niveau du bandeau, le toucher étant de type glissement s 'étendant dans la direction parallèle au bandeau ;
- sur détection du toucher, affichage (9) successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ;
- sur détection (10) d'une interruption du toucher, lecture (12) du contenu vidéo par le lecteur vidéo à partir d'une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
2. Procédé selon la revendication 1, dans lequel le toucher de type glissement est détecté s'il s'étend dans un sens suivant l'ordre chronologique des images comprises dans le bandeau.
3. Procédé selon l'une des revendications précédentes, dans lequel les images du bandeau s'étendent dans un ordre chronologique de la gauche vers la droite.
4. Procédé selon l'une des revendications précédentes, dans lequel le contenu vidéo a une durée inférieure ou égale à deux minutes.
5. Procédé selon l'une des revendications précédentes, dans lequel la taille des images comprises sur le bandeau est définie pour que lesdites images puissent être affichées côtes à côtes dans le bandeau.
6. Procédé selon l'une des revendications précédentes, dans lequel le bandeau (4) présente l'une au moins des caractéristiques suivantes :
• le bandeau présente une forme rectangulaire ;
• le bandeau présente une forme carrée ;
· le bandeau présente une forme circulaire ;
• le bandeau est situé sous le lecteur de contenu vidéo ;
• le bandeau est situé sur le lecteur de contenu vidéo ;
• le bandeau est situé à droite du lecteur de contenu vidéo ;
• le bandeau est situé à gauche du lecteur de contenu vidéo ;
· le bandeau est incrusté dans le lecteur de contenu vidéo ;
• le bandeau est accolé au lecteur de contenu vidéo.
7. Procédé selon l'une des revendications précédentes, dans lequel la navigation est effectuée par un utilisateur d'un dispositif électronique, l'écran tactile étant compris sur le dispositif électronique (1),
et dans lequel l'interruption du toucher correspond à une séparation entre l'écran tactile et l'utilisateur.
8. Procédé selon l'une des revendications 1 à 6, dans lequel l'interruption du toucher correspond à un arrêt du glissement.
9. Procédé selon l'une des revendications précédentes, dans lequel le procédé comporte en outre l'étape :
- sur détection (11) d'une confirmation d'interruption de toucher, extraction (12) d'un extrait du contenu vidéo, l'extrait débutant par la dernière image affichée par le lecteur vidéo et finissant par la fin du contenu vidéo.
10. Procédé selon l'une des revendications 1 à 8, dans lequel le procédé comporte en outre l'étape :
- sur détection (11) d'une confirmation d'interruption de toucher, extraction (12) d'un extrait du contenu vidéo, l'extrait débutant par la dernière image affichée par le lecteur vidéo et présentant une durée prédéterminée.
11. Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l'une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur (22).
12. Dispositif électronique (1) apte à lire un contenu vidéo, le dispositif comportant :
- un écran tactile (26) ;
-un microcontrôleur (19) agencé pour effectuer les étapes suivantes :
• affichage sur l'écran tactile d'une interface utilisateur graphique comprenant un lecteur vidéo apte à restituer le contenu vidéo et un bandeau comprenant une pluralité fixe d'images extraites du contenu vidéo, les images s 'étendant dans une direction parallèle au bandeau et dans un ordre chronologique ;
• détection d'un toucher de l'écran tactile par l'utilisateur au niveau du bandeau, le toucher étant de type glissement s 'étendant dans la direction parallèle au bandeau ;
• sur détection du toucher, affichage successif, par le lecteur vidéo, d'images correspondant respectivement aux images du bandeau successivement touchées lors du mouvement de glissement ;
• sur détection d'une interruption du toucher, lecture du contenu vidéo par le lecteur vidéo à partir d'une dernière image affichée par le lecteur vidéo, correspondant à une dernière image touchée lors du mouvement de glissement.
PCT/FR2016/053129 2015-12-11 2016-11-29 Navigation directe dans un extrait vidéo WO2017098111A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/061,188 US11089374B2 (en) 2015-12-11 2016-11-29 Direct navigation in a video clip
EP16815614.9A EP3387520A1 (fr) 2015-12-11 2016-11-29 Navigation directe dans un extrait vidéo

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1562256 2015-12-11
FR1562256A FR3045178A1 (fr) 2015-12-11 2015-12-11 Navigation directe dans un extrait video

Publications (1)

Publication Number Publication Date
WO2017098111A1 true WO2017098111A1 (fr) 2017-06-15

Family

ID=55300650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2016/053129 WO2017098111A1 (fr) 2015-12-11 2016-11-29 Navigation directe dans un extrait vidéo

Country Status (4)

Country Link
US (1) US11089374B2 (fr)
EP (1) EP3387520A1 (fr)
FR (1) FR3045178A1 (fr)
WO (1) WO2017098111A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3084185A1 (fr) * 2018-07-19 2020-01-24 Wiko Dispositif electronique et procede pour generer une interface utilisateur graphique avec un arriere-plan dynamique

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD905096S1 (en) 2019-03-04 2020-12-15 Nationwide Mutual Insurance Company Display screen with animated graphical user interface
USD950583S1 (en) 2020-12-16 2022-05-03 Nationwide Mutual Insurance Company Display screen with animated graphical user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100231534A1 (en) * 2009-03-16 2010-09-16 Imran Chaudhri Device, Method, and Graphical User Interface for Moving a Current Position in Content at a Variable Scrubbing Rate
US20110275416A1 (en) * 2010-05-06 2011-11-10 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20120166950A1 (en) * 2010-12-22 2012-06-28 Google Inc. Video Player with Assisted Seek
US20150121225A1 (en) * 2013-10-25 2015-04-30 Verizon Patent And Licensing Inc. Method and System for Navigating Video to an Instant Time

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129641B2 (en) * 2010-10-15 2015-09-08 Afterlive.tv Inc Method and system for media selection and sharing
EP2690879B1 (fr) * 2012-07-23 2016-09-07 LG Electronics, Inc. Terminal mobile et son procédé de commande
US10620810B2 (en) * 2015-05-15 2020-04-14 Spotify Ab Method and a system for performing scrubbing in a video stream
US10871868B2 (en) * 2015-06-05 2020-12-22 Apple Inc. Synchronized content scrubber

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100231534A1 (en) * 2009-03-16 2010-09-16 Imran Chaudhri Device, Method, and Graphical User Interface for Moving a Current Position in Content at a Variable Scrubbing Rate
US20110275416A1 (en) * 2010-05-06 2011-11-10 Lg Electronics Inc. Mobile terminal and method for controlling the same
US20120166950A1 (en) * 2010-12-22 2012-06-28 Google Inc. Video Player with Assisted Seek
US20150121225A1 (en) * 2013-10-25 2015-04-30 Verizon Patent And Licensing Inc. Method and System for Navigating Video to an Instant Time

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "iPad", 26 February 2013 (2013-02-26), XP055295850, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=IPad&oldid=540780732> [retrieved on 20160817] *
APPLE: "IOS 6.1 pour IPAD 4", SOFTWARE, 26 February 2013 (2013-02-26) *
GUY HART-DAVIS: "Teach Yourself VISUALLY (Tech) : Teach Yourself VISUALLY iPad 4th Generation and iPad mini (1)", 28 February 2013 (2013-02-28), pages 288 - 289, XP055295638, ISBN: 978-1-118-59632-6, Retrieved from the Internet <URL:http://site.ebrary.com/lib/epo/detail.action?docID=10657594&p00=teach+yourself+visually+ipad+4> [retrieved on 20160816] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3084185A1 (fr) * 2018-07-19 2020-01-24 Wiko Dispositif electronique et procede pour generer une interface utilisateur graphique avec un arriere-plan dynamique

Also Published As

Publication number Publication date
EP3387520A1 (fr) 2018-10-17
US11089374B2 (en) 2021-08-10
FR3045178A1 (fr) 2017-06-16
US20180367858A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US11816303B2 (en) Device, method, and graphical user interface for navigating media content
US20230022781A1 (en) User interfaces for viewing and accessing content on an electronic device
AU2017101630A4 (en) User interfaces for browsing content from multiple content applications on an electronic device
AU2022275490A1 (en) User interfaces for browsing content from multiple content applications on an electronic device
US20180160075A1 (en) Automatic Camera Selection
US10972682B1 (en) System and method for adding virtual audio stickers to videos
WO2012162895A1 (fr) Gestes permettant de sélectionner un texte
US9749585B2 (en) Highlighting unread messages
EP2778885A1 (fr) Procédé de traitement d&#39;un geste composé, dispositif et terminal d&#39;utilisateur associés
WO2017098111A1 (fr) Navigation directe dans un extrait vidéo
EP3249935A1 (fr) Barre de navigation dans une pluralité de contenu videos
EP2634683B1 (fr) Procédé de navigation au sein d&#39;un contenu affichable à l&#39;aide de commandes de navigation, dispositif de navigation et programme associé
US20240045572A1 (en) Device, method, and graphical user interface for navigating media content
FR3074938A1 (fr) Procede d&#39;interaction avec un sous-titre affiche sur un ecran de television, dispositif, produit-programme d&#39;ordinateur et support d&#39;enregistrement pour la mise en œuvre d&#39;un tel procede
AU2016101667A4 (en) Device, method, and graphical user interface for navigating media content
WO2015082817A1 (fr) Procédé de commande de l&#39;interaction avec un écran tactile et équipement mettant en oeuvre ce procédé
EP2466443A1 (fr) Traitement de données d&#39;interface graphique perfectionné.
FR2984545A1 (fr) Procede de navigation au sein d&#39;un contenu affichable a l&#39;aide de commandes de navigation, dispositif de navigation et programme associe
AU2017200632A1 (en) Device, method and, graphical user interface for navigating media content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16815614

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016815614

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016815614

Country of ref document: EP

Effective date: 20180711