WO2020245098A1 - Procede de commande d'un equipement informatique - Google Patents

Procede de commande d'un equipement informatique Download PDF

Info

Publication number
WO2020245098A1
WO2020245098A1 PCT/EP2020/065165 EP2020065165W WO2020245098A1 WO 2020245098 A1 WO2020245098 A1 WO 2020245098A1 EP 2020065165 W EP2020065165 W EP 2020065165W WO 2020245098 A1 WO2020245098 A1 WO 2020245098A1
Authority
WO
WIPO (PCT)
Prior art keywords
selection
states
page
gesture
user interface
Prior art date
Application number
PCT/EP2020/065165
Other languages
English (en)
Inventor
Xavier LELEU
Antoine BROUCHET
Original Assignee
Orange
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange filed Critical Orange
Publication of WO2020245098A1 publication Critical patent/WO2020245098A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to the field of navigation within a menu on computer equipment.
  • Screen reading software is known today intended for blind or severely visually impaired or even illiterate people. Mention will be made in particular of VoiceOver, developed by the company "Apple ® " and integrated into the operating systems iOS and MacOSX. This software reads by voice synthesis what is displayed on the screen of a computer equipment such as a computer or a mobile terminal and makes it possible to interact with these by means of a certain number of predetermined commands.
  • buttons located at the bottom of the screen (to symbolize the main directions), and buttons at the top of the screen. screen (to determine directional sub-branches of the tab selected at the bottom of the screen).
  • the difficulty is that the buttons are different for each tab, and the screen reader describes only the buttons displayed.
  • Figures 2a, 2b show two examples of such an application interface in which we see four tabs at the bottom (movie, VOD, radio, review), one of which is selected (the first Movie tab for figure 2a, the third Radio tab for figure 2b), the latter being associated with three / two buttons (rooms, outputs, archives for figure 2a, live, podcast for figure 2b) at the top of the screen. If another tab is selected by the user, the buttons at the top are replaced by those of the new tab (eg rent, buy for VOD).
  • the user of a screen reader very often visually impaired, must therefore memorize all the menu items scattered on the screen and establish an overview in order to be able to navigate within an application. In addition, besides navigation, the user currently cannot quickly know where they are and where they can go, unless they have to explore and remember. This really destroys the desired ergonomics within a user journey.
  • the present invention thus relates to a method for controlling computer equipment comprising a graphical user interface, the method being characterized in that it comprises the implementation by a step data processing module. from:
  • said graphical interface is a touch screen, said first and second gestures being touch gestures (this is a type of interface very suitable for virtual keyboards and various gestures, further facilitating input in reading mode of 'screen);
  • the first gesture is a sliding touch and the second gesture is a double touch (such gestures are particularly intuitive);
  • step (b) comprising the voice description on the audio output of an action implemented following the detection of a first or second gesture (the audio description allows a user who is, if necessary, completely blind to know exactly what is happening on the screen and to implement the present method without difficulty);
  • the method comprises a step (a) of selecting as the current page of a default page of said set, step (a) comprising the voice description on the audio output of said list of possible combinations of states of said selection zones (Describing the list of possible state combinations in advance allows the user to know the whole menu and to save time. He has nothing to search for, and can navigate directly to the page of his choice) ;
  • the combinations of said list of possible combinations of states of said selection zones are numbered, the voice description on the audio output of an action implemented following the detection of a first or second gesture comprising the reading of the number of the current combination (there can be a large number of combinations, the fact of numbering them offers the user a simple mnemonic means to identify and find the combination corresponding to the page he wishes to select);
  • the plurality of selection areas comprises at least a first selection area and a second selection area, the first selection area having a hierarchical level higher than the second selection area;
  • the invention relates to computer equipment comprising a data processing module and a graphical user interface, characterized in that the data processing module is configured for, for a current page of a set of navigable pages as a function of navigation actions on a plurality of selection areas of said pages via said graphical user interface, each page being associated with a unique combination of states of the selection areas:
  • the invention relates to a computer program product comprising code instructions for the execution of a method according to the first aspect of controlling computer equipment, when said program is executed by a computer.
  • computer and computer equipment readable storage means on which a computer program product includes code instructions for performing a method according to the first aspect of controlling computer equipment.
  • FIG. 1 is a diagram of a general network architecture for implementing the invention
  • FIG. 2a shows an example of a set of linked pages
  • FIG. 2b shows an example of a set of linked pages
  • FIG. 3 is a flowchart illustrating the implementation of a particular embodiment of the proposed method.
  • the invention proposes a method of controlling computer equipment 1, aiming in particular at navigation within a set of linked pages, typically the different pages of a menu of an application , as we will see later.
  • Said method is therefore preferably implemented directly within any application having a menu, for example a multimedia content management application as can be seen in FIGS. 2a, 2b, and as such a corresponding service can be implemented by a remote server 2 via said menu, to which the computer equipment 1 can be connected by a network 20 such as the Internet network.
  • the present method can be implemented directly by the operating system of said computer equipment 1 (for example for a settings menu).
  • the computer equipment 1 can be of any type, in particular a mobile terminal of the smartphone or touch pad type, but also a personal computer, a public terminal, etc. It comprises a data processing module 1 1 (a processor), advantageously a data storage module 12 (a memory), and a graphical user interface 13 (HMI) comprising for example input means and display means .
  • a data processing module 1 1 a processor
  • a data storage module 12 a memory
  • a graphical user interface 13 comprising for example input means and display means .
  • the graphical user interface 13 is a touch screen (which combines the input and display functions), but it could quite well be an ordinary screen coupled to a pointing device such as a computer. mouse or trackpad, and / or keyboard.
  • the terminal 1 can also include an audio output 14, which can be both a physical output (integrated speaker, headphone socket, etc.) and a virtual output (for example a wireless connection, in particular Bluetooth. , with an audio device such as a speaker connected).
  • an audio output 14 can be both a physical output (integrated speaker, headphone socket, etc.) and a virtual output (for example a wireless connection, in particular Bluetooth. , with an audio device such as a speaker connected).
  • the present method is preferably intended to be implemented in a screen reading mode (often presented as an "accessible mode for the visually impaired"), i.e. while screen reader software is activated.
  • the present method can make it possible to control the computer equipment 1 in a complementary or alternative manner to a “conventional” or “ordinary” control mode (see below), ie the implementation of the reading mode of screen can if necessary deactivate said conventional control mode.
  • the screen reader software can be integrated into the operating system OS of the computer equipment 1.
  • this application can call up the screen reading software of the OS and / or implement its own reading software. 'screen.
  • the OS's screen reader software might be called up only to vocalize items indicated by the dedicated application.
  • an audio output 14 is particularly suitable in the event of the implementation of a screen reader software, insofar as such software emits sound messages on the audio output 14.
  • said set of pages typically constitutes what is generally referred to as an application menu. It is assumed that all pages are linked by possible transitions, that is, the passage from one page to another according to a navigation action.
  • page By page is meant a "screen”, that is to say a view intended to be displayed by the graphical user interface 13 of the equipment 1.
  • a page of the set is said to be “current” when it is the currently active page, that is to say the one for which navigation actions via the interface 13 are possible, the current page being intended to be displayed. via interface 13 (see below).
  • a transition following a navigation action causes a change of current page, and it can thus be assumed that for a given current page there is a subset of said set formed of the pages to which a transition is possible.
  • the application of a navigation action consists in selecting, according to this navigation action, the new current page in this subset.
  • each page does not have a unique appearance (it can include areas that can change dynamically, for example a central scrolling area and display of contents, buttons, etc.), but at least has a predefined template and so-called “selection” areas in a given state.
  • the selection areas correspond to areas common to all the pages of the set which can take several states, and thanks to which navigation actions between pages can be applied.
  • changing the state of a selection area causes a navigation action, i.e. the transition from one page to another, which has the effect of changing the current page as explained.
  • the selection areas can be of a varied nature, in particular selection bars (showing several alternative tabs) as in figures 2a and 2b, but also wheels (selecting the area opens a pop-up allowing to choose between the possible states), scroll bars, virtual keyboard, etc.
  • each page is associated with a unique combination of states selection areas, advantageously a combination of states of each of the selection areas.
  • Each page can also be associated with a meaningful “name”, for example “Cinemas”, for a combination (Movie, Theaters), see below.
  • the first and the second selection area are not hierarchical, which means that all the pages are at the same level.
  • the set of pages constitutes a "matrix", that is, if the first zone has N possible states and the second zone has M possible states, there are NxM pages in the set.
  • the first and the second selection area are hierarchical, and the first area will be arbitrarily designated as the main area and the second area as the secondary area. Then, in such a case, the first zone always has a determined number of states N, but the second zone has a number of states Mi, with 0 ⁇ i ⁇ N, which depends on the current state i of the first zoned.
  • the second zone presents the following possible states:
  • Figure 2a is designated by the couple (0; 0) and Figure 2b by the couple (2; 0), that is to say respectively (Film, Theater) and (Radio, Live).
  • each page of the set can be designate as a unique combination of states of the selection areas.
  • the pages include other active zones (ie which can be the object of an action on the part of the user) which are not selection zones, for example a button to go back.
  • Any dynamic parts of the page can also include active areas, for example activating links.
  • the method begins with a step (a) of selecting as the current page of a default page of said set, generally when the application is opened, for example the page (0; 0).
  • This step can be seen as an initialization step. Note that it remains optional because some applications memorize the last current page, so that the process can be repeated from there without selecting a new one.
  • the current page can be displayed by the graphical interface 13 of the virtual keyboard with a view to the application of navigation actions, but as will be seen later, the display functions of the graphical user interface 13 may possibly be deactivated for various reasons, without this changing anything in the present process.
  • the user performs a navigation action on one of the selection zones, for example by touching (in the case of a touchscreen interface) a sub-zone or by moving a corresponding pointer (mouse for example) therein. to a possible choice.
  • the display functions of the graphical user interface 13 can be deactivated, this is called the “black screen” mode.
  • the screen In the mode of embodiment in which the graphical user interface 13 is a touch screen, the screen is quite simply inactive, the touch screen itself functioning normally.
  • the computer equipment 1 In the embodiment in which the computer equipment 1 is a computer, the screen / monitor is turned off but the pointing device and the keyboard are working.
  • the black screen mode can either be the consequence of a security option in which the display is interrupted to avoid the eyes of third parties who are not visually impaired (we can also possibly provide that the screen reading mode activates this black screen mode), or a simple desire to save the battery. Indeed, it changes absolutely nothing for a blind user.
  • the user navigates by making selections in the selection areas (for example by pressing certain sub-areas) corresponding to the transitions he wants.
  • the present method cleverly proposes to present the set of selection zones vocally as a single block within which a plurality of navigation actions are available.
  • the various selection zones i.e. navigation actions by selecting a new state from the first zone, plus distinct navigation actions by selection of a new state of the first zone, etc.
  • a list of possible combinations of states of said selection areas is defined.
  • the list contains all the possible combinations of states of said selection areas, i.e. makes it possible to select any page of the set.
  • Such a list can be defined once and for all.
  • the list of possible combinations of states of said selection zones contains only the combinations associated with a page directly "reachable" from the current page, ie the list contains all the combinations associated with a page of the sub-set formed of the pages to which a transition is possible, as defined above.
  • the list of possible state combinations for the current page (Movie, Room) only contains (Film, Room), (Film, Release), (Film, Archives), (VOD, Rent), (Radio, Live), (Reviews, Reviews).
  • the 2 nd and 3 rd correspond to a navigation action via the second zone alone, and the 4 th and 5 th correspond to a navigation action via the first zone alone. Note that such a list depends on the current page therefore:
  • this list is for example ordered to facilitate its reading, in particular according to the hierarchy of the selection areas (which is the case in the two examples above).
  • any ordering that carries logic for the user for example, order the pages in alphabetical order by their name.
  • the states of a current combination of the list are then defined as those of the next page which will be selected as the current page if the selection “block” is requested, the current combination preferably being initialized like that of the states of the current page, or the first combination in the list.
  • This list can be seen as a list of possible navigation actions linked to all the selection areas, the action associated with a combination of the list being virtually the fact of carrying out a navigation action on one or more areas. selection according to the states of the selection zones corresponding to this combination. For example, from the current page (Movie, Room), a selection to the page (Movie, Release) corresponds to a navigation action via the second selection area alone, and a selection to the page (Radio, Podcast) corresponds to a navigation action via the first selection zone then a navigation action via the second zone.
  • the list may additionally include a menu exit item, the selection of which results in the exit of said set of pages, and the return for example to an external page (for example the opening page of the application).
  • step (a) comprises the voice description on the audio output 14 of said list of possible combinations of states of said selection zones, in a conventional manner for a screen reader: the latter will only read all the possible combinations of states of said selection areas at once, and not just the possible states, selection area by selection area, independently. Note that the reading of a combination preferably includes:
  • step (b) the user uses the list to navigate, iteratively: the user can go from one page to another repeatedly.
  • step (b) is implemented as many times as the user may wish.
  • Two gestures can be performed on the graphical user interface 13, one (called the first gesture) making it possible to change the current combination, ie to scroll the list, with a view to a selection and the other (called the second gesture) making it possible to validate the current combination for selection as a new current page of said set of the page associated with said current combination of states of said selection areas. If the selected combination is associated with the current current page, we can predict that nothing is happening and / or inform the user.
  • gestures may also be a third gesture dedicated to exiting the set of pages (if there is a gesture for this action, the list does not have to include a corresponding element, and where appropriate, the list can only contain combinations of states). These gestures do not exclude the possibility of still other gestures such as a default gesture from screen reading mode to read an area, or a gesture to undo all input and exit.
  • gesture is meant a characteristic movement performed by the user depending on the nature of the graphical user interface 13.
  • said first and second gestures are gestures of touching, with the finger or a stylus for example.
  • the "default" gesture of screen reading mode for reading an area can be a single touch, ie brief and without movement, and the first and second gestures can be different touches such as a sliding touch for it.
  • first gesture in English “swipe", that is to say a displacement during the duration of the touch
  • a double touch or a long touch for a duration greater than a given threshold making it possible to differentiate a single touch from a long touch
  • the gestures may be movements of the pointer or the pressing of certain buttons.
  • the "default" gesture of the screen reading mode to read an area can be a left click
  • the first and second gestures can be other actions such as a rotation of a wheel for the first gesture. (in English "scrolling"), and a touch click or a left click for the second gesture.
  • first gestures there can be several first gestures, corresponding for example to two directions of browsing of the list (ie two different first gestures).
  • a touch swipe up can scroll the list in a direction such as ascending if ordered (the current combination goes from (0; 0) to (0; 1), to (0; 2), etc.)
  • a touch slid down (“swipe down") can scroll the list in the other direction such as the decreasing direction if it is ordered (the current element goes from (0; 2) to (0; 1), to (0; 0), etc.).
  • the dial for example.
  • the list can loop: if the current combination is the last combination and we continue to do the first gesture, we return to the first combination of the list (for example a swipe up changes from (3; 0 ), to "erase", to (0; 0), to (0; 1), etc.).
  • each detection of a first or second gesture can be accompanied by the voice description on the audio output 14 of the action implemented following this detection.
  • a change of current element of the list can be accompanied by a voice description on the audio output 14 of the new current element (typically, its value is simply spoken), the selection as the new current page of said element.
  • the entire page associated with the current combination can be accompanied by a description of this selection, again on the basis of the name of the new current page and / or of the number of the combination (if for example the current combination is ( Radio; Podcast), then can be pronounced “selection: delayed radio - 7 of 8”).
  • the invention relates to the computer equipment 1 for implementing the method according to the first aspect.
  • this computer equipment 1 comprises a data processing module 11 and a graphical user interface 13. This is for example a touch screen.
  • the computer equipment 1 can further include an audio output 14, a data storage module 12, a communication module, configured to be connected to a remote server 2, etc.
  • the data processing module 11 is thus configured for:
  • a default page as the current page of a set of navigable pages as a function of navigation actions on a plurality of areas for selecting said pages via said graphical user interface 13, each page being associated with a unique combination of states areas of selection; for a current page of said set:
  • the invention relates to a computer program product comprising code instructions for the execution (in particular on the data processing module 1 1 of the computer equipment 1) of a method according to the first aspect of the invention for controlling computer equipment 1, as well as storage means readable by computer equipment (the data storage module 12 of the computer equipment 1) on which this program product is found computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

La présente invention concerne un procédé de commande d'un équipement informatique (1) comprenant une interface utilisateur graphique (13), le procédé étant caractérisé en ce qu'il comprend la mise en œuvre par un module de traitement de données (11) d'étapes de : (b) Pour une page courante d'un ensemble de pages navigable en fonction d'actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique (13), chaque page étant associée à une combinaison unique d'états des zones de sélection : - Si détection d'un premier geste effectué par l'utilisateur sur l'interface graphique utilisateur (13), changement d'une combinaison courante d'une liste de combinaisons possibles d'états desdites zones de sélection; - Si détection d'un deuxième geste, différent du premier geste, effectué par l'utilisateur sur l'interface utilisateur (13), sélection comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d'états desdites zones de sélection.

Description

PROCEDE DE COMMANDE D’UN EQUIPEMENT INFORMATIQUE
DOMAINE TECHNIQUE GENERAL
La présente invention concerne le domaine de la navigation au sein d’un menu sur un équipement informatique.
Plus précisément, elle concerne un procédé de commande d’un tel équipement dans un mode de lecture d’écran.
ETAT DE L’ART
On connaît aujourd’hui des logiciels de lecture d’écran destinés aux personnes aveugles ou fortement malvoyantes ou bien encore illettrées. On citera en particulier VoiceOver, développé par la société « Apple® » et intégré aux systèmes d’exploitation iOS et MacOSX. Ces logiciels lisent par synthèse vocale ce qui est affiché sur l'écran d'un équipement informatique tel qu’un ordinateur ou d'un terminal mobile et permettent d’interagir avec ceux-ci au moyen d’un certain nombre de commandes prédéterminées.
On comprend, ainsi que lorsqu’un tel logiciel est activé, les commandes « ordinaires » ne sont plus forcément actives. On entend par « commande ordinaire » une gestuelle classique d’interaction de l’utilisateur avec son écran. Par exemple, sur un terminal mobile à interface tactile de type smartphone, normalement un « toucher » d’un objet le sélectionne (par exemple un toucher de l’icône d’une application la lance), mais lorsque le logiciel de lecture d’écran est activé, le même toucher simple d’un objet fait entendre à l’utilisateur sa description (par exemple le nom de l’application dont l’icône est touchée), et un toucher double ou long entraîne sa validation.
Ces mécanismes permettent ainsi techniquement à un utilisateur de piloter totalement son équipement sans utiliser l’écran.
On constate néanmoins une difficulté lors de l’utilisation de d’arborescences hiérarchisées, en particulier avec des boutons éparpillés sur l’écran.
Il est en effet très courant d’avoir des interfaces d’application présentant au moins deux niveaux hiérarchiques de menu, avec des barres d’onglets situées en bas d’écran (pour symboliser les directions principales), et des boutons en haut d’écran (pour déterminer des sous-branches directionnelles de l’onglet sélectionné en bas d’écran). La difficulté est que les boutons sont différents pour chaque onglet, et que le lecteur d’écran ne décrit que les boutons affichés.
Les figures 2a, 2b montrent deux exemples d’une telle interface d’application dans laquelle on voit quatre onglets en bas (film, VOD, radio, avis), dont un est sélectionné (le premier onglet Film pour la figure 2a, le troisième onglet Radio pour la figure 2b), ce dernier étant associé à trois/deux boutons (salles, sorties, archives pour la figure 2a, live, podcast pour la figure 2b) en haut d’écran. Si un autre onglet est sélectionné par l’utilisateur, les boutons en haut sont remplacés par ceux du nouvel onglet (par exemple louer, acheter pour VOD). L'utilisateur d’un lecteur d’écran, très souvent mal voyant, doit ainsi mémoriser tous les éléments du menu éparpillés sur l’écran et établir une vue d’ensemble afin de pouvoir naviguer au sein d’une application. De plus, outre la navigation, l’utilisateur ne peut actuellement pas savoir rapidement où il se trouve et où il peut aller, à moins d’un effort supplémentaire d’exploration et de mémorisation. Cela détruit véritablement l’ergonomie recherchée au sein d’un parcours utilisateur.
Il serait par conséquent souhaitable de disposer d’une nouvelle solution d’utilisation d’un menu par un logiciel de lecture d’écran qui soit plus simple et plus ergonomique, et ce quelle que soit la structure de l’arborescence.
PRESENTATION DE L’INVENTION
La présente invention se rapporte ainsi selon un premier aspect à un procédé de commande d’un équipement informatique comprenant une interface utilisateur graphique, le procédé étant caractérisé en ce qu’il comprend la mise en oeuvre par un module de traitement de données d’étapes de :
(b) Pour une page courante d’un ensemble de pages navigable en fonction d’actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique, chaque page étant associée à une combinaison unique d’états des zones de sélection :
- Si détection d’un premier geste effectué par l’utilisateur sur l’interface graphique utilisateur, changement d’une combinaison courante d’une liste de combinaisons possibles d’états desdites zones de sélection ;
- Si détection d’un deuxième geste, différent du premier geste, effectué par l’utilisateur sur l’interface utilisateur, sélection comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection. La liste de combinaison d’états possibles, manipulable avec seulement deux gestes, permet de se déplacer d’une page à une autre au sein d’un menu en mode de lecture d’écran, sans la difficulté de se souvenir de l’arborescence des boutons. Ainsi, la navigation est fortement facilitée pour les personnes malvoyantes.
Selon d’autres caractéristiques avantageuses et non-limitatives :
- ladite interface graphique est un écran tactile, lesdits premier et deuxièmes gestes étant des gestes de toucher (il s’agit d’un type d’interface très adaptée aux claviers virtuels et aux gestes variés, facilitant encore la saisie en mode de lecture d’écran) ;
- le premier geste est un toucher glissé et le deuxième geste est un toucher double (de tels gestes sont particulièrement intuitifs) ;
- l’équipement informatique comprend en outre une sortie audio, l’étape (b) comprenant la description vocale sur la sortie audio d’une action mise en oeuvre suite à la détection d’un premier ou deuxième geste (la description audio permet à un utilisateur le cas échéant complètement non-voyant de savoir exactement ce qu’il se passe à l’écran et de mettre en oeuvre sans difficulté le présent procédé) ;
- le procédé comprend une étape (a) de sélection comme page courante d’une page par défaut dudit ensemble, l’étape (a) comprenant la description vocale sur la sortie audio de ladite liste de combinaisons possibles d’états desdites zones de sélection (le fait de décrire à l’avance la liste de combinaison d’états possibles permet à l’utilisateur de connaître tout le menu et de gagner du temps. Il n’a ainsi rien à chercher, et peut naviguer directement vers la page de son choix) ;
- les combinaisons de ladite liste de combinaisons possibles d’états desdites zones de sélection sont numérotées, la description vocale sur la sortie audio d’une action mise en oeuvre suite à la détection d’un premier ou deuxième geste comprenant la lecture du numéro de la combinaison courante (il peut y avoir un grand nombre de combinaisons, le fait de les numéroter offre à l’utilisateur un moyen mnémotechnique simple pour identifier et retrouver la combinaison correspond à la page qu’il souhaite sélectionner) ;
- la pluralité de zones de sélection comprend au moins une première zone de sélection et une deuxième zone de sélection, la première zone de sélection présentant un niveau hiérarchique supérieur à la deuxième zone de sélection ;
- la première zone de sélection comprend un nombre d’états donné, et la deuxième zone de sélection comprend un nombre d’états fonction de l’état de la première zone de sélection (le présent procédé permet la gestion d’un menu arborescent tel qu’on le trouve dans la grande majorité des applications actuelles) ; Selon un deuxième aspect, l’invention concerne un équipement informatique comprenant un module de traitement de données et une interface utilisateur graphique, caractérisé en ce que le module de traitement de données est configuré pour, pour une page courante d’un ensemble de pages navigable en fonction d’actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique, chaque page étant associée à une combinaison unique d’états des zones de sélection :
- Soit détecter un premier geste effectué par l’utilisateur sur l’interface graphique utilisateur, et alors changer une combinaison courante d’une liste de combinaisons possibles d’états desdites zones de sélection ;
- Soit détecter un deuxième geste, différent du premier geste, effectué par l’utilisateur sur l’interface utilisateur, et alors sélectionner comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection.
Selon un troisième et un quatrième aspects, l’invention concerne un produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon le premier aspect de commande d’un équipement informatique, lorsque ledit programme est exécuté par un ordinateur ; et un moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon le premier aspect de commande d’un équipement informatique.
PRESENTATION DES FIGURES
D’autres caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description qui va suivre d’un mode de réalisation préférentiel. Cette description sera donnée en référence aux figures annexée :
- la figure 1 est un schéma d’une architecture générale de réseau pour la mise en oeuvre de l’invention ;
- la figure 2a représente un exemple d’un ensemble de pages liées ;
- la figure 2b représente un exemple d’un ensemble de pages liées ;
- la figure 3 est un organigramme illustrant la mise en oeuvre d’un mode de réalisation particulier du procédé proposé. DESCRIPTION DETAILLEE
Architecture
En référence à la figure 1 , l’invention propose un procédé de commande d’un équipement informatique 1 , visant en particulier à la navigation au sein d’un ensemble de pages liées, typiquement les différentes pages d’un menu d’une application, comme l’on verra plus loin. Ledit procédé est à ce titre préférentiellement mis en oeuvre directement au sein de toute application présentant un menu, par exemple une application de gestion de contenus multimédia comme l’on voit sur les figures 2a, 2b, et à ce titre un service correspondant peut être mis en oeuvre par un serveur distant 2 via ledit menu, auquel l’équipement informatique 1 peut être connecté par un réseau 20 tel que le réseau internet.
On comprendra qu’alternativement le présent procédé peut être mis en oeuvre directement par le système d’exploitation dudit équipement informatique 1 (par exemple pour un menu de réglages).
On comprendra que la présente invention n’est limitée à aucun contexte et aucune utilisation particulière, il suffit juste qu’une navigation entre pages soit nécessaire.
L’équipement informatique 1 peut être de n’importe quel type, en particulier un terminal mobile de type smartphone ou tablette tactile, mais également un ordinateur personnel, une borne publique, etc. Il comprend un module de traitement de données 1 1 (un processeur), avantageusement un module de stockage de données 12 (une mémoire), et une interface graphique utilisateur 13 (IHM) comprenant par exemple des moyens de saisie et des moyens d’affichage. De façon préférée l’interface graphique utilisateur 13 est un écran tactile (qui combine les fonctions de saisie et d’affichage), mais il pourra tout à fait s’agir d’un écran ordinaire couplé à un dispositif de pointage tel qu’une souris ou un trackpad, et/ou un clavier.
Avantageusement, le terminal 1 peut en outre comprendre une sortie audio 14, qui peut être aussi bien une sortie physique (haut-parleur intégré, prise casque, etc.) qu’une sortie virtuelle (par exemple une connexion sans-fil, notamment Bluetooth, avec un périphérique audio tel qu’une enceinte connectée). Ensemble de pages
Le présent procédé est préférentiellement destiné à être mis en œuvre dans un mode de lecture d’écran (souvent présenté comme un mode « d’accessibilité pour les personnes malvoyantes »), i.e. alors qu’un logiciel de lecture d’écran est activé.
A ce titre, le présent procédé peut permettre de commander l’équipement informatique 1 de façon complémentaire ou alternative à un mode de commande « classique » ou « ordinaire » (voir plus loin), i.e. la mise en œuvre du mode de lecture d’écran peut le cas échéant désactiver ledit mode de commande classique.
De façon générale le logiciel de lecture d’écran peut être intégré dans le système d’exploitation OS de l’équipement informatique 1 . Dans un tel cas, bien que le présent procédé puisse être mis en œuvre au sein d’une application dédiée, cette application peut appeler le logiciel de lecture d’écran de l’OS et/ou mettre en œuvre son propre logiciel de lecture d’écran. Par exemple, le logiciel de lecture d’écran de l’OS pourrait n’être appelé que pour vocaliser des éléments indiqués par l’application dédiée.
La présence d’une sortie audio 14 est particulièrement adaptée en cas de mise en œuvre d’un logiciel de lecture d’écran, dans la mesure où un tel logiciel émet des messages sonores sur la sortie audio 14.
Comme expliqué, ledit ensemble de pages constitue typiquement ce que l’on appelle généralement un menu de l’application. On suppose que toutes les pages sont liées par des transitions possibles, c’est-à-dire le passage d’une page à une autre en fonction d’une action de navigation.
Par page, on entend un « écran », c’est-à-dire une vue destinée à être affichée par l’interface utilisateur graphique 13 de l’équipement 1 . Une page de l’ensemble est dite « courante » quand c’est la page actuellement active, c’est-à-dire celle pour laquelle des actions de navigation via l’interface 13 sont possibles, la page courante étant destinée à être affichée par l’interface 13 (voir plus loin). Une transition suite à une action de navigation provoque un changement de page courante, et on peut ainsi supposer que pour une page courante donnée on a un sous-ensemble dudit ensemble formé des pages vers lesquelles une transition est possible. L’application d’une action de navigation consiste à sélectionner en fonction de cette action de navigation la nouvelle page courante dans ce sous-ensemble.
On comprendra que chaque page n’a pas d’apparence unique (elle peut comprendre des zones pouvant changer dynamiquement, par exemple une zone centrale de défilement et d’affichage de contenus, des boutons etc.), mais présente a minima un squelette prédéfini et des zones dites « de sélection » dans un état donné.
Plus précisément, les zones de sélection correspondent à des zones communes à toutes les pages de l’ensemble pouvant prendre plusieurs états, et grâce auxquelles des actions de navigation entre pages peuvent être appliquées. En d’autres termes, la modification de l’état d’une zone de sélection provoque une action de navigation, i.e. la transition d’une page à une autre, ce qui a pour effet de changer de page courante comme expliqué.
Les zones de sélection peuvent être de nature variée, en particulier des barres de sélection (affichant plusieurs onglets alternatifs) comme dans les figures 2a et 2b, mais également des roulettes (la sélection de la zone ouvre un pop-up permettant de choisir entre les états possibles), des barres de défilement, un clavier virtuel, etc.
Dans le présent cas, on a une pluralité de zones de sélection, i.e. au moins deux (on désignera une première zone de sélection et une deuxième zone de sélection par commodité), de sorte que chaque page est associée à une combinaison unique d’états des zones de sélection, avantageusement une combinaison d’états de chacune des zones de sélection. Chaque page peut également être associée à un « nom » porteur de sens, par exemple « Salles de Cinéma », pour une combinaison (Film, Salles), voir plus loin.
Selon un premier mode de réalisation, la première et la deuxième zone de sélection ne sont pas hiérarchisées, ce qui signifie que toutes les pages sont à un même niveau. Alors, l’ensemble de pages constitue une « matrice », c’est-à-dire que si la première zone a N états possibles et la deuxième zone a M états possibles, il y a NxM pages dans l’ensemble. Selon un deuxième mode de réalisation, la première et la deuxième zone de sélection sont hiérarchisées, et on désignera arbitrairement la première zone comme la zone principale et la deuxième zone comme la zone secondaire. Alors, dans un tel cas, la première zone a toujours un nombre d’états N déterminé, mais la deuxième zone a un nombre d’états Mi, avec 0 < i < N, qui dépend de l’état courant i de la première zone.
Dans l’exemple des figures 2a, 2b, on a une première zone principale qui correspond à la barre du bas, et une deuxième zone secondaire qui correspond à la barre du haut.
On voit que les états possibles de la barre du haut (deuxième zone) dépendent de l’état courant de la barre du bas (première zone).
Plus précisément, la première zone présente comme expliqué précédemment les états possibles suivants {Film ; VOD ; Radio ; Avis}, i.e. N=4.
La deuxième zone présente les états possibles suivants :
- si l’état de la première zone est Film (i=0) {Salles ; Sortie ; Archives}, i.e. M0=3 ;
- si l’état de la première zone est VOD (i=1 ) {Louer ; Acheter}, i.e. M1 =2 ; - si l’état de la première zone est Radio (i=2) {Live ; Podcast}, i.e. M2=2 ;
- si l’état de la première zone est Avis (i=3) {Avis}, i.e. M3=1 (on comprend qu’il n’y a pas plusieurs pages possibles dans le cas « Avis », ce qu’on traitera comme une deuxième zone de sélection à un seul état possible, même s’il n’y a pas à proprement parler de sélection possible).
On a donc au total Mo+M1+M2+M3=8 pages possibles, chacune définie par une combinaison d’états desdites zones de sélection. Si on note j l’état de la deuxième zone, cela correspond à un couple (i ; j).
Par exemple, la figure 2a est désignée par le couple (0 ; 0) et la figure 2b par le couple (2 ; 0), c’est-à-dire respectivement (Film, Salle) et (Radio, Live).
On comprendra qu’il peut tout à fait y avoir plus de deux niveaux, et dans tous les cas on pourra désigner chaque page de l’ensemble comme une combinaison unique d’états des zones de sélection.
On notera enfin qu’il est tout à fait possible que les pages comprennent d’autres zones actives (i.e. pouvant faire l’objet d’une action de la part de l’utilisateur) qui ne sont pas des zones de sélection, par exemple un bouton pour revenir en arrière. Les éventuelles parties dynamiques de la page peuvent également comprendre des zones actives, par exemple activant des liens.
Dans un mode de réalisation particulier, comme illustré à la figure 3, le procédé commence par une étape (a) de sélection comme page courante d’une page par défaut dudit ensemble, généralement à l’ouverture de l’application, par exemple la page (0 ; 0). Cette étape peut être vue comme une étape d’initialisation. On note qu’elle reste optionnelle car certaines applications mémorisent la dernière page courante, de sorte qu’on peut reprendre le procédé à partir de celle-ci sans en sélectionner une nouvelle.
La page courante peut être affichée par l’interface graphique 13 du clavier virtuel en vue de l’application d’actions de navigation, mais comme l’on verra plus loin, les fonctions d’affichage de l’interface graphique utilisateur 13 peuvent éventuellement être désactivées pour diverses raisons, sans que cela ne change rien au présent procédé.
Dans un mode de commande classique, l’utilisateur accomplit une action de navigation sur une des zones de sélection, par exemple en touchant (en cas d’interface tactile) une sous- zone ou en y déplaçant un pointeur (souris par exemple) correspondant à un choix possible.
Comme expliqué, les fonctions d’affichage de l’interface graphique utilisateur 13 peuvent être désactivées, c’est ce que l’on appelle le mode « écran noir ». Dans le mode de réalisation dans lequel l’interface graphique utilisateur 13 est un écran tactile, l’écran est tout simplement inactif, la dalle tactile fonctionnant elle normalement. Dans le mode de réalisation dans lequel l’équipement informatique 1 est un ordinateur, l’écran/moniteur est éteint mais le dispositif de pointage et le clavier fonctionnent.
Le mode écran noir peut être soit la conséquence d’une option de sécurité dans lequel l’affichage est interrompu pour éviter les regards de tiers qui eux ne sont pas malvoyants (on peut d’ailleurs éventuellement prévoir que le mode de lecture d’écran active ce mode écran noir), ou encore une simple volonté d’économiser la batterie. En effet, cela ne change absolument rien pour un utilisateur non-voyant.
Dans tous les cas, on comprendra que dans un tel mode écran noir, seul l’exécution de l’affichage n’est pas mise en oeuvre, les traitements mis en oeuvre par le module de traitement de données 1 1 (par exemple la sélection de la page courante) et la saisie restant inchangés : bien qu’elles ne soient pas visibles les zones de sélection sont toujours « présentes » et les actions de navigation sont toujours possibles (de la même manière qu’on peut toujours cliquer avec une souris sur un élément sans que l’écran allumé), bien que l’absence de feedback rende particulièrement difficile l’utilisation d’un mode de commande classique.
Mode de lecture d’écran
Dans un mode de commande classique, l’utilisateur navigue en réalisant des sélections dans les zones de sélection (par exemple en pressant certaines sous-zones) correspondant aux transitions qu’il désire.
Comme expliqué dans l’introduction, cela devient fastidieux dans un mode de lecture d’écran, en particulier si les éléments d’une deuxième zone de sélection secondaire changent pour chaque élément d’une première zone de sélection principale.
Le présent procédé propose astucieusement de présenter vocalement l’ensemble des zones de sélection comme un seul bloc au sein duquel une pluralité d’actions de navigation sont disponibles. En d’autres termes, au lieu d’avoir plusieurs types d’actions de navigation correspondant aux diverses zones de sélection (i.e. des actions de navigation par sélection d’un nouvel état de la première zone, plus des actions de navigation distinctes par sélection d’un nouvel état de la première zone, etc.), on a un seul type d’action de navigation correspondant à une sélection directe d’une combinaison d’états de toutes les zones de sélection. Par exemple, pour aller de « salles » vers « podcast », au lieu de changer l’état de la première zone de sélection de « Film » à « Radio » puis l’état de la deuxième zone de sélection de « Live » à « Podcast » (ce qui est impossible à intuiter pour une personne malvoyante), on passe directement de la combinaison d’états (Film, Salle) à la combinaison d’états (Radio, Podcast).
Pour cela, est définie une liste de combinaisons possibles d’états desdites zones de sélection. Selon un premier mode de réalisation, la liste contient toutes les combinaisons possibles d’états desdites zones de sélection, i.e. permet de sélectionner n’importe quelle page de l’ensemble. Par exemple, dans l’exemple des figures 2a, 2b, on prend la liste suivante : (Film, Salle), (Film, Sortie), (Film, Archives), (VOD, Louer), (VOD, Acheter), (Radio, Live), (Radio, Podcast), (Avis, Avis). Une telle liste peut être définie une fois pour toutes.
On note que comme expliqué juste avant certaines combinaisons ne sont en pratique pas directement atteignables depuis n’importe quelle page dans le mode de commande classique (par exemple, comme évoqué juste avant, pour aller de la page associée à la combinaison d’états (Film, Salle) à la page associée à la combinaison d’états (Radio, Podcast) on passe normalement par la page associée à la combinaison d’états (Radio, Live)), de sorte que dans un deuxième mode de réalisation la liste de combinaisons possibles d’états desdites zones de sélection ne contient que les combinaisons associées à une page directement « atteignable » depuis la page courante, i.e. la liste contient toutes les combinaisons associées à une page du sous-ensemble formé des pages vers lesquelles une transition est possible, tel que défini plus haut.
Dans un tel cas, la liste de combinaisons possibles d’état pour la page courante (Film, Salle) ne contient plus que (Film, Salle), (Film, Sortie), (Film, Archives), (VOD, Louer), (Radio, Live), (Avis, Avis). Les 2e et 3e correspondent à une action de navigation via la deuxième zone seule, et les 4e et 5e correspondent à une action de navigation via la première zone seule. A noter qu’une telle liste dépend de la page courante donc :
- soit elle est regénérée à chaque sélection d’une nouvelle page courante (en explorant les actions de navigation possibles) ;
- soit on prédéfinit la liste associée à chaque page de l’ensemble.
Dans tous les cas, cette liste est par exemple ordonnée pour faciliter sa lecture, en particulier suivant la hiérarchie des zones de sélection (ce qui est le cas dans les deux exemples ci-avant).
On pourra cependant faire n’importe quel ordonnancement porteur de logique pour l’utilisateur (par exemple ordonner les pages par ordre alphabétique sur leur nom). On définit alors les états d’une combinaison courante de la liste comme ceux de la prochaine page qui sera sélectionnée comme page courante si le « bloc » de sélection est sollicité, la combinaison courante étant préférentiellement initialisée comme celle des états de la page courante, ou bien la première combinaison de la liste.
Cette liste peut être vue comme une liste d’actions de navigation possibles liées à l’ensemble des zones de sélection, l’action associée à un combinaison de la liste étant virtuellement le fait de procéder à une action de navigation sur une ou plusieurs zones de sélection en fonction des états des zones de sélection correspondant à cette combinaison. Par exemple, de la page courante (Film, Salle), une sélection vers la page (Film, Sortie) correspond à une action de navigation via la deuxième zone de sélection seule, et une sélection vers la page (Radio, Podcast) correspond à une action de navigation via la première zone de sélection puis une action de navigation via la deuxième zone.
Par ailleurs, la liste peut en complément comprendre un élément de sortie de menu, dont la sélection entraîne la sortie dudit ensemble de pages, et le retour par exemple à une page externe (par exemple la page d’ouverture de l’application).
Dans un mode de réalisation particulier, l’étape (a) comprend la description vocale sur la sortie audio 14 de ladite liste de combinaisons possibles d’états desdites zones de sélection, de façon classique pour un lecteur d’écran : celui-ci va seulement lire d’un coup toutes les combinaisons possibles d’états desdites zones de sélection, et pas seulement les états possibles, zone de sélection par zone de sélection, indépendamment. On note que la lecture d’une combinaison comprend préférentiellement :
- son nom tel qu’associé à la page, et/ou
- un numéro de combinaison, en particulier sur le nombre total de combinaisons de la liste. Par exemple, dans le cas où la liste comprend toutes les combinaisons possibles, i.e. 8 éléments pour l’exemple représenté, peut être lu :
« Salles de cinéma - 1 sur 8
Sorties de cinéma - 2 sur 8
... »
A noter que cette lecture peut suivre celle d’instructions sur la présente utilisation du clavier virtuel pour expliquer par exemple à l’utilisateur de brancher un casque sur la sortie audio 14 pour garder la confidentialité, et ensuite comment il va pouvoir naviguer.
En référence à la figure 3, dans une étape (b), l’utilisateur utilise la liste pour naviguer, de façon itérative : l’utilisateur peut aller d’une page à une autre de manière répétée. On comprend donc que l’étape (b) est mise en oeuvre autant de fois que l’utilisateur peut le souhaiter.
Deux gestes peuvent être effectués sur l’interface graphique utilisateur 13, l’un (dit premier geste) permettant de changer de combinaison courante, i.e. de faire défiler la liste, en vue d’une sélection et l’autre (dit second geste) permettant de valider la combinaison courante pour sélection comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection. Si la combinaison sélectionnée est associée à l’actuelle page courante, on peut prévoir que rien ne se passe et/ou informer l’utilisateur.
A noter qu’il peut y avoir en complément un troisième geste dédié à la sortie de l’ensemble de pages (s’il y a un geste pour cette action, il n’est pas obligatoire que la liste comprenne un élément correspondant, et le cas échéant la liste peut exclusivement contenir des combinaisons d’états). Ces gestes n’excluent pas la possibilité d’encore d’autres gestes tels qu’un geste par défaut du mode de lecture d’écran pour lire une zone, ou un geste pour annuler toute la saisie et sortir.
Par geste, on entend un mouvement caractéristique effectué par l’utilisateur selon la nature de l’interface graphique utilisateur 13.
Si celle-ci est un écran tactile, lesdits premier et deuxième gestes sont des gestes de toucher, avec le doigt ou un stylet par exemple. Classiquement, le geste « par défaut » du mode de lecture d’écran pour lire une zone peut être un toucher simple, i.e. bref et sans mouvement, et les premier et deuxième gestes peuvent être des touchers différents tels qu’un toucher glissé pour le premier geste (en anglais « swipe », c’est-à-dire un déplacement pendant la durée du toucher), et un toucher double ou un toucher long (pendant une durée supérieure à un seuil donné permettant de différencier un toucher simple d’un toucher long) pour le deuxième geste.
Si l’interface graphique utilisateur 13 est une autre technologie par exemple une combinaison écran/dispositif de pointage, les gestes peuvent être des déplacements du pointeur ou le pressage de certains boutons. Classiquement, le geste « par défaut » du mode de lecture d’écran pour lire une zone peut être un clic gauche, et les premier et deuxième gestes peuvent être d’autres actions telles qu’une rotation d’une molette pour le premier geste (en anglais « scrolling »), et un toucher clic ou un clic gauche pour le deuxième geste.
On note qu’il peut y avoir plusieurs premiers gestes, correspondant par exemple à deux sens de parcours de la liste (i.e. deux premiers gestes différents). Par exemple, un toucher glissé vers le haut (« swipe up ») peut faire défiler la liste dans un sens tel que le sens croissant si elle est ordonnée (la combinaison courante passe de (0 ; 0) à (0 ; 1 ), à (0 ; 2), etc.), et un toucher glissé vers le bas (« swipe down ») peut faire défiler la liste dans l’autre sens tel que le sens décroissant si elle est ordonnée (l’élément courant passe de (0 ; 2) à (0 ; 1 ), à (0 ; 0), etc.). La même chose est possible avec la molette par exemple. En ce qui concerne le troisième geste, on peut par exemple prendre un toucher glissé avec une autre direction pour (« swipe left ») pour la sortie du menu.
On note que la liste peut boucler : si la combinaison courante est la dernière combinaison et que l’on continue à faire le premier geste, on revient à la première combinaison de la liste (par exemple un swipe up fait passer de (3 ; 0), à « effacement », à (0 ; 0), à (0 ; 1 ), etc.).
Dans un mode de réalisation particulier, chaque détection d’un premier ou deuxième geste peut être accompagnée de la description vocale sur la sortie audio 14 de l’action mise en oeuvre suite à cette détection.
En d’autres termes, un changement d’élément courant de la liste peut s’accompagner d’une description vocale sur la sortie audio 14 du nouvel élément courant (typiquement, sa valeur est simplement prononcée), la sélection comme nouvelle page courante dudit ensemble de la page associée à la combinaison courante peut s’accompagner d’une description de cette sélection, à nouveau sur la base du nom de la nouvelle page courante et/ou du numéro de la combinaison (si par exemple la combinaison courante est (Radio ; Podcast), alors peut être prononcé « sélection : radio en différé - 7 sur 8 »).
Serveur de sécurité et équipement informatique
Selon un deuxième aspect, l’invention concerne l’équipement informatique 1 pour la mise en oeuvre du procédé selon le premier aspect.
Comme expliqué, cet équipement informatique 1 comprend un module de traitement de données 1 1 et une interface utilisateur graphique 13. Il s’agit par exemple d’un écran tactile. L’équipement informatique 1 peut en outre comprendre une sortie audio 14, un module de stockage de données 12, un module de communication, configuré pour être connecté à un serveur distant 2, etc.
Le module de traitement de données 1 1 est ainsi configuré pour :
éventuellement sélectionner une page par défaut comme page courante d’un ensemble de pages navigable en fonction d’actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique 13, chaque page étant associé à une combinaison unique d’états des zones de sélection ; pour une page courante dudit ensemble :
- Soit détecter un premier geste effectué par l’utilisateur sur l’interface graphique utilisateur 13, et alors changer une combinaison courante d’une liste de combinaisons possibles d’états desdites zones de sélection ;
- Soit détecter un deuxième geste, différent du premier geste, effectué par l’utilisateur sur l’interface utilisateur 13, et alors sélectionner comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection. Produit programme d’ordinateur
Selon un troisième et un quatrième aspects, l’invention concerne un produit programme d’ordinateur comprenant des instructions de code pour l’exécution (en particulier sur le module de traitement de données 1 1 de l’équipement informatique 1 ) d’un procédé selon le premier aspect de l’invention de commande d’un équipement informatique 1 , ainsi que des moyens de stockage lisibles par un équipement informatique (le module de stockage de données 12 de l’équipement informatique 1 ) sur lequel on trouve ce produit programme d’ordinateur.

Claims

REVENDICATIONS
1. Procédé de commande d’un équipement informatique (1 ) comprenant une interface utilisateur graphique (13), le procédé étant caractérisé en ce qu’il comprend la mise en oeuvre par un module de traitement de données (1 1 ) d’étapes de :
(b) Pour une page courante d’un ensemble de pages navigable en fonction d’actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique (13), chaque page étant associée à une combinaison unique d’états des zones de sélection :
- Si détection d’un premier geste effectué par l’utilisateur sur l’interface graphique utilisateur (13), changement d’une combinaison courante d’une liste de combinaisons possibles d’états desdites zones de sélection ;
- Si détection d’un deuxième geste, différent du premier geste, effectué par l’utilisateur sur l’interface utilisateur (13), sélection comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection.
2. Procédé selon la revendication 1 , dans lequel ladite interface graphique (13) est un écran tactile, lesdits premier et deuxièmes gestes étant des gestes de toucher.
3. Procédé selon la revendication 2, dans lequel le premier geste est un toucher glissé et le deuxième geste est un toucher double.
4. Procédé selon l’une des revendications 1 à 3, dans lequel l’équipement informatique (1 ) comprend en outre une sortie audio (14), l’étape (b) comprenant la description vocale sur la sortie audio (14) d’une action mise en oeuvre suite à la détection d’un premier ou deuxième geste.
5. Procédé selon la revendication 4, comprenant une étape (a) de sélection comme page courante d’une page par défaut dudit ensemble, l’étape (a) comprenant la description vocale sur la sortie audio (14) de ladite liste de combinaisons possibles d’états desdites zones de sélection.
6. Procédé selon l’une des revendications 4 à 5, dans lequel les combinaisons de ladite liste de combinaisons possibles d’états desdites zones de sélection sont numérotées, la description vocale sur la sortie audio (14) d’une action mise en oeuvre suite à la détection d’un premier ou deuxième geste comprenant la lecture du numéro de la combinaison courante.
7. Procédé selon l’une des revendications 1 à 6, dans lequel la pluralité de zones de sélection comprend au moins une première zone de sélection et une deuxième zone de sélection, la première zone de sélection présentant un niveau hiérarchique supérieur à la deuxième zone de sélection.
8. Procédé selon la revendication 7, dans lequel la première zone de sélection comprend un nombre d’états donné, et la deuxième zone de sélection comprend un nombre d’états fonction de l’état de la première zone de sélection.
9. Equipement informatique (1 ) comprenant un module de traitement de données (1 1 ) et une interface utilisateur graphique (13), caractérisé en ce que le module de traitement de données (1 1 ) est configuré pour, pour une page courante d’un ensemble de pages navigable en fonction d’actions de navigation sur une pluralité de zones de sélection desdites pages via ladite interface utilisateur graphique (13), chaque page étant associée à une combinaison unique d’états des zones de sélection :
- Soit détecter un premier geste effectué par l’utilisateur sur l’interface graphique utilisateur (13), et alors changer une combinaison courante d’une liste de combinaisons possibles d’états desdites zones de sélection ;
- Soit détecter un deuxième geste, différent du premier geste, effectué par l’utilisateur sur l’interface utilisateur (13), et alors sélectionner comme nouvelle page courante dudit ensemble de la page associée à ladite combinaison courante d’états desdites zones de sélection.
10. Produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 8 de commande d’un équipement informatique (1 ), lorsque ledit programme est exécuté par un ordinateur.
1 1 . Moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 8 de commande d’un équipement informatique (1 ).
PCT/EP2020/065165 2019-06-05 2020-06-02 Procede de commande d'un equipement informatique WO2020245098A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1905956A FR3096494B1 (fr) 2019-06-05 2019-06-05 Procédé de commande d’un équipement informatique
FRFR1905956 2019-06-05

Publications (1)

Publication Number Publication Date
WO2020245098A1 true WO2020245098A1 (fr) 2020-12-10

Family

ID=68424980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/065165 WO2020245098A1 (fr) 2019-06-05 2020-06-02 Procede de commande d'un equipement informatique

Country Status (2)

Country Link
FR (1) FR3096494B1 (fr)
WO (1) WO2020245098A1 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020087330A1 (en) * 2001-01-03 2002-07-04 Motorola, Inc. Method of communicating a set of audio content
US20180336006A1 (en) * 2017-05-16 2018-11-22 Bank Of America Corporation Graphical user interface language model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020087330A1 (en) * 2001-01-03 2002-07-04 Motorola, Inc. Method of communicating a set of audio content
US20180336006A1 (en) * 2017-05-16 2018-11-22 Bank Of America Corporation Graphical user interface language model

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Innovative Techniques in Instruction Technology, E-learning, E-assessment and Education - [proceedings of the 2007 International Conference on Engineering Education, Instructional Technology, Assessment, and E-Learning (EIAE 07) ; part of the International Joint Conferences on Computer, Information", 1 January 2008, SPRINGER, NL, ISBN: 978-1-4020-8738-7, article F JAVIER DIAZ ET AL: "Evaluating the Usability of the Mobile Interface of an Educational Website", pages: 47 - 52, XP055652486, DOI: 10.1007/978-1-4020-8739-4_9 *
ANONYMOUS: "How can I make links accessible?", 18 February 2019 (2019-02-18), pages 1 - 4, XP055652760, Retrieved from the Internet <URL:https://media.screensteps.com/exported/uvacollab/5194/150982/How_can_I_make_links_accessible_.pdf> [retrieved on 20191213] *
JON GUNDERSON ET AL: "Techniques for User Agent Accessibility Guidelines 1.0 W3C Working Draft 28 January 2000", 28 January 2000 (2000-01-28), pages 1 - 63, XP055652913, Retrieved from the Internet <URL:https://www.w3.org/TR/2000/WD-UAAG10-TECHS-20000128/> [retrieved on 20191213] *
ROSSI G ET AL: "Refactoring to Rich Internet Applications. A Model-Driven Approach", WEB ENGINEERING, 2008. ICWE '08. EIGHTH INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 14 July 2008 (2008-07-14), pages 1 - 12, XP031290828, ISBN: 978-0-7695-3261-5 *
WANG S ET AL: "Designing a Generalized 3D Carousel View", 2 April 2005 (2005-04-02), pages 2017 - 2020, XP002586939, ISBN: 978-1-58113-998-3, Retrieved from the Internet <URL:1-59593-002-7> *

Also Published As

Publication number Publication date
FR3096494A1 (fr) 2020-11-27
FR3096494B1 (fr) 2023-10-27

Similar Documents

Publication Publication Date Title
TWI533192B (zh) 具有客製化導航之圖形使用者界面
US10338783B2 (en) Tab sweeping and grouping
JP6318232B2 (ja) ユーザ通知及び制御のためのタブレベルでの音声管理
US20070124699A1 (en) Three-dimensional active file explorer
US20130111412A1 (en) User interfaces and associated apparatus and methods
FR2964779A1 (fr) Terminal mobile, et procede, programme d&#39;ordinateur et moyens de stockage correspondants
FR2982682A3 (fr) Dispositif d&#39;affichage pour saisir les caracteres dudit dispositif
EP2731011A1 (fr) Accès média instantané partagé pour dispositifs mobiles
FR3079048A1 (fr) Procede d’interaction entre d’une part au moins un utilisateur et/ou un premier dispositif electronique et d’autre part un second dispositif electronique
EP3202116B1 (fr) Procédé et dispositif d&#39;aide à la décision
WO2020245098A1 (fr) Procede de commande d&#39;un equipement informatique
EP3924806A1 (fr) Procédé de commande d&#39;un équipement informatique pour saisir un code personnel
US10656788B1 (en) Dynamic document updating application interface and corresponding control functions
FR3064767B1 (fr) Systeme informatique et procede correspondant pour la gestion de contenus
FR2966261A1 (fr) Procede de navigation au sein d&#39;un terminal mobile, et terminal incluant le procede
FR3038436A1 (fr) Telecommande virtuelle
Taivan et al. Design considerations for application selection and control in multi-user public displays
EP1849299B1 (fr) Procede et dispositif d&#39;edition de programme audiovisuel
Otnes Customizing and Personalizing Windows
FR2904712A1 (fr) Procede de navigation dans une arborescence, dispositif et systeme associes.
Moran et al. Personalizing Windows 7
WO2012136920A1 (fr) Procede et systeme de configuration pour configurer dynamiquement un systeme informatique de commande d&#39;au moins un dispositif electrique
FR2965644A1 (fr) Terminal mobile et procede, programme d&#39;ordinateur et moyens de stockage correspondants
FR2966262A1 (fr) Terminal mobile, et procede, programme d&#39;ordinateur et moyens de stockage correspondants

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20728517

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20728517

Country of ref document: EP

Kind code of ref document: A1