WO2013153338A1 - Improved command generation in a touch-screen device - Google Patents

Improved command generation in a touch-screen device Download PDF

Info

Publication number
WO2013153338A1
WO2013153338A1 PCT/FR2013/050794 FR2013050794W WO2013153338A1 WO 2013153338 A1 WO2013153338 A1 WO 2013153338A1 FR 2013050794 W FR2013050794 W FR 2013050794W WO 2013153338 A1 WO2013153338 A1 WO 2013153338A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
support
touch screen
sensor
area
Prior art date
Application number
PCT/FR2013/050794
Other languages
French (fr)
Inventor
Marcos SERRANO
Eric LECOLINET
Original Assignee
Institut Mines Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Mines Telecom filed Critical Institut Mines Telecom
Publication of WO2013153338A1 publication Critical patent/WO2013153338A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing

Definitions

  • the present invention relates to the generation of commands in equipment comprising a touch screen, such as for example mobile telecommunication terminals (smart-phones, for example), or tablets, or other.
  • a touch screen such as for example mobile telecommunication terminals (smart-phones, for example), or tablets, or other.
  • the present invention improves the situation.
  • Touch screen means a display screen provided on its surface with a device for detecting contact with a finger, a stylus or the like, which presses on the surface of the screen at a given point .
  • the touch screen may comprise a capacitive slab, or infrared transmitters / sensors, or others. Often, such devices can accurately determine the coordinates of the point of contact on the surface of the screen.
  • screen edge area is meant, on the other hand, a termination area of the screen, for example the border flanking the screen. It can then be an area of the screen not covered by the device for detecting touch inputs. Thus, pressing the "screen edge area” is not detected by the touch screen in this case.
  • the detection of a support in an edge area of screen is characterized by the detection of a support by the aforementioned sensor, and no detection of support by the touch screen, while the detection of a support in a screen area is characterized by the detection of a support by the touch screen, at least.
  • “Support” is understood to mean touching, touching, touching, tapping or striking, carried out by a user's finger or caused by a stylus (or other) handled by the user.
  • the aforementioned sensor "sensitive to a support by a user on a screen edge area", is able to detect a support in an area that is out of detection by the touch screen. It may be for example a capacitive sensor arranged on the edge of the equipment (for example on the side edge of a mobile telecommunications equipment type smart-phone or tablet), or, according to a mode embodiment described below, an acceleration sensor responsive to a support not detected by the touch screen.
  • the invention then proposes:
  • threshold time means such a predetermined time interval, which for example may be of the order of a few hundred milliseconds (for example between 200 ms and 600 ms).
  • the command that is generated, following this double detection can be for example an unlocking of the equipment, or access to particular shortcuts in a menu, or other, according to various possible embodiments, described below.
  • the aforementioned predetermined command comprises an unlocking of the equipment.
  • the first and second aforementioned supports are detected in a screen edge area.
  • the user can press twice in succession, sufficiently close in time, on the edge of the screen and / or on the edge of the equipment, to cause the unlocking of the equipment.
  • this unlocking function is usually caused by a slide of the finger (after turning on the screen by pressing a physical button).
  • the second support is detected in the screen area and a position of the second support on the touch screen area is determined to initiate an application corresponding to this detected position of the second touch on the touch screen.
  • first and second support do not necessarily characterize a sequence in time of the first and second support.
  • the "second” support simply characterizes a support on the touch screen area, and may intervene possibly before the first support, the essential thing being that the first and second supports are spaced in time by the duration threshold mentioned above.
  • the first support is the first detected in time and more particularly, the first support (in the screen edge area) causes a display of one-page icons. the second press on one of these icons causes the execution of an application corresponding to the selected icon.
  • chaining a support at the edge of the screen with a touch on the screen can generate a new command, such as the execution of a shortcut specific to a user of the equipment.
  • the screen being rectangular, screen corner icons, at least, are displayed after the first support and correspond to custom shortcuts to predetermined applications.
  • the user having only a few hundred milliseconds to choose the icon to activate can direct his eyes directly to the corners of the screen to activate a chosen icon.
  • the aforementioned sensor may be sensitive to a support near a particular corner of the screen.
  • the first support may be displayed for example icons near this particular corner, according to a preferred configuration of a user of the equipment.
  • Another user can define another corner of the screen to display preferentially icons that he has chosen.
  • the aforementioned sensor may comprise an accelerometer, which is advantageous in terms of the cost of designing an equipment in the sense of the invention. If it is furthermore desired to detect screen edge supports in different edge regions or corners of the screen as indicated above, it may advantageously be provided with at least two acceleration sensors arranged at distinct corners of the screen. 'screen. Optionally, it can be provided for example four acceleration sensors arranged at the four corners of the screen as will be seen in an exemplary embodiment detailed below.
  • the present invention also relates to a control module of a device comprising a touch screen and at least one sensor sensitive to a support by a user on a screen edge area.
  • the module comprising:
  • the present invention also provides equipment comprising a touch screen, a sensor responsive to a support by a user on a screen edge area, and a control module of the aforementioned type.
  • the present invention also relates to a computer program comprising instructions for the implementation of this method, when this program is executed by a processor, particularly the processor. processor of a control module within the meaning of the invention.
  • FIG. 2 illustrates a comparison of the signals from a touch screen and a sensor of an equipment within the meaning of the invention
  • FIG. 3 schematically illustrates the steps of an exemplary embodiment of the method in the sense of the invention, corresponding then to a flow diagram of a general algorithm of a computer program within the meaning of the invention
  • FIG. 7 shows the signals along three axes x, y and z, from an acceleration sensor C of the type shown in Figure 1, in particular;
  • FIG. 8A illustrates a support on a screen edge area
  • FIG. 8B illustrates, in an exemplary embodiment, a consecutive display of icons associated with the support represented in FIG. 8A.
  • equipment within the meaning of the invention comprises at least one touch screen ECR, as well as a sensor C (for example an acceleration sensor), both connected to a control module MOD of the invention. 'equipment.
  • the MOD module receives two types of signals:
  • an acceleration sensor C the other that delivers another sensor, for example an acceleration sensor C.
  • the signal coming from the touch screen SE presents, in the example represented, a variation of intensity at a time t 2 , while the signal delivered by the sensor is at a time ti (here before t 2 ) a strong intensity variation.
  • MOD control module is arranged then to detect whether the difference Dt, between the instants ti and t 2 is less than a threshold T to 0, if appropriate, trigger a suitable control.
  • the module MOD consecutively receives two strong signal variations from the sensor Se, while the signal coming from the touch screen S E has no variation (dashed lines of the signal S E , illustrated in FIG. 2) , then the control module MOD can issue another command, as will be seen hereinafter with reference now to FIG.
  • a first test T1 is performed to determine whether a signal is received from the sensor C.
  • the signal from the sensor is sampled at a chosen frequency and if a strong variation of the signal is detected (beyond of one or more successive thresholds, as illustrated by way of example in FIG. 7), the module MOD declares the detection of a support by the sensor C. If this is indeed the case (arrow ok at the output of the test Tl ), it is sought to determine if the signal Se has a second strong intensity variation on the T2 test, in a time interval less than the threshold duration T 0 (at the T3 test).
  • the control module MOD delivers a first command in step S5 (referenced COM1 in FIG. 3).
  • This first command may correspond for example to an unlocking of the equipment.
  • two successive taps on the edge of the screen (not detected by the touch screen) trigger the unlocking of the equipment, in an exemplary embodiment possible.
  • the control module MOD delivers a second possible command COM 2 at step S 6.
  • This second command can be for example the launch of an application corresponding to a icon on which the user pressed in the screen area and therefore identified by the ECR touch screen, as will be seen later with reference to Figure 8B.
  • a short time delay (a few tens of milliseconds) can be implemented in the event of success on the Tl test (OK arrow at the output of the Tl test) and before the T4 test, so as not to trigger the step S6 if it is detected simultaneously.
  • a support by the touch screen and the sensor C (which is likely to occur with an acceleration sensor C if the user taps on the touch screen, as shown in Figure 2 at time t 2 ).
  • the MOD control module comprises, with reference now to FIG. 4, at least one URT unit for receiving and processing the signals coming from the sensor Se and originating from the touch screen. S E.
  • This unit URT identifies strong variations in intensity of the signal Se and can further determine an exact position of support on the touch screen from the signal S E.
  • This unit URT can thus determine the time difference Dt illustrated in FIG. 2, with reference to a clock HOR (for example the clock of a processor).
  • the module MOD also typically comprises a processor PROC, as well as a working memory MEM, for comparing the elapsed time Dt with the predetermined threshold duration T 0 , then performing the test T3 of FIG. 3 and delivering (if the duration Measured dt is less than the threshold duration) a suitable command COM, by an output SOR which furthermore comprises the module MOD.
  • the equipment comprises a screen area represented by hatching and referenced ZI.
  • the touch screen ECR is then touch sensitive in this zone ZI.
  • the edges of this zone, referenced Z2 are external to the detection zone by the touch screen and a support in this zone Z2 is not detected by the touch screen.
  • this support can be detected by at least one of the sensors C1, C2, C3 and C4 that the equipment in this embodiment comprises (for example acceleration sensors).
  • the equipment further comprises other devices, for example a microphone, a camera, and the like, forming RI and R2 visual cues for a user, when the screen is off.
  • FIG. 6 when the user presses a first time at a TAP point (for example in the form of a tape) in the screen edge zone Z2, the module MOD detects no particular variation signal in the ZI zone.
  • the sensors C1 to C4 deliver signals with variations in intensity, with in particular a greater variation for the sensors C3 and C4, in the example of FIGS. 5 and 6.
  • FIG. acceleration signals that can be measured by one of the sensors C1 to C4, along the three axes x, y and z of FIG. 6. In an exemplary embodiment, these signals are sampled at a frequency of 100 Hz (a sample every 10 ms). With the aid of four acceleration sensors, it is possible to determine, for example, eight distinct positions of support on the edge zone Z2, as illustrated in FIG. 6. However, the arrangement of two acceleration sensors only at two corners of the Z2 screen edge area also made it possible to obtain satisfactory results.
  • the user can type with his finger a selected region (center, edge or corner) in the edge zone.
  • Z2 screen which generates with reference to Figure 8B an icon display (bearing the references Tap 0 to Tap 15), with the most relevant icon for example (Tap 10) being displayed near his finger .
  • the MOD module is able to detect a point where the user has typed with his finger on the edge area of the screen Z2 and accordingly display the most relevant icons near his finger (eg personal shortcuts of the equipment user, or most-launched application icons, or favorites icons, or others).
  • the user using the visual references RI and R2, can tap one of the corners of the equipment with his finger, so that the MOD control module recognizes the user by the corner on which he typed. Then, the MOD module controls the display of icons of a custom desktop for this user (with icons specific to this user). Then, if another user taps on another corner of the equipment, other icons (specific to that other user) appear, and so on.
  • the signal from the touch screen S E of Figure 2 is much more complex. It gives both support information on the touch screen, moment of support, and support coordinates. The same goes for the signal coming from the sensors C1 to C4, since they can give, by triangulation, both the moment of support and the coordinates of the support in the edge zone of screen Z2 .
  • the chosen threshold duration T 0 may be of the order of a few hundred milliseconds as indicated above (for example between 200 and 600 ms). It can also be adjusted by the user himself for example in a user preferences setting menu.
  • the invention is not limited to a particular embodiment of a command that can trigger the module based on the detections it performs. It may in fact be provided various orders that are generated however according to two criteria:
  • the two detections being measured at a time interval less than the aforementioned threshold duration T 0 .

Abstract

The invention relates to command generation in a device comprising a touch screen. Advantageously, the device is also provided with at least one sensor (TAP) that is sensitive to the user tapping an area at the edge of the screen (Z2), wherein the method comprises the following steps: consecutively detecting a first tap and a second tap, the at least first and second taps being detected in the area at the edge of the screen (Z2); estimating a time between detecting the first and second taps; and deciding to execute a predetermined command if the estimated time is shorter than a selected threshold time.

Description

Génération perfectionnée de commandes dans un équipement à écran tactile  Improved order generation in touch screen equipment
La présente invention concerne la génération de commandes dans des équipements comportant un écran tactile, tels que par exemple des terminaux de télécommunication mobile (smart-phones, par exemple), ou encore des tablettes, ou autres. The present invention relates to the generation of commands in equipment comprising a touch screen, such as for example mobile telecommunication terminals (smart-phones, for example), or tablets, or other.
Dans de tels équipements, il est proposé souvent une unique interface homme/machine par le biais d'un simple écran tactile. Toutefois, les commandes qui peuvent être générées à partir d'une simple interaction avec un écran tactile restent limitées. In such equipment, it is often proposed a single human / machine interface through a simple touch screen. However, commands that can be generated from a simple interaction with a touch screen remain limited.
Il est recherché actuellement d'augmenter le nombre de commandes qui peuvent être générées dans le cadre d'une telle interface. It is currently sought to increase the number of commands that can be generated as part of such an interface.
La présente invention vient améliorer la situation. The present invention improves the situation.
Elle propose à cet effet un procédé de commande d'un équipement comportant un écran tactile, dans lequel on prévoit en outre un capteur sensible à un appui par un utilisateur sur une zone de bord d'écran. Le procédé comporte alors les étapes : It proposes for this purpose a control method of a device comprising a touch screen, in which there is further provided a sensor responsive to a support by a user on a screen edge area. The process then comprises the steps:
- détections successivement d'un premier appui et d'un deuxième appui, l'un au moins des premier et deuxième appuis étant détecté dans une zone de bord d'écran,  detecting successively a first support and a second support, at least one of the first and second supports being detected in a screen edge zone,
estimation d'une durée entre les détections des premier et deuxième appuis, et décision d'exécuter une commande prédéterminée si la durée estimée est inférieure à une durée seuil, choisie.  estimating a duration between the detections of the first and second supports, and decision to execute a predetermined command if the estimated duration is less than a threshold duration, chosen.
On entend par « écran tactile » un écran d'affichage muni, en sa surface, d'un dispositif de détection d'un contact par un doigt, un stylet ou autre, qui appuie sur la surface de l'écran en un point donné. L'écran tactile peut comporter une dalle capacitive, ou encore des émetteurs/capteurs infrarouges, ou autres. Souvent, de tels dispositifs permettent de déterminer précisément les coordonnées du point de contact sur la surface de l'écran. On entend par « zone de bord d'écran », en revanche, une zone de terminaison de l'écran, par exemple la bordure encadrant l'écran. Il peut alors s'agir d'une zone de l'écran non couverte par le dispositif de détection des entrées tactiles. Ainsi, un appui sur « la zone de bord d'écran » n'est pas détecté par l'écran tactile dans ce cas. "Touch screen" means a display screen provided on its surface with a device for detecting contact with a finger, a stylus or the like, which presses on the surface of the screen at a given point . The touch screen may comprise a capacitive slab, or infrared transmitters / sensors, or others. Often, such devices can accurately determine the coordinates of the point of contact on the surface of the screen. By "screen edge area" is meant, on the other hand, a termination area of the screen, for example the border flanking the screen. It can then be an area of the screen not covered by the device for detecting touch inputs. Thus, pressing the "screen edge area" is not detected by the touch screen in this case.
Ainsi, dans un mode de réalisation où l'écran tactile est sensible à un appui sur une zone d'écran et insensible à un appui sur une zone de bord d'écran, la détection d'un appui dans une zone de bord d'écran se caractérise par la détection d'un appui par le capteur précité, et aucune détection d'appui par l'écran tactile, tandis que la détection d'un appui dans une zone d'écran se caractérise par la détection d'un appui par l'écran tactile, au moins. Thus, in an embodiment where the touch screen is sensitive to a support on a screen area and insensitive to a support on a screen edge area, the detection of a support in an edge area of screen is characterized by the detection of a support by the aforementioned sensor, and no detection of support by the touch screen, while the detection of a support in a screen area is characterized by the detection of a support by the touch screen, at least.
On entend par « appui » aussi bien un effleurement qu'un toucher, un contact, une tape ou un choc, réalisés par le doigt d'un utilisateur ou provoqué par un stylet (ou autre) manipulé par l'utilisateur. "Support" is understood to mean touching, touching, touching, tapping or striking, carried out by a user's finger or caused by a stylus (or other) handled by the user.
Ainsi, le capteur précité, « sensible à un appui par un utilisateur sur une zone de bord d'écran », est capable de détecter un appui dans une zone qui est hors de détection par l'écran tactile. Il peut s'agir par exemple d'un capteur capacitif agencé sur le bord de l'équipement (par exemple sur la tranche latérale d'un équipement de télécommunication mobile de type smart-phone ou tablette), ou encore, conformément à un mode de réalisation décrit plus loin, un capteur d'accélération sensible à un appui non détecté par l'écran tactile. Thus, the aforementioned sensor, "sensitive to a support by a user on a screen edge area", is able to detect a support in an area that is out of detection by the touch screen. It may be for example a capacitive sensor arranged on the edge of the equipment (for example on the side edge of a mobile telecommunications equipment type smart-phone or tablet), or, according to a mode embodiment described below, an acceleration sensor responsive to a support not detected by the touch screen.
L'invention propose alors : The invention then proposes:
- de combiner les deux détections (par l'écran tactile, d'une part, et par le capteur précité, d'autre part) pour déclencher une action choisie si les deux détections ont lieu dans un intervalle de temps prédéterminé,  to combine the two detections (by the touch screen, on the one hand, and by the aforementioned sensor, on the other hand) to trigger a chosen action if the two detections take place in a predetermined time interval,
- ou encore de déclencher une action particulière si deux détections par le capteur seulement sont réalisées dans un intervalle de temps prédéterminé. On entend alors par « durée seuil » ci-avant, un tel intervalle de temps, prédéterminé, qui par exemple peut être de l'ordre de quelques centaines de millisecondes (par exemple compris entre 200 ms et 600 ms). or else to trigger a particular action if two detections by the sensor only are performed in a predetermined time interval. The term "threshold time" above then means such a predetermined time interval, which for example may be of the order of a few hundred milliseconds (for example between 200 ms and 600 ms).
La commande qui est générée, suite à cette double détection, peut être par exemple un déverrouillage de l'équipement, ou un accès à des raccourcis particuliers dans un menu, ou autre, selon différents modes de réalisation possibles, décrits ci-après. The command that is generated, following this double detection, can be for example an unlocking of the equipment, or access to particular shortcuts in a menu, or other, according to various possible embodiments, described below.
On comprendra de façon générale que doubler les différents types de détection permet de rendre la technique de détection plus robuste : la détection ne se déclenche pas par hasard ou par erreur. Elle permet aussi de multiplier avantageusement le nombre de commandes possibles, par rapport à ce qu'offre habituellement un simple écran tactile. Ce but est atteint grâce au simple ajout d'un capteur qui, dans le cas par exemple d'un capteur d'accélération, a un coût d'implantation et de mise en œuvre très faible. It will be understood in general that doubling the different types of detection makes the detection technique more robust: the detection is not triggered by chance or by mistake. It also allows to multiply advantageously the number of possible commands, compared to what usually offers a simple touch screen. This goal is achieved by simply adding a sensor which, in the case for example of an acceleration sensor, has a very low cost of implementation and implementation.
Dans un mode de réalisation, la commande prédéterminée précitée comporte un déverrouillage de l'équipement. Dans un exemple de mise en œuvre possible de ce mode de réalisation, les premier et deuxième appuis précités sont détectés dans une zone de bord d'écran. Par exemple ici, l'utilisateur peut appuyer deux fois de suite, de façon suffisamment rapprochée dans le temps, sur le bord de l'écran et/ou sur la tranche de l'équipement, pour provoquer le déverrouillage de l'équipement. A titre d'exemple, dans nombre de smart-phones connus, cette fonction de déverrouillage est habituellement provoquée par un glissé du doigt (après allumage de l'écran par un appui sur un bouton physique). In one embodiment, the aforementioned predetermined command comprises an unlocking of the equipment. In an exemplary possible implementation of this embodiment, the first and second aforementioned supports are detected in a screen edge area. For example here, the user can press twice in succession, sufficiently close in time, on the edge of the screen and / or on the edge of the equipment, to cause the unlocking of the equipment. For example, in many known smart phones, this unlocking function is usually caused by a slide of the finger (after turning on the screen by pressing a physical button).
Dans une autre réalisation, le deuxième appui est détecté dans la zone d'écran et une position du deuxième appui sur la zone d'écran tactile est déterminée pour lancer une application correspondant à cette position détectée du deuxième appui sur l'écran tactile. Π convient de noter ici que les termes « premier et deuxième appuis » ne caractérisent pas nécessairement un enchaînement dans le temps du premier, puis du deuxième appui. Dans ce mode de réalisation, le « deuxième » appui caractérise simplement un appui sur la zone d'écran tactile, et peut intervenir possiblement avant le premier appui, l'essentiel étant que les premier et deuxième appuis soient espacés dans le temps par la durée seuil précitée. In another embodiment, the second support is detected in the screen area and a position of the second support on the touch screen area is determined to initiate an application corresponding to this detected position of the second touch on the touch screen. It should be noted here that the terms "first and second support" do not necessarily characterize a sequence in time of the first and second support. In this embodiment, the "second" support simply characterizes a support on the touch screen area, and may intervene possibly before the first support, the essential thing being that the first and second supports are spaced in time by the duration threshold mentioned above.
Néanmoins, dans un détail de réalisation possible, il est avantageux que le premier appui soit le premier détecté dans le temps et plus particulièrement, le premier appui (dans la zone de bord d'écran) provoque un affichage d' icônes d'une page d'accueil, tandis que le deuxième appui sur l'un de ces icônes provoque l'exécution d'une application correspondant à l'icône sélectionné. Ainsi, enchaîner un appui en bord d'écran avec un appui sur l'écran peut générer une nouvelle commande, comme par exemple l'exécution d'un raccourci propre à un utilisateur de l'équipement. However, in a possible embodiment, it is advantageous that the first support is the first detected in time and more particularly, the first support (in the screen edge area) causes a display of one-page icons. the second press on one of these icons causes the execution of an application corresponding to the selected icon. Thus, chaining a support at the edge of the screen with a touch on the screen can generate a new command, such as the execution of a shortcut specific to a user of the equipment.
Dans une réalisation possible, l'écran étant rectangulaire, des icônes de coins d'écran, au moins, s'affichent après le premier appui et correspondent à des raccourcis personnalisés vers des applications prédéterminées. Avantageusement, l'utilisateur disposant de quelques centaines de millisecondes seulement pour choisir l'icône à activer peut orienter directement son regard vers les coins de l'écran pour y activer un icône choisi. In one possible embodiment, the screen being rectangular, screen corner icons, at least, are displayed after the first support and correspond to custom shortcuts to predetermined applications. Advantageously, the user having only a few hundred milliseconds to choose the icon to activate can direct his eyes directly to the corners of the screen to activate a chosen icon.
Par ailleurs, en complément ou en variante, le capteur précité peut être sensible à un appui à proximité d'un coin particulier de l'écran. Ainsi, si le premier appui est détecté à proximité de ce coin particulier, il peut s'afficher par exemple des icônes à proximité de ce coin particulier, et ce, conformément à une configuration préférée d'un utilisateur de l'équipement. Un autre utilisateur peut définir un autre coin de l'écran pour y afficher préférentiellement des icônes qu'il a choisis. Furthermore, in addition or alternatively, the aforementioned sensor may be sensitive to a support near a particular corner of the screen. Thus, if the first support is detected near this particular corner, it may be displayed for example icons near this particular corner, according to a preferred configuration of a user of the equipment. Another user can define another corner of the screen to display preferentially icons that he has chosen.
Comme indiqué ci-avant, le capteur précité peut comporter un accéléromètre, ce qui est avantageux en terme de coût de conception d'un équipement au sens de l'invention. S'il est souhaité en outre détecter des appuis de bord d'écran dans différentes régions de bord ou de coins de l'écran comme indiqué précédemment, il peut avantageusement être prévu au moins deux capteurs d'accélération disposés à des coins distincts de l'écran. Optionnellement, il peut être prévu par exemple quatre capteurs d'accélération disposés aux quatre coins de l'écran comme on le verra dans un exemple de réalisation détaillé plus loin. As indicated above, the aforementioned sensor may comprise an accelerometer, which is advantageous in terms of the cost of designing an equipment in the sense of the invention. If it is furthermore desired to detect screen edge supports in different edge regions or corners of the screen as indicated above, it may advantageously be provided with at least two acceleration sensors arranged at distinct corners of the screen. 'screen. Optionally, it can be provided for example four acceleration sensors arranged at the four corners of the screen as will be seen in an exemplary embodiment detailed below.
La présente invention vise aussi un module de commande d'un équipement comportant un écran tactile et au moins un capteur sensible à un appui par un utilisateur sur une zone de bord d'écran. En particulier, le module comportant : The present invention also relates to a control module of a device comprising a touch screen and at least one sensor sensitive to a support by a user on a screen edge area. In particular, the module comprising:
- une unité de réception et de traitement de signaux issus de l'écran tactile et du capteur, pour identifier des détections successives d'un premier appui et d'un deuxième appui, l'un au moins des premier et deuxième appuis étant détecté dans une zone de bord d'écran,  a unit for receiving and processing signals coming from the touch screen and the sensor, to identify successive detections of a first support and a second support, at least one of the first and second supports being detected in a screen edge area,
- une horloge pour estimer une durée entre les détections des premier et deuxième appuis,  a clock for estimating a duration between the detections of the first and second supports,
- un circuit pour comparer la durée estimée à une durée seuil, choisie, et  a circuit for comparing the estimated duration with a chosen threshold duration, and
- une sortie pour délivrer un signal de commande prédéterminée, si la durée estimée est inférieure à ladite durée seuil.  an output for delivering a predetermined control signal, if the estimated duration is less than said threshold duration.
La présente invention vise aussi un équipement comportant un écran tactile, un capteur sensible à un appui par un utilisateur sur une zone de bord d'écran, et un module de commande du type précité. The present invention also provides equipment comprising a touch screen, a sensor responsive to a support by a user on a screen edge area, and a control module of the aforementioned type.
Dès lors que le module de commande peut être judicieusement programmé pour exécuter le procédé défini ci-avant, la présente vise aussi un programme informatique comportant des instructions pour la mise en œuvre de ce procédé, lorsque ce programme est exécuté par un processeur, notamment le processeur d'un module de commande au sens de l'invention. D'autres avantages et caractéristiques de l'invention apparaîtront à la lecture de la description détaillée ci-après d'exemples de réalisation, non limitatifs, et à l'examen des dessins annexés sur lesquels : As soon as the control module can be judiciously programmed to execute the method defined above, the present invention also relates to a computer program comprising instructions for the implementation of this method, when this program is executed by a processor, particularly the processor. processor of a control module within the meaning of the invention. Other advantages and characteristics of the invention will appear on reading the following detailed description of nonlimiting exemplary embodiments, and on examining the appended drawings in which:
- la figure 1 illustre schématiquement un équipement au sens de l'invention ; - Figure 1 schematically illustrates an equipment within the meaning of the invention;
- la figure 2 illustre une comparaison des signaux issus d'un écran tactile et d'un capteur d'un équipement au sens de l'invention ; - Figure 2 illustrates a comparison of the signals from a touch screen and a sensor of an equipment within the meaning of the invention;
- la figure 3 illustre schématiquement les étapes d'un exemple de réalisation du procédé au sens de l'invention, correspondant alors à un organigramme d'un algorithme général d'un programme informatique au sens de l'invention ;  FIG. 3 schematically illustrates the steps of an exemplary embodiment of the method in the sense of the invention, corresponding then to a flow diagram of a general algorithm of a computer program within the meaning of the invention;
- la figure 4 détaille un exemple de réalisation d'un module de commande d'un équipement au sens de l'invention ;  - Figure 4 details an embodiment of a control module of an equipment within the meaning of the invention;
- la figure 5 représente de façon plus détaillée la disposition de capteurs additionnels à un écran tactile, dans équipement au sens de l'invention ;  - Figure 5 shows in more detail the provision of additional sensors to a touch screen, in equipment within the meaning of the invention;
- la figure 6 illustre des zones d'appui possibles, en dehors de l'écran tactile ; - Figure 6 illustrates possible support areas, outside the touch screen;
- la figure 7 représente les signaux selon trois axes x, y et z, issus d'un capteur d'accélération C du type représenté sur la figure 1, notamment ; - Figure 7 shows the signals along three axes x, y and z, from an acceleration sensor C of the type shown in Figure 1, in particular;
- la figure 8 A illustre un appui sur une zone de bord d'écran, tandis que la figure 8B illustre, dans un exemple de réalisation, un affichage consécutif d' icônes associés à l'appui représenté sur la figure 8 A.  FIG. 8A illustrates a support on a screen edge area, while FIG. 8B illustrates, in an exemplary embodiment, a consecutive display of icons associated with the support represented in FIG. 8A.
En référence à la figure 1, un équipement au sens de l'invention comporte au moins un écran tactile ECR, ainsi qu'un capteur C (par exemple un capteur d'accélération), tous deux reliés à un module MOD de commande de l'équipement. En fonction des signaux que reçoit le module MOD, il est délivré une commande particulière COM, comme on le verra dans les exemples de réalisation décrits ci-après. En particulier, on relèvera sur la figure 1 que le module MOD reçoit deux types de signaux : With reference to FIG. 1, equipment within the meaning of the invention comprises at least one touch screen ECR, as well as a sensor C (for example an acceleration sensor), both connected to a control module MOD of the invention. 'equipment. Depending on the signals received by the MOD module, it is delivered a particular command COM, as will be seen in the embodiments described below. In particular, it will be noted in FIG. 1 that the MOD module receives two types of signals:
- l'un que délivre l'écran tactile, et  - one that delivers the touch screen, and
- l'autre que délivre un autre capteur, par exemple un capteur d'accélération C.  the other that delivers another sensor, for example an acceleration sensor C.
En référence maintenant à la figure 2, le signal issu de l'écran tactile SE (présenté ici très schématiquement et à titre didactique) présente, dans l'exemple représenté, une variation d'intensité à un instant t2, tandis que le signal que délivre le capteur Se présente à un instant ti (ici antérieur à t2) une forte variation d'intensité. Le module de commande MOD est agencé alors pour détecter si la différence Dt, entre les instants ti et t2, est inférieure à un seuil T0 pour, le cas échéant, déclencher une commande appropriée. Dans une variante, si le module MOD reçoit consécutivement deux variations fortes de signal issu du capteur Se, tandis que le signal issu de l'écran tactile SE ne présente aucune variation (traits pointillés du signal SE, illustrés sur la figure 2), alors le module de commande MOD peut délivrer une autre commande, comme on le verra ci-après en référence maintenant à la figure 3. Referring now to FIG. 2, the signal coming from the touch screen SE (presented here very schematically and for a didactic purpose) presents, in the example represented, a variation of intensity at a time t 2 , while the signal delivered by the sensor is at a time ti (here before t 2 ) a strong intensity variation. MOD control module is arranged then to detect whether the difference Dt, between the instants ti and t 2 is less than a threshold T to 0, if appropriate, trigger a suitable control. In a variant, if the module MOD consecutively receives two strong signal variations from the sensor Se, while the signal coming from the touch screen S E has no variation (dashed lines of the signal S E , illustrated in FIG. 2) , then the control module MOD can issue another command, as will be seen hereinafter with reference now to FIG.
Dans un exemple de réalisation, un premier test Tl est réalisé pour déterminer si un signal est reçu du capteur C. En pratique, le signal issu du capteur est échantillonné à une fréquence choisie et si une variation forte du signal est détectée (au-delà d'un ou plusieurs seuils successifs, comme illustré à titre d'exemple sur la figure 7), le module MOD déclare la détection d'un appui par le capteur C. Si tel est effectivement le cas (flèche ok en sortie du test Tl), on cherche à déterminer si le signal Se présente une deuxième variation forte d'intensité au test T2, dans un intervalle de temps inférieur à la durée seuil T0 (au test T3). Si tel est le cas (flèche ok en sortie du test T2), le module de commande MOD délivre une première commande à l'étape S5 (référencée COM1 sur la figure 3). Cette première commande peut correspondre par exemple à un déverrouillage de l'équipement. Ainsi, deux tapes successives sur le bord de l'écran (non détectées par l'écran tactile) déclenchent le déverrouillage de l'équipement, dans un exemple de réalisation possible. In an exemplary embodiment, a first test T1 is performed to determine whether a signal is received from the sensor C. In practice, the signal from the sensor is sampled at a chosen frequency and if a strong variation of the signal is detected (beyond of one or more successive thresholds, as illustrated by way of example in FIG. 7), the module MOD declares the detection of a support by the sensor C. If this is indeed the case (arrow ok at the output of the test Tl ), it is sought to determine if the signal Se has a second strong intensity variation on the T2 test, in a time interval less than the threshold duration T 0 (at the T3 test). If this is the case (ok arrow at the output of the test T2), the control module MOD delivers a first command in step S5 (referenced COM1 in FIG. 3). This first command may correspond for example to an unlocking of the equipment. Thus, two successive taps on the edge of the screen (not detected by the touch screen) trigger the unlocking of the equipment, in an exemplary embodiment possible.
Dans un exemple de réalisation où d'autres commandes peuvent être générées par une double détection par le capteur C, d'une part, et par l'écran tactile ECR, d'autre part, il peut être prévu un test intermédiaire T4 pour vérifier si une variation de signal est mesurée en sortie de l'écran tactile. En particulier, si l'écart temporel entre les instants ti et t2 de la figure 2 reste inférieur à la durée seuil T0, le module de commande MOD délivre une deuxième commande possible COM2, à l'étape S6. Cette deuxième commande peut être par exemple le lancement d'une application correspondant à un icône sur lequel a appuyé l'utilisateur dans la zone d'écran et repéré donc par l'écran tactile ECR, comme on le verra plus loin en référence à la figure 8B. Une temporisation courte (quelques dizaines de millisecondes) peut être mise en œuvre en cas de réussite au test Tl (flèche OK en sortie du test Tl) et avant le test T4, pour ne pas déclencher l'étape S6 s'il est détecté simultanément un appui par l'écran tactile et par le capteur C (ce qui est susceptible de se produire avec un capteur C d'accélération si l'utilisateur tape sur l'écran tactile, comme illustré sur la figure 2 à l'instant t2). Dans une variante, il est possible aussi de calibrer des seuils de variation du signal Se pour valider la détection par le capteur C si les variations du signal Se dépassent ces seuils. In an exemplary embodiment where other commands can be generated by a double detection by the sensor C, on the one hand, and by the touch screen ECR, on the other hand, it can be provided an intermediate test T4 to verify if a signal variation is measured at the output of the touch screen. In particular, if the time difference between the instants t 1 and t 2 of FIG. 2 remains lower than the threshold duration T 0 , the control module MOD delivers a second possible command COM 2 at step S 6. This second command can be for example the launch of an application corresponding to a icon on which the user pressed in the screen area and therefore identified by the ECR touch screen, as will be seen later with reference to Figure 8B. A short time delay (a few tens of milliseconds) can be implemented in the event of success on the Tl test (OK arrow at the output of the Tl test) and before the T4 test, so as not to trigger the step S6 if it is detected simultaneously. a support by the touch screen and the sensor C (which is likely to occur with an acceleration sensor C if the user taps on the touch screen, as shown in Figure 2 at time t 2 ). In a variant, it is also possible to calibrate the thresholds of variation of the signal Se to validate the detection by the sensor C if the variations of the signal exceed these thresholds.
Pour mettre en œuvre le procédé illustré sur le figure 3, le module de commande MOD comporte, en référence maintenant à la figure 4, au moins une unité URT de réception et de traitement des signaux issus du capteur Se et issus de l'écran tactile SE. Cette unité URT repère des variations fortes d'intensité du signal Se et peut déterminer en outre une position exacte d'appui sur l'écran tactile à partir du signal SE. Cette unité URT peut ainsi déterminer l'écart temporel Dt illustré sur la figure 2, en se référant à une horloge HOR (par exemple l'horloge d'un processeur). Le module MOD comporte d'ailleurs typiquement un processeur PROC, ainsi qu'une mémoire de travail MEM, pour comparer la durée écoulée Dt à la durée seuil prédéterminée T0, puis réaliser le test T3 de la figure 3 et délivrer (si la durée Dt mesurée est inférieure à la durée seuil) une commande appropriée COM, par une sortie SOR que comporte en outre le module MOD. To implement the method illustrated in FIG. 3, the MOD control module comprises, with reference now to FIG. 4, at least one URT unit for receiving and processing the signals coming from the sensor Se and originating from the touch screen. S E. This unit URT identifies strong variations in intensity of the signal Se and can further determine an exact position of support on the touch screen from the signal S E. This unit URT can thus determine the time difference Dt illustrated in FIG. 2, with reference to a clock HOR (for example the clock of a processor). The module MOD also typically comprises a processor PROC, as well as a working memory MEM, for comparing the elapsed time Dt with the predetermined threshold duration T 0 , then performing the test T3 of FIG. 3 and delivering (if the duration Measured dt is less than the threshold duration) a suitable command COM, by an output SOR which furthermore comprises the module MOD.
En référence maintenant à la figure 5, l'équipement comporte une zone d'écran représentée par des hachures et référencée ZI. L'écran tactile ECR est alors sensible à un toucher dans cette zone ZI. En revanche, les bords de cette zone, référencés Z2, sont extérieurs à la zone de détection par l'écran tactile et un appui dans cette zone Z2 n'est pas détecté par l'écran tactile. En revanche, cet appui peut être détecté par l'un au moins des capteurs Cl, C2, C3 et C4 que comporte l'équipement dans ce mode de réalisation (par exemple des capteurs d'accélération). L'équipement comporte en outre d'autres dispositifs, par exemple un microphone, une caméra, et autres, formant des repères visuels RI et R2 pour un utilisateur, lorsque l'écran est éteint. Ainsi, en référence à la figure 6, lorsque l'utilisateur appuie une première fois en un point TAP (par exemple sous la forme d'une tape) dans la zone de bord d'écran Z2, le module MOD ne détecte aucune variation particulière de signal dans la zone ZI. Toutefois, les capteurs Cl à C4 délivrent des signaux présentant des variations d'intensité, avec en particulier une plus forte variation pour les capteurs C3 et C4, dans l'exemple des figures 5 et 6. On a représenté sur la figure 7 les différents signaux d'accélération que peut mesurer l'un des capteurs Cl à C4, selon les trois axes x, y et z de la figure 6. Dans un exemple de réalisation possible, ces signaux sont échantillonnés à une fréquence de 100 Hz (un échantillon toutes les 10 ms). A l'aide de quatre capteurs d'accélération, il est possible de déterminer par exemple huit positions distinctes d'appui sur la zone de bord Z2, comme illustré sur la figure 6. Toutefois, la disposition de deux capteurs d'accélération seulement à deux coins de la zone de bord d'écran Z2 a permis aussi d'obtenir des résultats satisfaisants. Referring now to Figure 5, the equipment comprises a screen area represented by hatching and referenced ZI. The touch screen ECR is then touch sensitive in this zone ZI. On the other hand, the edges of this zone, referenced Z2, are external to the detection zone by the touch screen and a support in this zone Z2 is not detected by the touch screen. On the other hand, this support can be detected by at least one of the sensors C1, C2, C3 and C4 that the equipment in this embodiment comprises (for example acceleration sensors). The equipment further comprises other devices, for example a microphone, a camera, and the like, forming RI and R2 visual cues for a user, when the screen is off. Thus, with reference to FIG. 6, when the user presses a first time at a TAP point (for example in the form of a tape) in the screen edge zone Z2, the module MOD detects no particular variation signal in the ZI zone. However, the sensors C1 to C4 deliver signals with variations in intensity, with in particular a greater variation for the sensors C3 and C4, in the example of FIGS. 5 and 6. FIG. acceleration signals that can be measured by one of the sensors C1 to C4, along the three axes x, y and z of FIG. 6. In an exemplary embodiment, these signals are sampled at a frequency of 100 Hz (a sample every 10 ms). With the aid of four acceleration sensors, it is possible to determine, for example, eight distinct positions of support on the edge zone Z2, as illustrated in FIG. 6. However, the arrangement of two acceleration sensors only at two corners of the Z2 screen edge area also made it possible to obtain satisfactory results.
Ainsi, en référence maintenant à la figure 8A, l'utilisateur, en s'aidant des repères visuels RI et R2, peut taper de son doigt une région choisie (de centre, d'arête ou de coin) dans la zone de bord d'écran Z2, ce qui génère en référence à la figure 8B un affichage d'icones (portant les références Tap 0 à Tap 15), avec l'icône le plus pertinent par exemple (Tap 10) s 'affichant à proximité de son doigt. Ainsi, dans ce mode de réalisation, le module MOD est capable de détecter un point où l'utilisateur a tapé avec son doigt sur la zone de bord de l'écran Z2 et afficher en conséquence les icônes les plus pertinents à proximité de son doigt (par exemple des raccourcis personnels de l'utilisateur de l'équipement, ou les icônes des applications les plus lancées, ou des icônes de favoris, ou autres). Thus, with reference now to FIG. 8A, the user, with the help of the visual references R 1 and R 2, can type with his finger a selected region (center, edge or corner) in the edge zone. Z2 screen, which generates with reference to Figure 8B an icon display (bearing the references Tap 0 to Tap 15), with the most relevant icon for example (Tap 10) being displayed near his finger . Thus, in this embodiment, the MOD module is able to detect a point where the user has typed with his finger on the edge area of the screen Z2 and accordingly display the most relevant icons near his finger (eg personal shortcuts of the equipment user, or most-launched application icons, or favorites icons, or others).
Bien entendu, d'autres réalisations sont possibles. Par exemple, l'utilisateur, en s'aidant des repères visuels RI et R2, peut taper de son doigt l'un des coins de l'équipement, de sorte que le module de commande MOD reconnaît l'utilisateur par le coin sur lequel il a tapé. Ensuite, le module MOD commande l'affichage d'icones d'un bureau personnalisé pour cet utilisateur (avec des icônes propres à cet utilisateur). Ensuite, si un autre utilisateur tape sur un autre coin de l'équipement, il s'affiche d'autres icônes (propres à cet autre utilisateur), et ainsi de suite. Of course, other achievements are possible. For example, the user, using the visual references RI and R2, can tap one of the corners of the equipment with his finger, so that the MOD control module recognizes the user by the corner on which he typed. Then, the MOD module controls the display of icons of a custom desktop for this user (with icons specific to this user). Then, if another user taps on another corner of the equipment, other icons (specific to that other user) appear, and so on.
De multiples autres applications sont possibles, dès lors qu'il est possible de combiner deux modes de détection, l'un par un écran tactile classique, et l'autre par un capteur d'appui dans une zone de bord d'écran (non détectable par l'écran tactile). Multiple other applications are possible, since it is possible to combine two detection modes, one by a conventional touch screen, and the other by a support sensor in a screen edge area (no detectable by the touch screen).
Bien entendu, la présente invention ne se limite pas à la forme de réalisation décrite ci- avant à titre d'exemple ; elle s'étend à d'autres variantes. Of course, the present invention is not limited to the embodiment described above by way of example; it extends to other variants.
Ainsi, on a représenté de façon très schématique et à titre didactique le signal issu de l'écran tactile SE de la figure 2. En réalité, le signal issu de l'écran tactile est bien plus complexe. Il donne à la fois l'information d'appui sur l'écran tactile, l'instant d'appui, et les coordonnées d'appui. Il en va de même du signal issu des capteurs Cl à C4, dès lors qu'ils peuvent donner, par triangulation, à la fois l'instant d'appui et les coordonnées de l'appui dans la zone de bord d'écran Z2. Thus, there is shown very schematically and didactically the signal from the touch screen S E of Figure 2. In reality, the signal from the touch screen is much more complex. It gives both support information on the touch screen, moment of support, and support coordinates. The same goes for the signal coming from the sensors C1 to C4, since they can give, by triangulation, both the moment of support and the coordinates of the support in the edge zone of screen Z2 .
La durée seuil choisie T0 peut être de l'ordre de quelques centaines de millisecondes comme indiqué précédemment (par exemple entre 200 et 600 ms). Elle peut aussi être ajustée par l'utilisateur lui-même par exemple dans un menu de réglage des préférences d'utilisateur. The chosen threshold duration T 0 may be of the order of a few hundred milliseconds as indicated above (for example between 200 and 600 ms). It can also be adjusted by the user himself for example in a user preferences setting menu.
Enfin, l'invention n'est nullement limitée à un mode de réalisation particulier d'une commande que peut déclencher le module en fonction des détections qu'il réalise. Il peut en effet être prévu diverses commandes qui sont générées toutefois selon deux critères : Finally, the invention is not limited to a particular embodiment of a command that can trigger the module based on the detections it performs. It may in fact be provided various orders that are generated however according to two criteria:
- la détection par un capteur (par exemple d'accélération), sans aucune détection par l'écran tactile ; et  detection by a sensor (for example acceleration), without any detection by the touch screen; and
- une deuxième détection (par le capteur et/ou l'écran tactile),  a second detection (by the sensor and / or the touch screen),
les deux détections étant mesurées à un intervalle de temps inférieur à la durée seuil T0 précitée. the two detections being measured at a time interval less than the aforementioned threshold duration T 0 .

Claims

REVENDICATIONS
1. Procédé de commande d'un équipement comportant un écran tactile, dans lequel on prévoit en outre un capteur sensible à un appui par un utilisateur sur une zone de bord d'écran, le procédé comportant les étapes : A method of controlling a device comprising a touch screen, in which there is further provided a sensor responsive to a support by a user on a screen edge area, the method comprising the steps of:
- détections (T1,T2 ; T1,T4) successivement d'un premier appui et d'un deuxième appui, l'un au moins des premier et deuxième appuis étant détecté dans une zone de bord d'écran,  detections (T1, T2, T1, T4) successively of a first support and a second support, at least one of the first and second supports being detected in a screen edge zone,
estimation d'une durée (Dt) entre les détections des premier et deuxième appuis, et  estimating a duration (Dt) between the detections of the first and second bearings, and
décision d'exécuter une commande prédéterminée si la durée estimée est inférieure à une durée seuil (T0), choisie. decision to execute a predetermined command if the estimated duration is less than a threshold duration (T 0 ), chosen.
2. Procédé selon la revendication 1, dans lequel la commande prédéterminée (COM1) comporte un déverrouillage de l'équipement. 2. The method of claim 1, wherein the predetermined command (COM1) comprises an unlocking of the equipment.
3. Procédé selon la revendication 2, dans lequel les premier et deuxième appuis sont détectés dans une zone de bord d'écran {72). The method of claim 2, wherein the first and second supports are detected in a screen edge area (72).
4. Procédé selon l'une des revendications 1 et 2, dans lequel le deuxième appui est détecté dans une zone d'écran (ZI) et une position du deuxième appui sur la zone d'écran tactile est déterminée pour lancer (COM2) une application correspondant à ladite position du deuxième appui sur l'écran tactile. 4. Method according to one of claims 1 and 2, wherein the second support is detected in a screen area (ZI) and a position of the second support on the touch screen area is determined to launch (COM2) a application corresponding to said position of the second support on the touch screen.
5. Procédé selon la revendication 4, dans lequel le premier appui provoque un affichage d' icônes d'une page d'accueil (Tap 0, Tap 15) et le deuxième appui sur l'un desdits icônes provoque l'exécution d'une application correspondant à l'icone sélectionné (Tap 10). 5. Method according to claim 4, wherein the first support causes a display of icons of a home page (Tap 0, Tap 15) and the second press on one of said icons causes the execution of a application corresponding to the selected icon (Tap 10).
6. Procédé selon la revendication 5, dans lequel, l'écran étant rectangulaire, au moins des icônes de coins d'écran correspondent à des raccourcis personnalisés vers des applications prédéterminées. The method of claim 5, wherein, the screen being rectangular, at least screen corner icons correspond to custom shortcuts to predetermined applications.
7. Procédé selon l'une des revendications précédentes, dans lequel la durée seuil choisie est comprise entre 200 et 600 millisecondes. 7. Method according to one of the preceding claims, wherein the chosen threshold time is between 200 and 600 milliseconds.
8. Procédé selon l'une des revendications précédentes, dans lequel, 8. Method according to one of the preceding claims, wherein,
l'écran tactile (ECR) étant sensible à un appui sur une zone d'écran (ZI) et insensible à un appui sur une zone de bord d'écran (Z2), the touch screen (ECR) being sensitive to pressing on a screen area (ZI) and insensitive to pressing on a screen edge area (Z2),
la détection d'un appui dans une zone de bord d'écran (Z2) est caractérisée par la détection (T1,T2) d'un appui par le capteur, et aucune détection d'appui par l'écran tactile, the detection of a support in a screen edge area (Z2) is characterized by the detection (T1, T2) of a support by the sensor, and no detection of support by the touch screen,
et la détection d'un appui dans une zone d'écran (ZI) est caractérisée par la détection (T4) d'un appui au moins par l'écran tactile. and the detection of a support in a screen area (ZI) is characterized by the detection (T4) of a support at least by the touch screen.
9. Procédé selon l'une des revendications précédentes, dans lequel ledit capteur comporte un accéléromètre (C). 9. Method according to one of the preceding claims, wherein said sensor comprises an accelerometer (C).
10. Procédé selon la revendication 9, dans lequel, l'écran étant rectangulaire, il est prévu au moins deux capteurs d'accélération disposés à des coins distincts de l'écran (Cl, C2, C3, C4). 10. The method of claim 9, wherein, the screen being rectangular, there is provided at least two acceleration sensors arranged at distinct corners of the screen (C1, C2, C3, C4).
11. Module de commande d'un équipement comportant un écran tactile et au moins un capteur sensible à un appui par un utilisateur sur une zone de bord d'écran, 11. Control module of a device comprising a touch screen and at least one sensor sensitive to a support by a user on a screen edge area,
le module comportant : the module comprising:
- une unité de réception et de traitement (URT) de signaux issus de l'écran tactile et du capteur, pour identifier des détections successives d'un premier appui et d'un deuxième appui, l'un au moins des premier et deuxième appuis étant détecté dans une zone de bord d'écran, - une horloge (HOR) pour estimer une durée entre les détections des premier et deuxième appuis, - A reception and processing unit (URT) of signals from the touch screen and the sensor, to identify successive detections of a first support and a second support, at least one of the first and second supports being detected in a screen edge area, a clock (HOR) for estimating a duration between the detections of the first and second supports,
- un circuit (PROC, MEM) pour comparer la durée estimée à une durée seuil, choisie, et  a circuit (PROC, MEM) for comparing the estimated duration with a chosen threshold duration, and
- une sortie (SOR) pour délivrer un signal de commande prédéterminée, si la durée estimée est inférieure à ladite durée seuil.  an output (SOR) for delivering a predetermined control signal, if the estimated duration is less than said threshold duration.
12. Equipement comportant un écran tactile (ECR), un capteur (C) sensible à un appui par un utilisateur sur une zone de bord d'écran, et un module (MOD) de commande selon la revendication 11. 12. Equipment comprising a touch screen (ECR), a sensor (C) responsive to a support by a user on a screen edge area, and a control module (MOD) according to claim 11.
13. Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l'une des revendications 1 à 10, lorsque ce programme est exécuté par un processeur (PROC). 13. Computer program comprising instructions for implementing the method according to one of claims 1 to 10, when the program is executed by a processor (PROC).
PCT/FR2013/050794 2012-04-12 2013-04-11 Improved command generation in a touch-screen device WO2013153338A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1253393 2012-04-12
FR1253393A FR2989484A1 (en) 2012-04-12 2012-04-12 IMPROVED GENERATION OF CONTROLS IN TOUCH-SCREEN EQUIPMENT

Publications (1)

Publication Number Publication Date
WO2013153338A1 true WO2013153338A1 (en) 2013-10-17

Family

ID=46785541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2013/050794 WO2013153338A1 (en) 2012-04-12 2013-04-11 Improved command generation in a touch-screen device

Country Status (2)

Country Link
FR (1) FR2989484A1 (en)
WO (1) WO2013153338A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095282A (en) * 2016-05-31 2016-11-09 珠海市魅族科技有限公司 The touch operation method of key device, key device and terminal

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3125145A1 (en) * 2021-07-09 2023-01-13 Psa Automobiles Sa Method and device for controlling an infotainment system on board a vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012723A1 (en) * 2003-07-14 2005-01-20 Move Mobile Systems, Inc. System and method for a portable multimedia client
EP1918807A1 (en) * 2006-11-06 2008-05-07 Research In Motion Limited Screen object placement optimized for blind selection
US20100302139A1 (en) * 2007-12-07 2010-12-02 Nokia Corporation Method for using accelerometer detected imagined key press
US20110038114A1 (en) * 2009-08-17 2011-02-17 Apple Inc. Housing as an i/o device
US20110053641A1 (en) * 2008-11-10 2011-03-03 Samsung Electronics Co., Ltd. Motion input device for portable terminal and operation method using the same
EP2343626A2 (en) * 2009-12-25 2011-07-13 Fujitsu Limited Detected information correction apparatus and method
US20110209097A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P Use of Bezel as an Input Mechanism
US20120007836A1 (en) * 2010-07-08 2012-01-12 Hon Hai Precision Industry Co., Ltd. Touch screen unlocking device and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012723A1 (en) * 2003-07-14 2005-01-20 Move Mobile Systems, Inc. System and method for a portable multimedia client
EP1918807A1 (en) * 2006-11-06 2008-05-07 Research In Motion Limited Screen object placement optimized for blind selection
US20100302139A1 (en) * 2007-12-07 2010-12-02 Nokia Corporation Method for using accelerometer detected imagined key press
US20110053641A1 (en) * 2008-11-10 2011-03-03 Samsung Electronics Co., Ltd. Motion input device for portable terminal and operation method using the same
US20110038114A1 (en) * 2009-08-17 2011-02-17 Apple Inc. Housing as an i/o device
EP2343626A2 (en) * 2009-12-25 2011-07-13 Fujitsu Limited Detected information correction apparatus and method
US20110209097A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P Use of Bezel as an Input Mechanism
US20120007836A1 (en) * 2010-07-08 2012-01-12 Hon Hai Precision Industry Co., Ltd. Touch screen unlocking device and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PASCOE J ET AL: "USING WHILE MOVING: HCI ISSUES IN FIELDWORK ENVIRONMENTS", ACM TRANSACTIONS ON COMPUTER-HUMAN INTERACTION, ACM, NEW YORK, NY, US, vol. 7, no. 3, 1 September 2000 (2000-09-01), pages 417 - 437, XP001003178, ISSN: 1073-0516, DOI: 10.1145/355324.355329 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095282A (en) * 2016-05-31 2016-11-09 珠海市魅族科技有限公司 The touch operation method of key device, key device and terminal

Also Published As

Publication number Publication date
FR2989484A1 (en) 2013-10-18

Similar Documents

Publication Publication Date Title
US9703941B2 (en) Electronic device with touch screen for fingerprint recognition
US9922188B2 (en) Method and system of providing a picture password for relatively smaller displays
KR101682158B1 (en) Adaptive sensing component resolution based on touch location authentication
EP2524294B1 (en) Method for selecting an element of a user interface and device implementing such a method
EP2235614B1 (en) Electronic analysis circuit with alternation of capacitive/resistive measurement for passive-matrix multicontact tactile sensor
EP2310932B1 (en) Method for the acquisition and analysis of a multi-contact tactile sensor using a dichotomous principle, and electronic circuit and multi-contact tactile sensor implementing one such method
US20140237401A1 (en) Interpretation of a gesture on a touch sensing device
US20120290966A1 (en) Multiple screen mode in mobile terminal
US20140237408A1 (en) Interpretation of pressure based gesture
US9846529B2 (en) Method for processing information and electronic device
EP2518604A1 (en) Electronic analysis circuit with modulation of scanning characteristics for passive-matrix multicontact tactile sensor
US10642417B2 (en) Method and apparatus for determining touching action and display device
EP3149645A2 (en) Device for entering graphical password on small displays with cursor offset
FR2914760A1 (en) SYSTEM AND METHOD FOR RECORDING A DIGITAL PARAMETERIZING FOOTPRINT OF A METHOD OF OPENING AN APPLICATION SESSION AND OPENING A SESSION OF THE APPLICATION.
WO2017032020A1 (en) Image processing method and electronic terminal
US9122390B2 (en) Method, application and/or service to collect more fine-grained or extra event data from a user sensor device
EP2742409A1 (en) Method of characterizing touch on a tactile screen
EP2796949A1 (en) Method for handling an electronic device
WO2013153338A1 (en) Improved command generation in a touch-screen device
US10228792B2 (en) Touch determining device and method, and display device
WO2017088310A1 (en) Photographing method and device, and terminal
EP2867748B1 (en) Method for determining whether at least one key of a device having multiple keys has been actuated
US11294487B2 (en) Pressing operation detection device and method for detecting pressing operation
FR3013861A1 (en) METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY
EP2930606B1 (en) Method for managing the entry of data by pressing a touch-sensitive surface of an electronic terminal, corresponding module, terminal, computer program product and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13719997

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13719997

Country of ref document: EP

Kind code of ref document: A1